首页
学习
活动
专区
圈层
工具
发布

视触觉技术落地 人形机器人进入 “能看又能摸” 阶段

中经记者 秦枭 北京报道

随着深度学习与计算机视觉技术的飞速发展,机器人行业完成了“眼睛和大脑”的搭建,机器人能够实现环境识别、路径规划等基础功能,在工业分拣、仓储搬运等标准化场景中得到广泛应用。但当机器人试图走出标准化场景,进入复杂真实的物理世界完成精细操作时,却陷入了“看得见却做不好”的困境,触觉感知的缺失成为行业发展的最大瓶颈。

“要让机器人能真正像人一样去干活,仅仅依靠视觉还不够,必须像人一样有‘手感’,这是决定下一代机器人灵巧操作能力的分水岭。”纬钛机器人创始人李瑞博士对《中国经营报》记者表示。为了能给灵巧手以类人“手感”,近日,纬钛机器人一口气推出涵盖感知、执行、数据采集三大层级的四款视触觉核心产品,其中包括全球首款集超小尺寸、高分辨率、高频率于一体的视触觉仿生指尖GF515。

给指尖装上“神经末梢”

触觉感知技术是人形机器人灵巧手实现精密操作的核心基础,更是推动具身智能走向通用泛化的关键支撑。而目前市面上的人形机器人多为传统的阵列式的触觉传感器,包含压阻、电容和霍尔效应等类型,受限于分辨率较低、无法测切向力/摩擦力、容易受环境干扰等众多问题,性能与人手相差很大。

这一短板直接导致机器人在实际操作中陷入“看得见却做不好”的困境:精密零部件装配时,微小的位置偏差无法通过触觉修正,极易造成零件或接口损坏;抓取草莓、薯片等易碎品,或是织物、线缆等柔性物体时,因无法感知接触力的分布,要么用力过猛造成损毁,要么用力不足导致物体滑移坠落。

与此同时,触觉感知的缺失也制约了具身智能的发展。此前机器人的训练数据,以视觉信息和动作轨迹为主,“接触”这一反映物理交互的核心维度信息长期缺席,使得机器人在虚拟训练中习得的能力,难以有效迁移到真实物理场景中,形成了“虚拟训练与现实操作脱节” 的行业痛点。可以说,在机器人向“灵巧操作”进阶的过程中,触觉感知能力的突破与落地,已成为行业发展的必然要求。

而基于视觉的触觉传感器(以下简称“视触觉”)是目前学术界公认的最先进触觉方案,而这也是纬钛机器人一直坚持的路线。

此次纬钛机器人发布的GF515就是专为灵巧手打造的视触觉仿生指尖。可以完美适配灵巧手的小型化、高性能需求,其标准款尺寸仅15×27mm,与人类指尖相当且可进一步小型化,单体重量不足15克,解决了灵巧手指尖空间稀缺的行业难题。在极小体积内,GF515集成了每平方厘米上万点的触觉信息密度,最高可达人手的几百倍,能捕捉10微米级的纹理细节,还可精准探测法向力、切向力、扭矩等多维力信息及滑移状态。0.01N的最小感知能力,能让机器人察觉比羽毛更轻微的接触变化;120Hz 的高刷新率,实现毫秒级实时闭环控制,让机器人触觉从“可选配置”走向可规模化部署的核心能力,也是第一次让灵巧手真正接近类人的“手感”。

“自由度决定动作的上限,而触觉决定操作的质量。”李瑞指出,“GF515的意义,不是给灵巧手加一个传感器,而是给它补上真正的‘指尖神经’。当机器人有了手感,灵巧操作才真正开始。”

从“能看”到“能摸”

“未来真正有价值的机器人数据,不会是单一视觉的数据,也不会只是动作的轨迹,而是和真实接触过程强绑定的多模态数据。”李瑞强调。

在传统的机器人应用场景中,视觉数据和动作轨迹数据占据了主导地位。然而,随着科技的不断发展,人们逐渐意识到这些单一的数据类型存在着明显的局限性。单一的视觉数据虽然能让机器人“看到”周围的环境,但无法感知物体的质地、硬度、温度等物理属性。而单纯的动作轨迹数据,只能反映机器人的运动路径,无法体现与物体交互时的真实感受。

多模态数据则不同,它将视觉、触觉等多种感知信息融合在一起,能让机器人更全面、更深入地理解周围环境和与物体的交互过程。例如,当机器人抓取一个物体时,多模态数据不仅能记录下物体的外观和位置,还能感知到物体的重量、表面粗糙度以及抓取时的力度等信息。

GF515传感器的出现为获取多模态数据提供了有力支持。它让机器人拥有了类人的“手感”,能在与物体接触时收集丰富的触觉信息。这些触觉信息与视觉数据相结合,形成了更有价值的多模态数据。

如果说GF515是为灵巧手补上“指尖神经”,那么VT-UMI85视触觉数据采集系统的亮相,则直指具身智能的另一块核心拼图:真实接触数据的长期缺失。过去,真实世界的数据采集成本极高——设备笨重、操作复杂、依赖定制环境,而传统UMI数采设备只有视觉数据,导致“接触”这一维度的信息长期缺失于AI训练体系。

而纬钛机器人此次推出的VT-UMI85视触觉数据采集系统则为具身智能搭建了关键 “数据底座”。这款全球首个融合视触觉与多模态数据的工业化采集平台,自重仅500克,轻巧便携且支持真实场景自然采集,融合视触觉等多模态信息,以毫秒级精度实现时间同步,确保采集数据 100%复现。更重要的是,它打通了 “采集—训练—验证—落地” 的完整数据工作流闭环,让科研机构和产业客户无需从零拼接工具链,可直接开展有效的具身智能训练。

“未来模型的上限取决于数据的上限,而数据的上限取决于你能不能把真实接触、真实反馈、稳定高质量地带入训练系统。”李瑞强调,“VT-UMI85视触觉数据采集系统把触觉能力升级成了数据能力,把纬钛机器人从核心器件公司推向更底层、更长期的平台性位置。”

此外,面向工业场景GF220两指传感器和VT-GRIPPER90视触觉夹爪,也实现了技术的商业化落地。GF220以45克的重量实现47%的体积缩减,同时保留毫牛级力觉与10微米级分辨率,适配精密装配等场景;VT-GRIPPER90将传统夹爪升级为感知执行单元,能实时捕捉滑移与接触状态,满足柔性抓取的工业需求,为3C、汽车、食品等行业的实际生产提供了可落地的触觉解决方案。

(编辑:张靖超 审核:李正豪 校对:宛玲)

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O4uo7xL20r9qSfh42IXondPQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券