北京交通大学提出软体机器人“感知-运动”通用模型
11月18日,北京交通大学教授郭盛研究团队在《Nature Communications》发文,受人脑中的高层感知模型启发,提出了基于期望–实际匹配的感知–运动框架,并在集成传感的软体机器人中实现了研究构想。
在大脑机制中,人脑中的高级感知模型将外部来源产生的传入感官信号和与自身行动相对应的期望感知信号结合起来,感知并引导人体运动。在软体机器人中真正实现这种高层次的感知–动作框架还面临着两大难题:首先,软体机器人如何稳定准确地区分外界交互和内部驱动产生的材料形变;其次,如何实现软体机器人系统的多模态感知。在此背景下,研究团队建立了双模块杆驱动软连续机器人(RDSR)的本体感知模型,测试了多段式柔性传感器(PSS)在仅施加外部刺激而不驱动、仅驱动而不施加刺激、驱动后施加刺激三种情况下的性能表现。结果表明,其能准确反映内外刺激造成的局部应变。团队还进行了本体自感知、交互检测及形变源区分。结果表明,无论外部和内部动作是单独还是同时进行,通过实时感知并匹配“预期–实际”形状(平均误差为1.4%),机器人系统在感知–驱动环路中快速(0.4 秒内检测到)、准确地检测到接触并区分变形源。软体机器人系统还展示了在静态和动态构型中对动静态交互力方向及大小的感知。实验表明,系统能准确感知接触方向及力大小,方向误差约为10°。同时,通过对不可视环境中的地形和交互力进行感知与分析,实现了不可视环境中的交互力和形状检测。
团队设计了两个实验场景。第一个场景是软体机器人主动交互下的环境自主探索,让软体臂通过主动与环境碰撞交互学习,实时更新目标并寻找正确路径,实现在环境中的自主探索和导航。第二个场景则是软体机器人被动交互下的自主学习与适应,让软体臂通过与操作员的被动交互开展自主学习与重复的任务,结果显示交互点位置和力曲线与示教期间记录的几乎相同。
© 版权声明
本文由分享者转载或发布,内容仅供学习和交流,版权归原文作者所有。如有侵权,请留言联系更正或删除。
相关文章
暂无评论...