[返回电脑前线首页]·[所有跟帖]·[ 回复本帖 ] ·[热门原创] ·[繁體閱讀]·[版主管理]
用Vision Pro实时训练机器狗!MIT博士生开源项目火了
送交者: gonewithsmoke[☆★★★声望勋衔15★★★☆] 于 2024-03-11 14:26 已读 7086 次  

gonewithsmoke的个人频道

Vision Pro又现火爆新玩法,这回还和具身智能联动了~

就像这样,MIT小哥利用Vision Pro的手部追踪功能,成功实现了对机器狗的实时控制。


不仅开门这样的动作能精准get:


也几乎没什么延时。


Demo一出,不仅网友们大赞鹅妹子嘤,各路具身智能研究人员也嗨了。

比如这位准清华叉院博士生:


还有人大胆预测:这就是我们与下一代机器互动的方式。


项目如何实现,作者小哥朴英孝(Younghyo Park)已经在GitHub上开源。相关App可以直接在Vision Pro的App Store上下载。


用Vision Pro训练机器狗

具体来看看作者小哥开发的App——Tracking Steamer。

顾名思义,这个应用程序旨在利用Vision Pro追踪人类动作,并将这些动作数据实时传输到同一WiFi下的其他机器人设备上。


动作追踪的部分,主要依靠苹果的ARKit库来实现。

其中头部追踪调用的是queryDeviceAnchor。用户可以通过长按数字表冠来重置头部框架到当前位置。

手腕和手指追踪则通过HandTrackingProvider实现。它能够追踪左右手腕相对于地面框架的位置和方向,以及每只手25个手指关节相对于手腕框架的姿态。


网络通信方面,这个App使用gRPC作为网络通信协议来流式传输数据。这使得数据能被更多设备订阅,包括Linux、Mac和Windows设备。

另外,为了方便数据传输,作者小哥还准备了一个Python API,让开发者能够通过编程方式订阅和接收从Vision Pro流式传输的追踪数据。

API返回的数据是字典形式,包含头部、手腕、手指的SE(3)姿态信息,即三维位置和方向。开发者可以直接在Python中处理这些数据,用于对机器人的进一步分析和控制。


就像不少专业人士所指出的那样,别看机器狗的动作还是由人类控制,事实上,相比于“操控”本身,结合模仿学习算法,人类在这个过程中,更像是机器人的教练。

而Vision Pro通过追踪用户的动作,提供了一种直观、简单的交互方式,使得非专业人员也能够为机器人提供精准的训练数据。

作者本人也在论文中写道:

在不久的将来,人们可能会像日常戴眼镜一样佩戴Vision Pro这样的设备,想象一下我们可以从这个过程中收集多少数据!

这是一个充满前景的数据源,机器人可以从中学习到,人类是如何与现实世界交互的。

最后,提醒一下,如果你想上手试一试这个开源项目,那么除了必备一台Vision Pro之外,还需要准备:

苹果开发者账户

Vision Pro开发者配件(Developer Strap,售价299美元)

安装了Xcode的Mac电脑

嗯,看样子还是得先让苹果赚一笔了(doge)。

项目链接:https://github.com/Improbable-AI/VisionProTeleop?tab=readme-ov-file

喜欢gonewithsmoke朋友的这个贴子的话, 请点这里投票,“赞”助支持!
[举报反馈]·[ gonewithsmoke的个人频道 ]·[-->>参与评论回复]·[用户前期主贴]·[手机扫描浏览分享]·[返回电脑前线首页]
帖子内容是网友自行贴上分享,如果您认为其中内容违规或者侵犯了您的权益,请与我们联系,我们核实后会第一时间删除。

所有跟帖:        ( 主贴楼主有权删除不文明回复,拉黑不受欢迎的用户 )


    用户名:密码:[--注册ID--]

    标 题:

    粗体 斜体 下划线 居中 插入图片插入图片 插入Flash插入Flash动画


         图片上传  Youtube代码器  预览辅助

    打开微信,扫一扫[Scan QR Code]
    进入内容页点击屏幕右上分享按钮

    楼主本栏目热帖推荐:

    >>>>查看更多楼主社区动态...






    [ 留园条例 ] [ 广告服务 ] [ 联系我们 ] [ 个人帐户 ] [ 版主申请 ] [ Contact us ]