谷歌发布视觉语言动作模型 RT-2,可以让机器人学会扔垃圾

人工智能
谷歌推出了一种新的人工智能(AI)模型 Robotics Transformer2(RT-2),可以帮助训练机器人理解扔垃圾等任务。

7 月 28 日消息,谷歌今日推出了一种新的人工智能(AI)模型 Robotics Transformer2(RT-2),可以帮助训练机器人理解扔垃圾等任务。

▲ 图源 谷歌 DeepMind 官网

谷歌表示,RT-2 是一种视觉语言动作模型,可将互联网上采集的信息和图像转化为机器人可理解的动作,从而帮助提升机器人的学习能力。

虽然像捡垃圾这样的任务对于人类来说听起来很简单,但机器人需要了解一系列知识后才能学习。例如,机器人必须首先能够识别哪些物品构成垃圾,然后要知道如何将其捡起来并扔掉。

RT-2 允许机器人使用来自网络的知识来帮助它理解如何完成任务,而不是为机器人编程来完成这些特定的任务。即使机器人没有明确地接受过确切步骤的训练,也能通过 RT-2 学会完成新的任务。

据《纽约时报》报道,谷歌近期没有计划发布或销售采用这项新技术的机器人,但最终这项技术或许可以用于仓储物流或家庭助理机器人。

IT之家附上 RT-2 模型详细说明点此前往

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-07-31 16:19:47

机器人人工智能

2017-03-27 09:59:25

机器人自创语言交流

2023-08-08 10:12:17

谷歌机器人

2022-10-28 13:16:07

四足机器人机器人人工智能

2021-01-04 09:18:36

机器人人工智能系统

2019-12-24 09:31:55

机器人人工智能编程

2023-07-29 13:43:26

机器人模型

2022-08-27 15:10:36

Ameca机器人模仿

2024-01-24 13:13:00

AI数据

2018-07-06 08:58:53

机器人人工智能系统

2023-04-04 18:28:55

机器人流体力API

2024-03-11 00:35:00

谷歌智能研究

2020-09-02 10:36:52

机器人人工智能系统

2023-10-22 20:14:08

人工智能GPT-4

2022-06-07 14:35:53

机器人人工智能

2023-09-07 13:26:10

AI智能

2023-05-23 09:56:14

机器人谷歌

2024-02-19 07:10:00

视觉模型

2023-05-11 07:45:48

PaLM 2人工智能Bard

2023-09-02 11:22:50

模型训练
点赞
收藏

51CTO技术栈公众号