Google 和 Boston Dynamics 将 Gemini AI 整合至 Spot 机器人,实现自然语言控制、物体识别和任务执行,推进自适应机器人技术发展Google 和 Boston Dynamics 将 Gemini AI 整合至 Spot 机器人,实现自然语言控制、物体识别和任务执行,推进自适应机器人技术发展

Google 与 Boston Dynamics 将 Gemini 机器人模型整合至 Spot,实现先进感知与任务执行

2026/04/16 22:41
阅读时长 5 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。
Google 与 Boston Dynamics 将 Gemini Robotics 模型整合到 Spot 中以实现高级感知和任务执行

科技公司 Google 宣布与 Boston Dynamics 合作,将其 Gemini Robotics 具身推理模型整合到四足机器人 Spot 中,标志着人工智能在实际机器人应用方面迈出了重要一步。此次合作使机器人能够更好地理解其环境、识别物体,并根据自然语言指令执行任务,而不是仅仅依赖预编程的程序。

此整合建立在 2025 年内部黑客马拉松期间进行的实验工作基础上,开发人员探索了大型语言模型和视觉推理系统如何增强 Spot 的自主性。通过利用 Gemini Robotics,机器人可以处理来自其摄像头的视觉输入,并将高级指令(例如整理房间中的物品)转化为协调的物理动作。

与通常依赖严格的逐步逻辑的传统机器人编程不同,该系统引入了基于对话提示的更灵活界面。开发人员使用 Spot 的软件开发套件创建了一个中间软件层,使 Gemini 模型能够与机器人的应用程序编程接口进行通信。此框架使 AI 能够从一组定义的动作中进行选择,包括导航、物体检测、图像捕获、抓取和放置。

自然语言界面重塑机器人任务执行

在实际演示中,该系统展示了解释一般指令和适应动态环境的能力。例如,当被要求整理物品时,AI 模型分析视觉数据,识别相关物体,并指导机器人完成一系列动作。来自机器人的反馈(例如任务完成或物理限制)被实时纳入,使系统能够在无需人工干预的情况下调整其行为。

该方法通过将 AI 限制在机器人 API 内的预定义功能来维持操作边界,确保可预测和可控的性能。这种设计在适应性和安全性之间取得平衡,这是在物理系统中部署 AI 的关键考虑因素。

此次合作还突显了开发人员的潜在效率提升。通过减少大量手动编码的需求,自然语言界面使工程师能够专注于定义目标,而不是编程每个动作序列。这种转变可能会加速制造、检查和物流等行业的机器人应用开发。

尽管实施仍处于实验阶段,但该演示反映了物理 AI 的更广泛趋势,其中基础模型越来越多地用于增强机器感知和决策能力。两家公司均表示正在进行进一步开发,包括继续将基于 Gemini 的系统整合到机器人平台中。

此次合作表明正在向更直观的人机交互过渡,复杂的机器人行为可以通过简化的输入进行引导。随着 AI 模型的不断发展,这种整合可能会扩大自主系统的功能范围,同时降低其部署的技术障碍。

Google 与 Boston Dynamics 将 Gemini Robotics 模型整合到 Spot 中以实现高级感知和任务执行一文首次发表于 Metaverse Post。

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。

USD1 Genesis:0 费率 + 12% APR

USD1 Genesis:0 费率 + 12% APRUSD1 Genesis:0 费率 + 12% APR

新用户:质押最高享 600% APR。限时福利!