Google và Boston Dynamics tích hợp AI Gemini vào robot Spot, cho phép điều khiển bằng ngôn ngữ tự nhiên, nhận diện đối tượng và thực thi tác vụ, thúc đẩy công nghệ robot thích ứngGoogle và Boston Dynamics tích hợp AI Gemini vào robot Spot, cho phép điều khiển bằng ngôn ngữ tự nhiên, nhận diện đối tượng và thực thi tác vụ, thúc đẩy công nghệ robot thích ứng

Google Và Boston Dynamics Tích Hợp Các Mô Hình Robot Gemini Vào Spot Để Nâng Cao Khả Năng Nhận Thức Và Thực Thi Nhiệm Vụ

2026/04/16 22:41
Đọc trong 4 phút
Đối với phản hồi hoặc thắc mắc liên quan đến nội dung này, vui lòng liên hệ với chúng tôi qua [email protected]
Google And Boston Dynamics Integrate Gemini Robotics Models Into Spot For Advanced Perception And Task Execution

Công ty công nghệ Google đã công bố hợp tác với Boston Dynamics để tích hợp các mô hình lý luận thể hiện Gemini Robotics vào robot bốn chân Spot, đánh dấu một bước tiến trong việc ứng dụng trí tuệ nhân tạo vào robot thực tế. Sự hợp tác này cho phép robot diễn giải môi trường tốt hơn, nhận diện đối tượng và thực hiện các nhiệm vụ dựa trên hướng dẫn ngôn ngữ tự nhiên, thay vì chỉ dựa vào các quy trình được lập trình sẵn.

Việc tích hợp được xây dựng dựa trên công việc thử nghiệm được thực hiện trong hackathon nội bộ năm 2025, nơi các nhà phát triển khám phá cách các mô hình ngôn ngữ lớn và hệ thống lý luận trực quan có thể nâng cao tính tự chủ của Spot. Bằng cách tận dụng Gemini Robotics, robot có thể xử lý đầu vào hình ảnh từ camera và chuyển đổi các hướng dẫn cấp cao—chẳng hạn như sắp xếp đồ vật trong phòng—thành các hành động vật lý phối hợp.

Không giống như lập trình robot truyền thống, thường phụ thuộc vào logic từng bước cứng nhắc, hệ thống này giới thiệu một giao diện linh hoạt hơn dựa trên các lời nhắc hội thoại. Các nhà phát triển đã tạo ra một lớp phần mềm trung gian sử dụng bộ công cụ phát triển phần mềm của Spot, cho phép các mô hình Gemini giao tiếp với giao diện lập trình ứng dụng của robot. Khung này cho phép AI lựa chọn từ một tập hợp các hành động được xác định, bao gồm điều hướng, phát hiện đối tượng, chụp ảnh, cầm nắm và đặt.

Giao diện ngôn ngữ tự nhiên định hình lại việc thực thi nhiệm vụ robot

Trong các cuộc trình diễn thực tế, hệ thống đã cho thấy khả năng diễn giải các hướng dẫn chung và thích ứng với môi trường động. Ví dụ, khi được giao nhiệm vụ sắp xếp các vật phẩm, mô hình AI đã phân tích dữ liệu trực quan, xác định các đối tượng liên quan và hướng dẫn robot thông qua một chuỗi hành động. Phản hồi từ robot—chẳng hạn như hoàn thành nhiệm vụ hoặc các ràng buộc vật lý—được kết hợp theo thời gian thực, cho phép hệ thống điều chỉnh hành vi của nó mà không cần can thiệp thủ công.

Cách tiếp cận này duy trì ranh giới hoạt động bằng cách hạn chế AI vào các khả năng được xác định trước trong API của robot, đảm bảo hiệu suất có thể dự đoán và được kiểm soát. Thiết kế này cân bằng khả năng thích ứng với sự an toàn, một yếu tố quan trọng khi triển khai AI trong các hệ thống vật lý.

Sự hợp tác cũng làm nổi bật tiềm năng tăng hiệu quả cho các nhà phát triển. Bằng cách giảm nhu cầu mã hóa thủ công rộng rãi, các giao diện ngôn ngữ tự nhiên cho phép các kỹ sư tập trung vào việc xác định mục tiêu thay vì lập trình từng chuỗi hành động. Sự thay đổi này có thể đẩy nhanh sự phát triển của các ứng dụng robot trong các ngành như sản xuất, kiểm tra và logistics.

Mặc dù việc triển khai vẫn còn mang tính thử nghiệm, cuộc trình diễn phản ánh xu hướng rộng hơn trong AI vật lý, nơi các mô hình nền tảng ngày càng được sử dụng để nâng cao nhận thức và ra quyết định của máy móc. Cả hai công ty đã chỉ ra rằng các phát triển tiếp theo đang được tiến hành, bao gồm việc tiếp tục tích hợp các hệ thống dựa trên Gemini vào các nền tảng robot.

Sự hợp tác cho thấy sự chuyển đổi hướng tới tương tác người-máy trực quan hơn, nơi hành vi robot phức tạp có thể được hướng dẫn thông qua các đầu vào đơn giản hóa. Khi các mô hình AI tiếp tục phát triển, các tích hợp như vậy có thể mở rộng phạm vi chức năng của các hệ thống tự động trong khi giảm các rào cản kỹ thuật đối với việc triển khai của chúng.

Bài viết Google And Boston Dynamics Integrate Gemini Robotics Models Into Spot For Advanced Perception And Task Execution xuất hiện đầu tiên trên Metaverse Post.

Tuyên bố miễn trừ trách nhiệm: Các bài viết được đăng lại trên trang này được lấy từ các nền tảng công khai và chỉ nhằm mục đích tham khảo. Các bài viết này không nhất thiết phản ánh quan điểm của MEXC. Mọi quyền sở hữu thuộc về tác giả gốc. Nếu bạn cho rằng bất kỳ nội dung nào vi phạm quyền của bên thứ ba, vui lòng liên hệ [email protected] để được gỡ bỏ. MEXC không đảm bảo về tính chính xác, đầy đủ hoặc kịp thời của các nội dung và không chịu trách nhiệm cho các hành động được thực hiện dựa trên thông tin cung cấp. Nội dung này không cấu thành lời khuyên tài chính, pháp lý hoặc chuyên môn khác, và cũng không được xem là khuyến nghị hoặc xác nhận từ MEXC.

USD1 khởi nguồn: 0 phí + 12% APR

USD1 khởi nguồn: 0 phí + 12% APRUSD1 khởi nguồn: 0 phí + 12% APR

Người mới: Stake để nhận APR đến 600%. Có thời hạn!