ข่าว Gate, 16 เมษายน — Google และ Boston Dynamics ประกาศการผสานรวมโมเดลการให้เหตุผลแบบ Gemini Robotics ที่ถูกทำให้อยู่ในรูปของร่างกายเข้ากับหุ่นยนต์สี่ขา Spot โดยทำให้ระบบสามารถตีความคำสั่งด้วยภาษาธรรมชาติ จดจำวัตถุ และดำเนินงานที่ซับซ้อนได้อย่างอิสระ
ความร่วมมือนี้ต่อยอดจากงานทดลองที่ทำในแฮกกาธอนภายในปี 2025 ช่วยให้ Spot ประมวลผลอินพุตด้านภาพและแปลงคำสั่งระดับสูงให้เป็นการกระทำทางกายที่ประสานกัน ไม่เหมือนการเขียนโปรแกรมหุ่นยนต์แบบเดิมที่อาศัยตรรกะแบบกำหนดตายตัวทีละขั้น ระบบใช้พรอมป์ต์เชิงสนทนาและเลเยอร์ซอฟต์แวร์ตัวกลางที่เชื่อมโมเดล Gemini เข้ากับ API ของ Spot โดย AI สามารถเลือกความสามารถที่กำหนดไว้ล่วงหน้าได้ เช่น การนำทาง การตรวจจับวัตถุ การจับภาพ การหยิบจับ และการวาง พร้อมข้อเสนอแนะแบบเรียลไทม์ที่ช่วยให้เกิดพฤติกรรมที่ปรับตัวได้โดยไม่ต้องมีการแทรกแซงด้วยตนเอง
ในการสาธิต ระบบตีความคำสั่งทั่วไปเพื่อจัดระเบียบสิ่งของได้สำเร็จ โดยวิเคราะห์ข้อมูลภาพและกำหนดเส้นทางให้หุ่นยนต์ผ่านลำดับการกระทำ แนวทางนี้ยังคงความปลอดภัยในการปฏิบัติงานด้วยการจำกัดความสามารถของ AI ไว้ภายในขอบเขตที่กำหนดล่วงหน้าใน API ของหุ่นยนต์ โดยสร้างสมดุลระหว่างความสามารถในการปรับตัวกับประสิทธิภาพที่ถูกควบคุม ความร่วมมือนี้ชี้ให้เห็นถึงโอกาสในการเพิ่มประสิทธิภาพสำหรับนักพัฒนา ด้วยการลดการเขียนโค้ดแบบแมนนวล และทำให้วิศวกรสามารถมุ่งเน้นการกำหนดเป้าหมายแทนการเขียนโปรแกรมทุกลำดับการกระทำ
news.related.news