
Le laboratoire de recherche en IA de Google, Google DeepMind, a annoncé mercredi de nouveaux modèles d'IA appelés Gemini Robotics, conçus pour permettre aux machines du monde réel d'interagir avec des objets, de naviguer dans des environnements, et plus encore.
DeepMind a publié une série de vidéos de démonstration montrant des robots équipés de Gemini Robotics pliant du papier, mettant une paire de lunettes dans un étui, et réalisant d'autres tâches en réponse à des commandes vocales. Selon le laboratoire, Gemini Robotics a été formé pour généraliser le comportement à travers une gamme de matériels robotiques différents, et pour relier les objets que les robots peuvent "voir" aux actions qu'ils pourraient prendre.
DeepMind affirme que, dans les tests, Gemini Robotics a permis aux robots de bien se comporter dans des environnements non inclus dans les données d'entraînement. Le laboratoire a publié un modèle simplifié, Gemini Robotics-ER, que les chercheurs peuvent utiliser pour former leurs propres modèles de contrôle de la robotique, ainsi qu'une référence appelée Asimov pour évaluer les risques liés aux robots alimentés par l'IA.