Google DeepMind a récemment présenté RT-2, un nouveau modèle vision-langage-action (VLA) qui permet aux robots de comprendre et d’effectuer plus facilement des actions, que ce soit dans des situations familières ou totalement nouvelles. Les robots doivent être capables de ...