Governanza de la IA Física: cuando los modelos de lenguaje empiezan a mover brazos robóticos
Gemini Robotics-ER, robots basados en LLMs y marcos como NIST AI RMF: qué está pasando con la gobernanza de sistemas de IA que interactúan con el mundo físico y por qué importa para la seguridad.
La inteligencia artificial que interactúa con el mundo físico — robots, sensores, maquinaria industrial — plantea un desafío de gobernanza que no tiene equivalente en el software tradicional. No basta con que un modelo entienda instrucciones: hay que definir quién responde cuando esas instrucciones se convierten en movimiento.
El mercado lo está tomando en serio. Según Grand View Research, la IA física movió 81.640 millones de dólares en 2025 y se proyecta que alcanzará los 960.380 millones en 2033. La International Federation of Robotics instaló 542.000 robots industriales solo en 2024, el doble que hace una década. Estamos ante una escala que ya no permite ignorar las preguntas de control.
Cómo funciona un robot con un LLM por cerebro
Google DeepMind lanzó Gemini Robotics en marzo de 2025 y lo actualizó a Gemini Robotics-ER 1.6 en abril de 2026. La idea central es sencilla: usar un modelo de lenguaje multimodal como cerebro de un robot.
Un robot clásico sigue reglas programadas: "si el sensor indica X, ejecutar acción Y". Un robot basado en un LLM recibe una instrucción en lenguaje natural ("doblega esta hoja de papel por la mitad") y tiene que: