Ciencia y TecnologiaDestacadas

Google DeepMind presentó sus nuevos modelos de robótica, Gemini Robotics 1.5 y Gemini Robotics‑ER 1.5

representan un avance significativo en la autonomía y capacidad de resolución de tareas físicas por parte de robots. Estos modelos pueden ahora realizar tareas más complejas, como clasificar ropa por color, empacar un maletín según el clima previsto o separar residuos de acuerdo con normativas locales de reciclaje, gracias a que integran búsquedas web para obtener información adicional que les permite adaptar sus acciones al contexto.

Uno de los puntos clave de estos desarrollos es el modelo Gemini Robotics‑ER 1.5, que interpreta el entorno físico del robot y combina la percepción visual con el lenguaje natural, mientras que Gemini Robotics 1.5 toma esa información para ejecutar las tareas. También se ha incorporado transferencia de habilidades entre diferentes tipos de robots: por ejemplo, lo que aprende un robot con brazos doble (“bi‑arm”) puede aplicarse a otro con diseño diferente, como un robot humanoide.

Google ha puesto estos modelos al alcance de desarrolladores mediante su API, lo que implica que podrían empezar a usarse para aplicaciones reales próximamente. Este tipo de avances abre la puerta a robots más adaptativos que pueden asistir no solo en entornos controlados de laboratorio, sino en escenarios cotidianos: hogares, fábricas, servicios urbanos, etc.