Investigadores de la Universidad Carlos III de Madrid (UC3M) han desarrollado una nueva metodología para que un robot aprenda por sí solo a mover sus brazos mediante la combinación de un tipo de aprendizaje por observación y la intercomunicación de sus extremidades.
Este avance, presentado recientemente en el congreso de robótica más importante del mundo, el IROS2025, supone un paso más para conseguir robots de servicio más naturales y fáciles de enseñar que puedan realizar tareas asistenciales en entornos domésticos, como poner y quitar la mesa, planchar u ordenar la cocina.
La investigación aborda uno de los problemas más complejos de la robótica actual: la coordinación de dos brazos que trabajan juntos. En la UC3M lo están haciendo utilizando el robot ADAM (Autonomous Domestic Ambidextrous Manipulator), que ya es capaz de realizar tareas asistenciales en entornos domésticos. “Puede, por ejemplo, poner la mesa y recogerla después, ordenar la cocina o acercar al usuario un vaso de agua o las medicinas a la hora indicada. También puede ayudarle cuando va a salir, acercándole un abrigo o una prenda de ropa”, explica Alicia Mora, una de las investigadoras del Mobile Robots Group del Robotics Lab de la UC3M que trabaja en el proyecto.
ADAM ha sido construido para ayudar a las personas mayores en sus tareas cotidianas dentro de sus casas o en residencias, explica el director del Mobile Robots Group, Ramón Barber, catedrático de Ingeniería de Sistemas y Automática de la UC3M: “Todos conocemos personas para las que gestos tan simples como que alguien les acerque un vaso de agua con una pastilla o les ponga la mesa suponen una ayuda muy importante. Ese es el objetivo principal de nuestro robot”.
Los investigadores presentaron en el IROS 2025 un método que enseña a cada brazo del robot a aprender su tarea por separado mediante aprendizaje por imitación y a coordinarse después mediante Propagación de Creencias Gaussianas, “un diálogo invisible” que evita choques y genera movimientos más naturales. Esta técnica supera las limitaciones de la simple copia de gestos humanos y permite adaptar trayectorias “como una goma elástica” cuando cambia la posición del objetivo.
ADAM funciona en tres fases —percepción, razonamiento y acción— y combina sensores láser, cámaras RGB‑D y modelos tridimensionales del entorno para interpretar objetos y anticipar necesidades del usuario. El equipo trabaja ahora en integrar modelos generativos que faciliten que el robot entienda mejor el contexto.
Aunque todavía es experimental, los investigadores creen que tecnologías así podrían llegar a los hogares en una década. Su desarrollo se enmarca en un reto social creciente: “Cada día hay más personas mayores y menos personas que puedan atenderlas, por lo que este tipo de soluciones van a ser cada vez más necesarias”, señala Barber.
- El cerebro de las abejas revela secretos del aprendizaje humano - febrero 12, 2026
- Un robot asistencial aprende a mover sus brazos para poner y quitar la mesa observando a los humanos - febrero 12, 2026
- Presentan nueve recomendaciones para evitar la propagación de la peste porcina africana - febrero 10, 2026




