Estados Unidos.

Chips y algoritmos bioinspirados replican comportamientos de insectos y otros animales para desarrollar robots más autónomos, eficientes y sostenibles. Investigadores y empresas exploran cómo la computación de arquitectura neuronal permite avances en percepción, navegación y control del movimiento.

La computación neuromórfica es una tecnología que busca emular el comportamiento de los sistemas nerviosos biológicos, replicando cómo la naturaleza resuelve determinados problemas. Esta corriente se desarrolla desde los años 60, gracias a la aportación del ingeniero eléctrico estadounidense Carver Mead, quien ya entonces buscó que los ordenadores se inspiraran en el cerebro humano.

En los últimos años se han producido importantes avances en este campo, gracias a los nuevos procesadores neuromórficos. Aunque por el momento no se han creado chips que consigan igualar al cerebro humano, sí se ha equiparado la capacidad cerebral de pequeños animales.

Estos chips se sirven de redes neuronales de picos (SNN) para procesar la información. Integran nodos que actúan como si fueran neuronas artificiales, transmitiendo señales eléctricas denominadas ‘picos’ a través de las sinapsis o conexiones entre ellas. El sistema aprende al reforzar las conexiones que se activan con regularidad.

Los sistemas neuromórficos trabajan con cámaras de eventos y sensores que registran cambios en el entorno de manera inmediata, a diferencia de las redes neuronales artificiales (ANN) tradicionales, que procesan datos de manera sincronizada.

Intel y los chips neuromórficos

El fabricante de procesadores Intel lanzó en 2021 sus chips neuromórficos Loihi 2 con 1 millón de ‘neuronas’ por chip, los cuales, según señalaba la compañía, consumen hasta 100 veces menos energía que las arquitecturas convencionales de CPU y GPU. Algunos equipos los están utilizando como una herramienta base para crear una nueva generación de robots basados en el movimiento o en la percepción animal.

En los animales, muchos movimientos, como caminar o reaccionar a estímulos repentinos, no requieren una intervención directa del cerebro. En su lugar, estas funciones se gestionan localmente por arreglos neuronales en la médula espinal. Este principio se replica en la computación neuromórfica, donde pequeños sistemas locales toman decisiones rápidas y autónomas, mientras que un ‘cerebro’ central se dedica a tareas más complejas, como la toma de decisiones o la planificación estratégica.

Memoria visual

Investigadores de la Universidad Tecnológica de Delft, en Suiza, se han inspirado en cómo las hormigas usan su visión y el recuento de sus pasos para volver a casa de manera segura, desarrollando un método de navegación autónoma para robots ligeros basado en su comportamiento. Así, trabajaron en pequeños drones autónomos CrazyFlie, de un peso de 56 gramos, que pueden regresar al punto de partida tras rutas de hasta 100 metros. los resultados de su trabajo se publicó en la revista Science Robotics.

Aunque existen varias teorías contradictorias sobre cómo los insectos se orientan, una de ellas aboga por la toma de instantáneas. Es decir, se cree que las hormigas obtienen ‘fotografías’ periódicas de su entorno para orientarse.

“Inspirados por la parsimonia de la inteligencia natural, proponemos un planteamiento inspirado en los insectos para la navegación visual que está específicamente dirigido a robots con recursos extremadamente limitados. Es un enfoque de seguimiento de ruta en el que la trayectoria de salida de un robot se almacena como una colección de imágenes panorámicas altamente comprimidas junto con sus relaciones espaciales medidas con odometría (medida de la distancia recorrida en una dirección concreta)”, señala la descripción del estudio, a cargo del investigador Tom van Dijk.

Combinación de odometría y retorno visual

“Durante el viaje de regreso, el robot usa una combinación de odometría y retorno visual para regresar a las ubicaciones almacenadas, y el retorno visual evita la acumulación de deriva odométrica”, recoge el abstract.

Guido de Croon, otro investigador de la Universidad Tecnológica de Delft que participó junto a van Dijk en el trabajo, comentaba que la idea principal era que las instantáneas se podían espaciar mucho más si el robot se movía entre ellas basándose en la odometría.

De Croon y su equipo han llevado a cabo otro estudio que representaría el primer uso de un procesador neuromórfico para realizar el procesamiento de la visión y control de un dron.

“La promesa del procesamiento neuromórfico es que puede procesar la información más rápido y de una manera más eficiente energéticamente. Todavía no está claro cuánto más rápidos o más eficientes energéticamente serán estos chips, por lo que ejemplos prácticos como nuestro propio estudio son muy relevantes para el futuro de esta tecnología”, comenta el investigador a SINC.

“Demostramos que la red funcionaba entre 10 y 50 veces más rápido y era 3 veces más eficiente energéticamente que cuando se ejecutaba en hardware tradicional. En términos de consumo de energía, la inferencia de la red en realidad solo consumía 7 mW en comparación con los 2 W del hardware tradicional. Por lo tanto, es posible que se obtengan mayores beneficios”, añade.

Pueden ser muy útiles

Para De Croon, estos drones diminutos con chips neuromórficos pueden ser muy útiles para la monitorización de cultivos y el seguimiento de existencias en almacenes, además de la inspección de molinos de viento, la búsqueda y el rescate, entre otros usos.

La investigadora postdoctoral Somayeh Hussaini, junto con el profesor Michael Milford y Tobias Fischer del Centro de Robótica de QUT, en Australia, han llevado a cabo una investigación publicada en la revista IEEE Transactions on Robotics, que propone un nuevo algoritmo de reconocimiento de lugares sirviéndose de redes neuronales de picos.

El sistema desarrollado por este equipo, que también usa un chip Loihi 2 de Intel, se sirve de pequeños módulos de redes neuronales para reconocer lugares específicos a partir de imágenes, llegando a ‘recordar’ 27.000 lugares distintos. Su trabajo se ha basado en la capacidad de los insectos y animales para explorar y moverse en entornos desconocidos usando señales visuales.

Desde el Centro de Robótica de QUT creen que su estudio puede servir como inspiración para futuros sistemas colaborativos. “Aunque en esta investigación no exploramos específicamente la inteligencia de enjambre, nuestro sistema modular puede considerarse análogo a un enjambre, donde cada módulo actúa como una abeja o pez individual, aprendiendo una parte del entorno y decidiendo colectivamente si un lugar ha sido visto antes”, sostiene la investigadora.

Hussaini añade que la sinergia entre hardware neuromórfico y algoritmos bioinspirados tiene “un enorme potencial para crear robots más inteligentes y sostenibles”.

Por tierra y agua

Pese a estas tentativas, lo cierto es que hasta la fecha no se han logrado crear robots que emulen completamente la agilidad humana y animal basándose en cómo el cerebro controla y coordina dichos movimientos.

Kamilo Melo es un investigador colombiano con una dilatada trayectoria construyendo biorobots. En su laboratorio de investigación, KM-RoBoTa, crea robots que simulan el movimiento de animales, aunque en su caso se enfoca en el hardware. El primer modelo que construyó fue una libélula, aunque a una escala más grande que la original. A partir de ahí se centró en la locomoción.

“Lo que yo hago es que tomo partes de los animales específicas, ya sea parte de su morfología, parte de su movimiento o parte de su función, y las replicamos con ingeniería”, explica Melo a SINC. “El 90% de la gente que hay en robótica trabaja el software y trabaja el software para control, pero muy pocos de nosotros trabajamos en diseñar la máquina”, añade.

Gran parte de los biorobots en los que ha trabajado el investigador son reptiles y anfibios. Esto responde a su búsqueda de sistemas de locomoción versátiles para explorar entornos desconocidos, como exoplanetas con agua y tierra. Su idea inicial fue diseñar un robot inspirado en serpientes debido a su capacidad para nadar, reptar en tierra y superar obstáculos, lo que permite recorrer terrenos diversos con un solo dispositivo.

Principios biológicos y evolutivos

Su investigación ha evolucionado para incorporar principios biológicos y evolutivos, analizando cómo organismos como las lampreas (de hace 400 millones de años) desarrollaron aletas y patas, adaptándose a distintos terrenos. Esto le ha permitido diseñar robots que imitan estos movimientos multimodales, combinando ingeniería y biología para explorar mejor tanto nuestro planeta como otros mundos.

El investigador suele recibir encargos de artistas, y uno de los más curiosos que ha tenido que realizar es un aro cerrado con movimientos de serpiente que tenía que ejecutar distintas formas flotando en el agua. El mayor desafío fue que ese robot pudiera permanecer en ese ambiente hostil funcionando durante tres meses.

Además, en 2015 la BBC le encargó construir un sistema robótico que pudiera pasar desapercibido en la naturaleza en el Nilo, en Uganda, para filmar la competición entre cocodrilos y lagartos sin ningún tipo de intervención humana. Así, desarrolló dos robots reptiles, SpyCroc y SpyLizard, que se movían como los animales a los que replicaban. El mayor reto fue hacerlos robustos y duraderos, además de resistentes al agua.

Dicen no a lo aburrido

Melo reconoce que hay muchas empresas y laboratorios trabajando con humanoides o cuadrúpedos, pero a él le parece “muy aburrido” y prefiere “ir a algo fundamental, en cómo solucionamos otros problemas, pero hacemos mejor ingeniería para llegar allá. Por eso me he quedado en desarrollar tetrápodos”, apostilla.

“Un componente adicional que es importante es cuando uno trabaja con estos animales que están, digamos, muy cerca del suelo. Eso descarga un poco la complejidad de control, porque básicamente no hay forma de caer más. Ya estamos en el suelo. Eso le quita algo de complejidad al controlador y eso lo estamos explotando para poder buscar y desarrollar otras cosas adicionales sin tenernos que preocupar demasiado con el control del balance”, aclara.

El creador de KM-RoBoTa expone que la escala supone un enorme problema a la hora de la creación de biorobots. “A veces veo vídeos por aquí y por allá del robot de araña, el robot de hormiga, etc., y, fundamentalmente, creo que hay muchos problemas en el diseño, precisamente, porque si bien puede ser un sistema que se mueva y demás, para un artista está muy bien, pero esto todavía no tiene una significancia científica porque existen errores en esa escala y no estoy realmente replicando el insecto”, concluye.

IA y comportamientos complejos

La propia Google también ha hecho algunos avances interesantes en el ámbito del movimiento animal. A mediados del año pasado, su filial centrada en inteligencia artificial, DeepMind, en colaboración con la Universidad de Harvard, contó en un estudio publicado en la revista Nature cómo había creado una rata virtual y biomecánicamente realista para estudiar los circuitos neuronales y cómo el cerebro controla el movimiento complejo.

El equipo desarrolló una red neuronal artificial que aprendió a reproducir movimientos deseados tras recibir una trayectoria de referencia, imitando una serie de comportamientos pese a que la rata robot no había sido entrenada explícitamente para algunos de ellos.

Para construir el ‘cerebro digital’ de este roedor, los investigadores usaron datos de ratas reales y se basaron en modelos de dinámica inversa, que permiten al cerebro calcular la trayectoria necesaria y traducirla en comandos motores para lograr movimientos deseados.

“Si bien nuestro laboratorio está interesado en cuestiones fundamentales sobre cómo funciona el cerebro, la plataforma podría usarse, como ejemplo, para diseñar mejores sistemas de control robótico”, reconocía Bence Ölveczky, investigador jefe del equipo de la Universidad de Harvard.

Plataforma inspirada en mariposas

En diciembre de 2023, investigadores de la Universidad del Estado de Pensilvania publicaron otro estudio donde explicaban cómo habían desarrollado una plataforma de IA inspirada en las mariposas Heliconius, conocidas por combinar señales visuales y químicas para elegir pareja, todo con un cerebro diminuto y de bajo consumo energético.

Estas mariposas –además de otras especies como las abejas, las polillas o las aves– identifican a posibles compañeros mediante patrones de alas (señales visuales) y feromonas (señales químicas), realizando un proceso de decisión multisensorial que las tecnologías de IA actuales no pueden igualar sin consumir grandes cantidades de energía.

Para replicar este comportamiento, el equipo creó un sensor basado en materiales 2D como disulfuro de molibdeno (MoS2) y grafeno. El MoS2, que actúa como un fotodetector, imita la capacidad visual de la mariposa, mientras que el grafeno, como un quimiodetector, reproduce la detección de feromonas. Esta plataforma permite integrar y procesar señales visuales y químicas simultáneamente, algo que la IA convencional no podría hacer de manera eficiente, según explicaban los investigadores.

En pruebas realizadas, el dispositivo respondió a luces de diferentes colores (imitando patrones de alas) y soluciones químicas (simulando feromonas), demostrando que podía combinar ambas señales para tomar decisiones.

Adaptabilidad en el sistema

Además, los investigadores introdujeron adaptabilidad en el sistema, permitiendo que una señal tuviera mayor peso que otra, como sucede con las mariposas en situaciones reales.

Este avance presentaría aplicaciones potenciales en robótica y sensores inteligentes, como en plantas de energía donde sería posible detectar problemas mediante múltiples señales, como cambios visuales, químicos o vibraciones, en lugar de depender de un solo indicador.

El equipo planea ampliar la tecnología para integrar un tercer sentido, inspirado en el cangrejo de río, que combina señales visuales, táctiles y químicas para reaccionar a depredadores y presas. Este enfoque promete revolucionar la IA y crear sistemas más eficientes y adaptables en entornos complejos.