La inteligencia artificial se fusiona con un modelo tridimensional del cerebro para crear un biocomputador energéticamente eficiente. Investigadores han logrado avances en la creación de un biocomputador al fusionar inteligencia artificial con un modelo tridimensional del cerebro humano. El algoritmo híbrido, entrenado utilizando mini cerebros cultivados en laboratorio, realizó tareas relacionadas con el reconocimiento del habla y las matemáticas. Aunque el biocomputador fue menos eficiente que los sistemas tradicionales de aprendizaje automático, resultó ser más eficiente en términos energéticos y podría reemplazar a los animales en las pruebas de medicamentos.
Un estudio separado encontró similitudes entre el procesamiento de la memoria en los modelos de inteligencia artificial y el hipocampo del cerebro humano. Al imitar la acción de la puerta de los receptores NMDA del cerebro, los investigadores mejoraron la consolidación de la memoria en los sistemas de inteligencia artificial.
El algoritmo híbrido, entrenado utilizando mini cerebros cultivados en laboratorio, realizó tareas relacionadas con el reconocimiento del habla y las matemáticas.
Esta investigación podría conducir a sistemas de inteligencia artificial de bajo costo y alto rendimiento que procesen y retengan información como el cerebro humano, ofreciendo conocimientos valiosos sobre el cerebro humano y posibles implicaciones para enfermedades neurodegenerativas. Un equipo interdisciplinario compuesto por investigadores del Centro de Cognición y Sociabilidad y el Grupo de Ciencia de Datos del Instituto de Ciencia Básica (IBS) reveló una sorprendente similitud entre el procesamiento de la memoria en los modelos de inteligencia artificial (IA) y el hipocampo del cerebro humano. Este nuevo hallazgo brinda una perspectiva novedosa sobre la consolidación de la memoria, un proceso que transforma las memorias a corto plazo en memorias a largo plazo, en los sistemas de IA.
En la carrera por desarrollar la Inteligencia Artificial General (AGI, por sus siglas en inglés), con entidades influyentes como OpenAI y Google DeepMind liderando el camino, comprender y replicar la inteligencia similar a la humana se ha convertido en un importante interés de investigación. En el centro de estos avances tecnológicos se encuentra el modelo Transformer, cuyos principios fundamentales ahora están siendo explorados en mayor profundidad.
En la carrera por desarrollar la Inteligencia Artificial General, con entidades influyentes como OpenAI y Google DeepMind, comprender y replicar la inteligencia similar a la humana se ha convertido en un importante interés de investigación.
La clave para sistemas de IA potentes radica en comprender cómo aprenden y recuerdan información. El equipo aplicó principios de aprendizaje del cerebro humano, concentrándose específicamente en la consolidación de la memoria a través del receptor NMDA en el hipocampo, a los modelos de IA. El receptor NMDA es como una puerta inteligente en el cerebro que facilita el aprendizaje y la formación de memoria. Cuando un químico cerebral llamado glutamato está presente, la célula nerviosa experimenta excitación.
Por otro lado, un ion magnesio actúa como un pequeño portero que bloquea la puerta. Solo cuando este portero iónico se aparta, las sustancias pueden fluir hacia la célula. Este es el proceso que permite al cerebro crear y retener memorias, y el papel del portero (el ion magnesio) en todo el proceso es bastante específico. El equipo hizo un descubrimiento fascinante: el modelo Transformer parece utilizar un proceso de control similar al receptor NMDA del cerebro.
Esta revelación llevó a los investigadores a investigar si la consolidación de la memoria del Transformer puede ser controlada por un mecanismo similar al proceso de control de puertas del receptor NMDA. En el cerebro animal, se sabe que un nivel bajo de magnesio debilita la función de la memoria. Los investigadores descubrieron que la memoria a largo plazo en el Transformer puede mejorarse imitando el receptor NMDA. Al igual que en el cerebro, donde cambiar los niveles de magnesio afecta la fuerza de la memoria, ajustar los parámetros del Transformer para reflejar la acción de control del receptor NMDA condujo a una mejora de la memoria en el modelo de IA.
Este hallazgo innovador sugiere que la forma en que los modelos de IA aprenden puede explicarse con los conocimientos establecidos en la neurociencia. C. Justin Lee, quien es un director de neurociencia en el instituto, dijo: «Esta investigación da un paso crucial en el avance de la IA y la neurociencia. Nos permite adentrarnos más en los principios de funcionamiento del cerebro y desarrollar sistemas de IA más avanzados».
Fuentes:
Desbloqueando el futuro: Modelos 3D generados por IA
Richard Kerris de NVIDIA Sobre cómo la IA dará forma al futuro