Skip to main content

Un equipo de investigadores de instituciones de renombre, incluyendo el MIT, MIT-IBM Watson AI Lab, la Universidad de Minnesota (UMN) y la Universidad de Harvard, ha realizado un avance significativo en la comprensión del procesamiento del lenguaje humano utilizando grandes modelos de lenguaje (LLM). Este estudio representa un hito en la intersección de la inteligencia artificial y la neurociencia.

Los investigadores desarrollaron un modelo de codificación basado en GPT2-XL, que predice con alta precisión las respuestas cerebrales a las oraciones dentro de la red del lenguaje. Este descubrimiento valida el potencial de los LLM como modelos precisos para el procesamiento del lenguaje humano e introduce un nuevo paradigma en el control no invasivo de la actividad neuronal.

Investigadores del MIT, MIT-IBM Watson AI Lab, UMN y Harvard demuestran el potencial de los grandes modelos de lenguaje para predecir con precisión el procesamiento del lenguaje humano y las respuestas cerebrales.

El estudio se centró en dos objetivos principales: someter a los LLM a una evaluación rigurosa como modelos de procesamiento del lenguaje y obtener una comprensión intuitiva del procesamiento del lenguaje al caracterizar las propiedades de los estímulos que impulsan o suprimen las respuestas en la red del lenguaje. Para lograr esto, el equipo desarrolló un modelo de codificación para predecir las respuestas cerebrales a oraciones arbitrarias en la red del lenguaje. El modelo utilizó incrustaciones de oraciones del último token de GPT2-XL y se entrenó con 1.000 oraciones diversas extraídas de un corpus de cinco participantes.

El modelo demostró un rendimiento de predicción notable, con una correlación de r=0.38 en oraciones no incluidas en el conjunto base. Para garantizar la solidez del modelo de codificación, el equipo verificó su predictividad en oraciones no incluidas utilizando diferentes procedimientos para obtener incrustaciones de oraciones e incluso incorporando incrustaciones de una arquitectura LLM distinta.

El modelo mostró un rendimiento de predictividad consistentemente alto, afirmando su fiabilidad. Además, el modelo de codificación mostró un impresionante rendimiento predictivo en regiones del lenguaje anatómicamente definidas, proporcionando un medio no invasivo de controlar la actividad neuronal en áreas asociadas con la cognición de nivel superior.

Este avance no solo valida el potencial de los LLM como modelos precisos para el procesamiento del lenguaje humano, sino que también introduce un cambio de paradigma en el control no invasivo de la actividad neuronal. La capacidad de influir en las respuestas neuronales en áreas vinculadas a la cognición de nivel superior tiene profundas implicaciones tanto para la investigación neurocientífica como para las aplicaciones prácticas, marcando un hito significativo en la intersección de la inteligencia artificial y la neurociencia.

Suscríbete a nuestra newsletter y ponte al día en tecnología, IA y medios de comunicación.