Durante los últimos 35 años se ha consolidado la argumentación de que las redes neuronales artificiales no serían capaces de competir con la mente humana, pero un equipo de investigadores ha demostrado ahora que el método de inteligencia artificial que han desarrollado sí muestra una capacidad de generalización similar, y a veces mejor, a la humana.
Dos investigadores, Brenden Lake (Universidad de Nueva York) y Marco Baroni (Universidad Pompeu Fabra) lideraron un trabajo en el que ponen de relieve que la red neuronal que desarrollaron tiene habilidades similares a las humanas en la generalización sistemática, lo que significa que tiene capacidad para aprender nuevos conceptos y de combinarlos con otros ya existentes.
Los humanos sí son capaces de aprender un concepto nuevo y de utilizarlo después para comprender otros usos relacionados. Por ejemplo, un niño aprende a saltar, pero inmediatamente aprende a dar saltos alrededor de una habitación, saltar con los brazos en alto, o saltar hacia adelante y hacia atrás.
Pero ¿pueden las máquinas emular ese comportamiento? Estos investigadores desarrollaron una técnica -que bautizaron como Meta-learning for Compositionality (MLC)- capaz de mejorar algunas herramientas basadas en la Inteligencia Artificial (IA) para hacer esas generalizaciones y comprobaron no sólo que está a la par del rendimiento humano, sino que en algunos casos es mejor.
Su técnica se basa en el entrenamiento de las redes neuronales artificiales (sofisticados sistemas computacionales interconectados entre sí para favorecer el aprendizaje y el procesamiento automático) y otras tecnologías relacionadas con el reconocimiento del habla y el procesamiento del lenguaje.
Los investigadores observaron que hasta ahora los creadores de sistemas de IA, incluidos los grandes modelos lingüísticos, esperaban que esa "generalización composicional" surgiera de métodos de entrenamiento estándar, pero mantienen que la técnica que desarrollaron muestra cómo la práctica explícita de estas habilidades permite a esos sistemas desbloquear nuevas facultades.
"Demostramos, por primera vez, que una red neuronal genérica puede imitar o superar la generalización sistemática humana en una comparación cara a cara", afirmó Lake.
Los investigadores crearon un novedoso sistema de aprendizaje en el que una red neuronal se actualiza de forma constante para mejorar sus habilidades. El mismo ejemplo: le enseñan la palabra "saltar" y luego crea combinaciones de palabras (saltar dos veces; saltar a la izquierda; a la derecha, etc). Luego en otro episodio aprende otras palabras y el sistema acaba mejorando las habilidades de la propia red.
Además compararon el rendimiento de su "máquina" con el de varias personas y comprobaron que en algunos casos el comportamiento de su sistema era mejor que el de los humanos, y que los dos (el MLC y las personas) superaron al ChatGPT, y que este, a pesar de sus "sorprendentes capacidades", mostró dificultades en esa tarea de aprendizaje.
Marco Baroni observó que los grandes modelos lingüísticos como el ChatGPT "siguen teniendo dificultades con la generalización composicional, aunque han mejorado en los últimos años", y se mostró convencido de que este nuevo sistema puede contribuir a mejorar las habilidades compositivas de los grandes modelos lingüísticos.