‘No es un humano. Es un robot’: investigadores de UT concluyen que la IA debe desarrollar habilidades de pensamiento crítico para ser una herramienta efectiva

Aaron Sullivan and Karen Flores

Nota del editor: este artículo se publicó por primera vez el 29 de junio por Aaron Sullivan y fue traducido al español por Karen Flores.

“Las llaves del gabinete está en la mesa”. Espera, eso no suena correcto.

La inteligencia artificial como ChatGPT debe desarrollar habilidades sociales y conocimiento del mundo para evitar errores que los autores humanos no suelen cometer, según un artículo publicado por investigadores de UT, el Instituto de Tecnología de Massachusetts y la Universidad de California en Los Ángeles.


Anna Ivanova, una de las co autoras del artículo, dijo que el lenguaje es una herramienta para que los humanos compartan información y coordinen acciones. También dijo que el uso del lenguaje requiere múltiples funciones cerebrales.

Ivanova, una investigadora postdoctoral de neurociencia en MIT, dijo que las habilidades lingüísticas formales, como la comprensión de las reglas gramaticales, se manejan en la red lingüística del cerebro, mientras que una variedad de habilidades funcionales que aplican esas reglas ocurren en todo el cerebro. Las habilidades funcionales incluyen el razonamiento social, el razonamiento formal y el conocimiento del mundo.

“El lenguaje tiene que interactuar con todas estas otras capacidades, como el razonamiento social”, dijo Ivanova. “Muchas veces, los rompecabezas lógicos son presentados lingüísticamente, pero luego averiguar realmente cuáles son las relaciones lógicas, es un tipo de habilidad diferente”.

Dijo que los desarrolladores entrenan estos grandes modelos de lenguaje en tareas de predicción de palabras, lo que les permite desarrollar un fuerte dominio sobre las reglas gramaticales en inglés. Los modelos de aprendizaje profundo más nuevos, como GPT-3, reciben comentarios humanos sobre sus respuestas, además de las enormes cantidades de texto que se les muestran.

“Así que los modelos terminan siendo no solo buenas máquinas generales de predicción de lenguaje , sino más o menos especialmente sintonizados con el tipo de tareas que la gente quiere que hagan”, dijo Kyle Mahowald, profesor de lingüística en UT.

Ivanova dijo que los desarrolladores de grandes modelos de lenguaje deberían separar la gramática formal y las habilidades lingüísticas de las habilidades funcionales para modelar el diseño modular de la función del cerebro humano.

“Hay que tratar a cada (habilidad cognitiva) por separado”, dijo Ivanova. “Hay que considerar a cada uno de ellos como requiriendo su propio módulo y sistema para procesar este tipo de información (funcional)”.

Considerando las limitaciones actuales de la tecnología, Ivanova dijo que “es mucho más seguro usarlas para el lenguaje que para las cosas que requieren una reflexión cuidadosa”. Dijo que los usuarios no pueden confiar en la tecnología para las habilidades de razonamiento aún.

El profesor de periodismo Robert Quigley dijo que facilita una página web de noticias experimental completamente producida por inteligencia artificial. Quigley dijo que la página web presenta contenido de grandes modelos de lenguaje como ChatGPT y emplea modelos similares como DALL-E 2 para generar imágenes de artículos.

 La estudiante de último año de periodismo, Gracie Warhurst, dijo que el Dallas Morning News Innovation Endowment financia el experimento, llamado The Future Press. Warhurst, una estudiante investigadora de The Future Press, dijo que su equipo notó la falta de habilidades funcionales en las respuestas de la página web de los modelos, muy parecido a lo que describió el artículo de Mahowald.

“Obviamente, la IA no tiene habilidades de pensamiento crítico”, dijo Warhurst. “Esa es la razón principal por la cual no va a tomar los trabajos de la gente hasta que se desarrolle (pensamiento crítico), lo que no preveo que suceda en el corto plazo. Un periodista humano está usando su juicio en cada paso del camino”.

Warhurst dijo que los periodistas y otros creadores de contenido deberían usar la IA para manejar el trabajo pesado, como editar borradores o escribir escritos cortos. Dijo que los modelos del proyecto rara vez cometen errores gramaticales, y que su escritura sigue siendo en su mayoría imparcial. Warhurst dijo que la mayor caída de la IA en las industrias creativas es la falta de experiencia humana.

“Leí un artículo muy bueno en el New Yorker”, dijo Warhurst. “(El autor) estaba hablando sobre vivir en una ciudad fronteriza en Texas y de su experiencia creciendo ahí. Ese no es un artículo que podrías hacer que ChatGPT escriba porque no tiene Spanglish. No es un humano. Es un robot”.