¿Qué pasa en nuestro cerebro cuando interactuamos con un modelo de lenguaje como ChatGPT? Investigadores del MIT Media Lab han analizado esta cuestión empleando técnicas avanzadas de neuroimagen, descubriendo que el cerebro humano procesa las respuestas de la IA de forma sorprendentemente similar a la interacción con un interlocutor real. Áreas responsables de la comprensión semántica y de atribuir intenciones se activan ante los mensajes generados por el chatbot, lo que indica que tendemos a percibir la IA casi como si fuera una persona. Aunque ChatGPT no posee conciencia ni emociones, el cerebro ajusta su actividad neuronal para interpretarle, lo que podría tener implicaciones en los hábitos comunicativos y en la empatía a largo plazo.
El cerebro ante un interlocutor virtual los investigadores del MIT emplearon resonancia magnética funcional (fMRI) para medir la actividad cerebral de participantes mientras leían y escuchaban respuestas de ChatGPT. Lo que observaron fue que se activaron áreas clásicas del procesamiento del lenguaje, como el giro temporal superior y regiones frontales involucradas en la integración semántica. Estos circuitos neuronales, esenciales para extraer significado del lenguaje, se comportaron igual que al mantener una conversación con otro ser humano.
Por ejemplo, se detectó un aumento significativo de la actividad en la corteza prefrontal medial, región vinculada a la llamada “teoría de la mente”, es decir, la capacidad de atribuir intenciones y creencias a los demás. Este hallazgo sugiere que el cerebro, incluso conociendo la naturaleza artificial de ChatGPT, sigue intentando dotarle de intencionalidad para poder entender sus respuestas con coherencia. En términos técnicos, se cuantificaron activaciones con valores p < 0,001, lo que refuerza la solidez estadística de estas observaciones.
Procesamiento semántico sin emociones reales
El resultado no implica que ChatGPT sea percibido como un ser con emociones, pero sí que el cerebro mantiene su arquitectura neuronal básica de interacción social, adaptándola a un interlocutor sin sentimientos reales. Esto se traduce en que las regiones encargadas de evaluar la credibilidad del discurso, como el córtex cingulado anterior, mostraron una activación más baja. Dicho de forma sencilla, confiamos parcialmente en la IA, pero sin exigirle el mismo nivel de compromiso moral o veracidad que a una persona.
El estudio apunta que el procesamiento semántico sigue su cauce normal, mientras que los filtros cognitivos que evalúan la responsabilidad o la empatía del interlocutor se atenúan. Desde el punto de vista neurocientífico, esto abre preguntas sobre la posible “acostumbración” del cerebro a interlocutores artificiales, y si esto podría afectar en el futuro a las relaciones humanas auténticas.
Un experimento con resonancia magnética funcional
A nivel metodológico, el equipo del MIT aplicó técnicas de fMRI de alta resolución con protocolos de análisis multivoxel, para lograr identificar patrones de actividad cerebral vinculados al lenguaje conversacional. Se usaron paradigmas de interacción controlada, con mensajes reales frente a mensajes generados por IA, obteniendo así mapas de activación neuronal diferenciados.
Entre las conclusiones técnicas destacan tres puntos clave:
Activación robusta del giro temporal superior y del córtex frontal inferior (p < 0,001).
Participación significativa de la red de teoría de la mente (precuneus, corteza prefrontal medial).
Reducción de la actividad en áreas ligadas a la verificación moral (córtex cingulado anterior).
Estas evidencias muestran que, si bien la IA no engaña al cerebro haciéndole creer que está ante un ser vivo real, sí activa mecanismos de interpretación social prácticamente idénticos a los que usamos con humanos.
Consecuencias sociales y cognitivas
A medio plazo, los investigadores no prevén un efecto dañino directo, pero avisan de posibles cambios en los hábitos comunicativos si el uso de la IA se vuelve masivo y constante. El cerebro humano es plástico y se adapta a los entornos conversacionales. En palabras técnicas, puede producirse una “modulación del umbral empático”, es decir, ajustar inconscientemente la empatía a interlocutores que no muestran emociones.
De momento, no hay pruebas claras de un impacto negativo en personas adultas con un uso ocasional, pero se considera necesario investigar cómo estas interacciones podrían afectar a menores o colectivos vulnerables, que aún están desarrollando su red social neuronal.
Reflexiones finales
Este trabajo del MIT nos recuerda que la IA no solo transforma la sociedad de puertas afuera, sino que también impacta en los procesos internos de nuestro cerebro. Que un modelo estadístico de generación de texto logre activar redes neuronales de atribución de intenciones resulta fascinante, y plantea desafíos para el futuro: ¿cómo entrenar a las personas para distinguir entre interlocutores con mente y sin mente?
La IA conversacional va a estar presente cada vez en más ámbitos, desde la educación hasta la atención médica. Comprender cómo reacciona nuestro cerebro a estas interacciones será esencial para un uso responsable y equilibrado de la tecnología.

El reciente estudio del MIT plantea preocupaciones relevantes sobre el uso excesivo de herramientas como ChatGPT en el ámbito educativo.
Se observó que aquellos que dependen demasiado de la inteligencia artificial tienden a participar menos cognitivamente y muestran dificultades para recordar lo que han trabajado. Sin embargo, muchos docentes sostienen que prohibir estas tecnologías no es la solución. Más bien, proponen integrarlas de forma estratégica, enseñando a los estudiantes a combinar el pensamiento crítico con el uso responsable de herramientas digitales.
Así como las calculadoras se incorporaron a la enseñanza sin reemplazar la capacidad matemática, la IA puede complementar el aprendizaje si se usa con criterio.