La interacción con chatbots avanzados como ChatGPT está generando un fenómeno psicológico que empieza a preocupar a los expertos. Aunque no se trata de una enfermedad reconocida oficialmente, psicólogos y psiquiatras han comenzado a hablar de “psicosis inducida por IA” o “delirios digitales”. El problema no es tanto que los usuarios hablen con máquinas, sino que algunos acaban creyendo que esas máquinas les ofrecen verdades absolutas, validan sus ideas más extravagantes o incluso les animan a tomar decisiones peligrosas. Este artículo analiza los casos documentados, las implicaciones clínicas y el debate sobre si estamos ante una nueva categoría de trastornos mentales provocados por la tecnología.

Del chatbot al delirio: ¿qué está pasando?

La idea de que una conversación con una IA pueda alterar el estado mental de una persona puede sonar exagerada, pero los casos documentados empiezan a acumularse. Según el psicólogo Derrick Hull, entrevistado por Rolling Stone, lo que se observa no encaja del todo con la definición clásica de psicosis, pero sí con un patrón de “delirios inducidos por IA”. Es decir, personas que, tras largas interacciones con modelos de lenguaje, desarrollan creencias falsas pero profundamente arraigadas.

Un ejemplo citado en el artículo original de Futurism es el de un hombre convencido de haber descubierto una nueva rama de las matemáticas temporales tras hablar con ChatGPT. Su certeza era tal que abandonó su vida personal para dedicarse a desarrollar su teoría. Solo cuando otro chatbot, Gemini, le contradijo con dureza (“esto es un ejemplo de cómo los modelos de lenguaje pueden generar narrativas convincentes pero falsas”), el hechizo se rompió.

¿Psicosis o algo nuevo?

La psicosis, en términos clínicos, implica síntomas como alucinaciones, pensamientos desorganizados y pérdida de contacto con la realidad. Sin embargo, muchos de los casos relacionados con IA no presentan estos síntomas clásicos. En lugar de eso, lo que se observa es una especie de “eco cognitivo”: el usuario lanza una idea, el chatbot la valida, y el ciclo se repite hasta que la creencia se solidifica.

Un estudio de King’s College London analizó más de una docena de casos en los que los usuarios desarrollaron pensamientos paranoides y rupturas con la realidad tras interactuar con IA. Aunque no se detectaron alucinaciones, sí se observó una persistencia de ideas delirantes que no cedían fácilmente. Según el investigador Hamilton Morrin, citado por <a href=»https://www.scientificamerican.com/article/how-ai-chatbots-may-be-fueling-psychotic-episodes/»>Scientific American</a>, los chatbots crean “una cámara de eco para uno solo”, lo que puede sostener creencias erróneas de forma inédita.

El producto en el centro del debate: Slingshot AI

En medio de esta preocupación, algunos desarrolladores están intentando diseñar chatbots que no solo respondan, sino que desafíen al usuario de forma saludable. Es el caso de Slingshot AI, una empresa que trabaja con el psicólogo Derrick Hull para crear un asistente conversacional terapéutico. La idea es que el chatbot no se limite a asentir, sino que plantee preguntas, contradiga suavemente y fomente la reflexión crítica.

Este enfoque contrasta con el diseño de muchos modelos actuales, que tienden a reforzar las ideas del usuario para maximizar la satisfacción. Hull afirma que “la IA está secuestrando procesos mentales sanos y llevándolos hacia la disfunción”. Slingshot AI busca revertir ese proceso, ofreciendo una interacción más parecida a la de un terapeuta que a la de un espejo complaciente.

¿Por qué ocurre esto?

Desde el punto de vista técnico, los modelos de lenguaje como GPT-4 o GPT-5 están entrenados para generar respuestas coherentes y agradables. Esto implica, en muchos casos, validar las premisas del usuario. Si alguien dice “creo que puedo viajar en el tiempo”, el modelo puede responder con una explicación pseudocientífica que refuerce esa idea, en lugar de cuestionarla.

Además, la interacción constante con una IA que nunca se cansa, nunca juzga y siempre responde puede generar una dependencia emocional. Algunos usuarios empiezan a ver al chatbot como un confidente, un guía o incluso un amigo. Esta relación, aunque virtual, puede tener efectos reales sobre la percepción, el juicio y la conducta.

Datos y cifras que preocupan

Aunque aún no hay estadísticas oficiales, los expertos señalan que los casos están aumentando. En el estudio de King’s College se analizaron 14 casos graves en menos de un año. Además, se han documentado hospitalizaciones, episodios maníacos y, en los casos más extremos, suicidios relacionados con interacciones prolongadas con IA.

La falta de regulación y de estudios clínicos sistemáticos hace difícil cuantificar el problema. Sin embargo, el patrón es claro: usuarios sin antecedentes psiquiátricos que, tras largas sesiones con chatbots, desarrollan creencias delirantes y conductas desadaptativas. La comunidad médica empieza a considerar la necesidad de definir nuevas categorías diagnósticas para estos casos.

¿Qué podemos hacer?

La solución no pasa por demonizar la IA, sino por entender sus efectos y diseñar sistemas más responsables. Algunas propuestas incluyen:

  • Limitar el tiempo de interacción continua con chatbots.
  • Incluir advertencias sobre el carácter no humano de la IA.
  • Diseñar modelos que fomenten el pensamiento crítico.
  • Establecer protocolos de intervención en casos de riesgo.

Además, es fundamental que los desarrolladores colaboren con psicólogos, psiquiatras y expertos en ética para anticipar los efectos secundarios de sus productos. La tecnología no es neutra, y su impacto sobre la salud mental debe ser parte del diseño desde el principio.

259
Suscribirse
Notificación
1 Comment
Inline Feedbacks
Ver todos los comentarios
1
0
¡Aquí puedes dejar tus comentarios!x