La inteligencia artificial vuelve a situarse en el centro del debate tecnológico y ético tras un nuevo estudio elaborado por investigadores de ETH Zurich. Según esta investigación, los modelos de IA pueden deducir rasgos de personalidad analizando el historial de conversaciones de los usuarios con chatbots como ChatGPT. El trabajo abre nuevas preguntas sobre privacidad, manipulación digital y uso comercial de los datos personales. Aunque la precisión todavía está lejos de ser absoluta, los expertos advierten de que el crecimiento de estas tecnologías podría convertir las interacciones cotidianas con la IA en una valiosa fuente de perfilado psicológico.
Un estudio revela que la IA puede interpretar la personalidad humana
El rápido avance de los modelos de lenguaje ha provocado que millones de personas utilicen asistentes conversacionales para tareas diarias, consultas personales e incluso apoyo emocional. En este contexto, investigadores de ETH Zurich analizaron si estos sistemas podían extraer información psicológica relevante a partir de simples conversaciones mantenidas con usuarios.
La investigación, difundida por Euronews Next, contó con la participación de 668 usuarios de ChatGPT procedentes de Estados Unidos y Reino Unido. Los participantes compartieron voluntariamente más de 62.000 conversaciones mantenidas con el chatbot, permitiendo a los científicos entrenar un modelo capaz de inferir determinados rasgos psicológicos.
El sistema se apoyó en el conocido modelo de personalidad “Big Five”, ampliamente utilizado en psicología moderna. Este marco clasifica la personalidad humana en cinco grandes dimensiones: apertura mental, responsabilidad, extraversión, amabilidad y estabilidad emocional. Posteriormente, los resultados obtenidos por la IA se compararon con pruebas psicológicas reales realizadas a los participantes.
Los resultados sorprendieron incluso a los propios investigadores. El modelo logró acertar determinados rasgos con una precisión de hasta el 61 %, especialmente en aspectos relacionados con la estabilidad emocional y la amabilidad. Sin embargo, mostró más dificultades para detectar niveles de responsabilidad o disciplina personal.
Aunque un 61 % pueda parecer limitado frente a sistemas científicos tradicionales, los expertos consideran que se trata de un porcentaje notable teniendo en cuenta que la IA solo analizó conversaciones aparentemente normales. Esto significa que las interacciones diarias con un chatbot contienen mucha más información personal de la que la mayoría de usuarios imagina.
Además, el estudio detectó que cuanto mayor era el historial de conversación disponible, más precisas eran las predicciones. Dicho de otro modo: cuanto más se utiliza una IA conversacional, más fácil resulta construir un perfil psicológico detallado del usuario.
El enorme valor comercial y político de los perfiles psicológicos
El descubrimiento no solo tiene implicaciones académicas. También abre la puerta a un nuevo escenario económico y político donde las empresas tecnológicas podrían utilizar estos perfiles para personalizar publicidad, recomendaciones o incluso estrategias de persuasión.
Los investigadores advierten de que la combinación de IA generativa, historial conversacional y análisis psicológico podría convertirse en una herramienta extremadamente poderosa para influir en las personas. En el informe se menciona expresamente el riesgo de campañas masivas de manipulación, propaganda o desinformación adaptadas al perfil emocional de cada individuo.
La preocupación no es exagerada si se tiene en cuenta el contexto actual. Plataformas digitales y redes sociales ya utilizan algoritmos capaces de analizar comportamiento, hábitos y preferencias para segmentar contenido. La diferencia es que ahora las conversaciones con IA permiten acceder a información mucho más íntima: dudas personales, problemas emocionales, creencias o inseguridades.
El propio estudio menciona el fenómeno conocido como “
r”, una tendencia creciente en la que algunas personas delegan decisiones, opiniones o procesos de pensamiento en asistentes de IA. Según los investigadores, esto puede aumentar el riesgo de dependencia psicológica y facilitar estrategias de influencia personalizada.
A esta situación se suma el creciente peso económico de la inteligencia artificial. Grandes compañías tecnológicas compiten por desarrollar asistentes más avanzados capaces de convertirse en intermediarios permanentes entre usuario e información. Cada interacción genera datos extremadamente valiosos para mejorar modelos comerciales y sistemas predictivos.
No es casualidad que Europa esté revisando constantemente su regulación sobre IA. Esta misma semana, las instituciones europeas alcanzaron un acuerdo preliminar para simplificar determinadas obligaciones del Reglamento de Inteligencia Artificial con el objetivo de impulsar la competitividad tecnológica europea.
Sin embargo, varios expertos temen que la carrera por acelerar el desarrollo de la IA termine debilitando algunas garantías relacionadas con privacidad y transparencia algorítmica. La dificultad está en encontrar un equilibrio entre innovación tecnológica y protección de derechos fundamentales.
La privacidad digital entra en una nueva fase de riesgo
Hasta hace pocos años, la mayoría de usuarios asociaba la privacidad digital al robo de contraseñas, filtraciones de datos o rastreo publicitario. Pero la inteligencia artificial está llevando el problema a un nivel mucho más complejo y profundo.
Ahora no solo importa qué datos compartimos, sino también cómo hablamos, qué temas tratamos, el tono emocional utilizado o la forma en que interactuamos con un sistema automatizado. Todo ello puede convertirse en materia prima para inferir características psicológicas.
El estudio de ETH Zurich pone de manifiesto que incluso conversaciones aparentemente inocentes contienen patrones suficientes para construir perfiles de personalidad relativamente fiables. Y eso ocurre aunque el usuario nunca haya proporcionado directamente esa información.
La situación recuerda a algunos de los debates surgidos tras el escándalo de Cambridge Analytica hace años, cuando datos psicológicos obtenidos en redes sociales fueron utilizados para campañas políticas altamente segmentadas. La diferencia es que las IA conversacionales pueden acceder a información todavía más detallada y contextual.
Además, la expansión masiva de estos sistemas multiplica el alcance potencial del problema. Herramientas basadas en modelos de lenguaje ya se utilizan como tutores educativos, asistentes laborales, terapeutas virtuales o compañeros conversacionales. Muchas personas mantienen con estas plataformas conversaciones más íntimas que las que tendrían en redes sociales tradicionales.
Los investigadores consideran que todavía no existe suficiente conciencia pública sobre el volumen de información sensible que puede extraerse mediante análisis lingüístico automatizado. Por ello, proponen desarrollar mecanismos de protección capaces de eliminar automáticamente datos identificativos o limitar ciertos tipos de perfilado psicológico.
Paralelamente, otros estudios recientes han mostrado cómo los modelos de IA también pueden reflejar sesgos ideológicos, culturales y geográficos presentes en sus datos de entrenamiento. Un trabajo difundido por Euronews señalaba recientemente que algunos sistemas como ChatGPT tienden a favorecer perspectivas occidentales y de países ricos.
Todo ello refuerza la idea de que la IA no es una tecnología neutral. Los datos utilizados, la forma de entrenamiento y los objetivos comerciales de las compañías pueden influir directamente en el comportamiento de estos sistemas.
El futuro de la IA dependerá de la confianza de los usuarios
La industria tecnológica se enfrenta ahora a un desafío clave: convencer a la sociedad de que estas herramientas pueden utilizarse de forma segura y responsable. Sin confianza pública, la adopción masiva de asistentes inteligentes podría verse frenada por preocupaciones relacionadas con privacidad y vigilancia digital.
Las propias empresas son conscientes de esta situación. Muchas plataformas están incorporando funciones para eliminar historiales, gestionar datos personales o limitar el entrenamiento de modelos mediante conversaciones privadas. Sin embargo, los expertos consideran que estas medidas todavía son insuficientes.
El problema también afecta al ámbito energético y económico. El auge de la IA está provocando una explosión en la construcción de centros de datos cada vez más grandes y consumidores de electricidad. Un informe reciente de Euronews advertía de que Europa podría enfrentarse a graves tensiones eléctricas si continúa expandiendo infraestructuras para IA al ritmo actual.
Mientras tanto, la investigación científica continúa avanzando rápidamente. Otros trabajos recientes han demostrado que la IA puede detectar emociones, estilos lingüísticos e incluso diferencias culturales con una precisión creciente.
La combinación de todos estos avances apunta hacia una nueva generación de sistemas capaces de interpretar cada vez mejor el comportamiento humano. Esto podría tener aplicaciones positivas en medicina, educación o atención personalizada, pero también plantea riesgos evidentes de vigilancia masiva y manipulación psicológica.
El debate ya no gira únicamente alrededor de si la IA puede pensar como un ser humano, sino sobre cuánto puede llegar a comprendernos observando nuestras palabras y comportamientos digitales.
En este escenario, la alfabetización tecnológica se convertirá en un elemento esencial. Comprender cómo funcionan estos sistemas y qué información revelamos al utilizarlos será tan importante como aprender a proteger nuestras contraseñas o datos bancarios.
Conclusión
El estudio de ETH Zurich demuestra que las conversaciones mantenidas con sistemas de inteligencia artificial contienen suficiente información para inferir rasgos de personalidad con una precisión significativa. Aunque la tecnología todavía presenta limitaciones, los resultados evidencian el enorme potencial de análisis psicológico que poseen los modelos de lenguaje actuales.
La situación abre importantes interrogantes sobre privacidad, regulación y uso ético de la IA. En un contexto donde millones de personas interactúan diariamente con asistentes conversacionales, el riesgo de perfilado masivo y manipulación personalizada ya no pertenece a la ciencia ficción. La evolución futura de estas tecnologías dependerá en gran medida de la capacidad de gobiernos, empresas y usuarios para establecer límites claros y mecanismos efectivos de protección digital.
Referencias
- Euronews Next – AI can predict your personality from chat history, study finds
- TechXplore – Can AI ascertain our personality traits from ChatGPT history?
- arXiv – Is AI Catching Up to Human Expression?
- Euronews – EU reaches tentative deal to simplify AI rulesconversacional, ETH Zurich
87