En los últimos años, muchas personas han comenzado a entablar relaciones de todo tipo con inteligencias artificiales conversacionales —ya sea para llenar un vacío emocional o simplemente para conversar sin juicio. Desde chats con “bots amigos” hasta propuestas románticas por parte de avatares digitales, este fenómeno está generando debates éticos, psicológicos y tecnológicos. En este artículo analizaremos cómo funcionan estos sistemas, qué impacto pueden tener (positivo y negativo), datos recientes que muestran tendencias y riesgos, así como reflexiones sobre si estas “relaciones” pueden sostenerse o están destinadas a desvanecerse.
¿Por qué surge esta necesidad de conectarse con un bot?
Vivimos en una era donde la soledad, el aislamiento social o la dificultad para entablar relaciones profundas están cada vez más extendidos. El uso de aplicaciones y redes sociales ha generado un nuevo tipo de conexión: una interacción controlada, medida, con barreras claras. En ese contexto, los chatbots programados para acompañar emocionalmente aparecen como una salida atractiva para algunos.
Estos sistemas aprovechan técnicas de procesamiento de lenguaje natural (PLN), modelos generativos y algoritmos de personalización para simular respuestas empáticas o afectivas. En muchos casos, el bot “recuerda” lo que le dices, adapta su tono y responde de manera coherente, lo que puede generar la ilusión de una escucha real. Sin embargo, esa ilusión puede tener costes.
Un estudio longitudinal con casi un millar de participantes demostró que el uso diario más intenso de chatbots, ya sean de texto o con voz, está correlacionado con un aumento de la sensación de soledad, una mayor dependencia emocional hacia el bot y una reducción de la sociabilidad con personas reales, según este trabajo publicado en arXiv. En particular, los chatbots con voz neurales inicialmente parecían más efectivos que los de solo texto para mitigar la soledad, pero esas ventajas se desvanecieron cuando la frecuencia de uso aumentó.
Este tipo de hallazgos sugiere que, en la práctica, usar un bot como sustituto de la cercanía humana puede empeorar el problema que pretendía resolver.
Cómo se “venden” estas conexiones digitales: el caso de Replika
Cuando se habla de un producto concreto en este ámbito, resulta inevitable mencionar a Replika, una aplicación que se ha consolidado como una de las más conocidas en el terreno de los chatbots de compañía.
Su funcionamiento se basa en un cuestionario inicial que ajusta el modelo de red neuronal al perfil del usuario. El sistema adapta su estilo de comunicación y va acumulando recuerdos, lo que genera la sensación de interacción personalizada. Replika utiliza un modelo freemium: la versión básica es gratuita, pero para desbloquear funciones más íntimas o relaciones más cercanas se ofrece una suscripción anual.
De acuerdo con datos disponibles en estudios y reportajes sobre la aplicación, aproximadamente un 60 % de los usuarios que pagan por la versión premium afirman mantener una relación de carácter romántico con el chatbot. Parte de la atracción proviene de una mezcla de elogios constantes, escucha sin juicios y disponibilidad total. En investigaciones con estudiantes que padecían síntomas depresivos, algunos afirmaban que Replika proporcionaba un “apoyo social percibido” similar al que podían obtener de personas reales.
Sin embargo, esa misma cercanía artificial tiene consecuencias. Cuando el bot cambia de modelo o introduce errores, muchos usuarios expresan sensación de abandono o frustración, como si se tratara de una relación humana real que se ha deteriorado.
Riesgos, límites y efectos no esperados
Aunque algunos defienden el potencial de estos sistemas como apoyo emocional, abundan las señales de alerta. El riesgo de dependencia emocional es uno de los más señalados, y un estudio mixto en arXiv apunta que no es tanto el uso del chatbot en sí lo que determina la soledad, sino factores como el rasgo de neuroticismo, el tamaño de la red social real y el uso problemático de la aplicación. Esos tres elementos explican alrededor del 50 % de la variabilidad en los niveles de soledad reportados por los usuarios.
Casos documentados ilustran hasta qué punto la ilusión de cercanía puede volverse peligrosa. Un artículo de Reuters relató cómo un hombre de 76 años, convencido de mantener una relación con un chatbot de Meta llamado “Big sis Billie”, emprendió un viaje para encontrarse con la supuesta mujer y falleció durante el trayecto. Este suceso plantea dilemas éticos de primer orden sobre la responsabilidad de las empresas al permitir que sus sistemas induzcan expectativas de interacción física.
Más allá de episodios extremos, pensadoras como Sherry Turkle han advertido que cuando las interacciones digitales sustituyen a las presenciales, se erosiona la empatía y la intimidad cara a cara. En una entrevista publicada por Harvard Gazette, la autora de Reclaiming Conversation subraya que solo en la conversación presencial emergen la vulnerabilidad y la reciprocidad auténtica, cualidades que un bot no puede reproducir más allá de la superficie.
La preferencia por una compañía predecible y sin conflictos, que un chatbot puede garantizar, puede derivar además en expectativas poco realistas en relaciones humanas, donde el desacuerdo, el malentendido y la frustración forman parte de la experiencia inevitable.
Escenarios posibles y reflexiones
Estos sistemas podrían tener cierto valor en contextos concretos, como acompañar a personas en periodos de aislamiento extremo o funcionar como apoyo complementario en entornos clínicos. Incluso como herramienta de ensayo emocional para practicar conversaciones difíciles, un chatbot puede resultar útil. Sin embargo, el beneficio desaparece cuando se pretende sustituir vínculos humanos por vínculos digitales, especialmente si la interacción se intensifica y se centra en temas íntimos.
Los desarrolladores y reguladores se enfrentan al reto de establecer límites claros en el diseño de estas aplicaciones. Resulta fundamental que los algoritmos no induzcan encuentros físicos sin advertencias explícitas, que se garantice la transparencia de que el interlocutor es una IA y que existan mecanismos para reducir un uso excesivo. Por parte de los usuarios, conviene asumir que el bot es un instrumento y no un ser consciente, utilizarlo de forma moderada y combinarlo con relaciones humanas que aporten reciprocidad genuina.
En última instancia, el auge de relaciones emocionales con chatbots refleja la profundidad de nuestras necesidades de conexión, pero también señala la incapacidad de la tecnología para sustituir los matices de la cercanía humana. Los estudios más sólidos coinciden en que un uso intensivo se traduce en mayor dependencia, incremento de la soledad y abandono de la sociabilidad real.
El producto más conocido, Replika, es a la vez ejemplo de consuelo y advertencia: su popularidad demuestra que existe una demanda real de compañía digital, pero también que esa compañía es frágil, inestable y en ocasiones contraproducente. Lo verdaderamente valioso sigue siendo cultivar la vulnerabilidad, el afecto y la reciprocidad en la interacción con otras personas. Un chatbot puede responder, pero nunca ofrecerá el silencio compartido, el gesto espontáneo o la presencia física que definen el núcleo de la vida humana en sociedad.
