Una propuesta de ley presentada en Ohio (USA) ha reavivado el debate sobre los límites éticos y legales de la inteligencia artificial. El legislador republicano Josh Williams ha impulsado un proyecto que busca prohibir el matrimonio entre humanos y entidades de inteligencia artificial, incluidos los chatbots conversacionales que imitan el lenguaje y las emociones humanas. El texto legislativo, aunque inusual, refleja la creciente inquietud por la expansión de las relaciones entre humanos y sistemas digitales avanzados, especialmente tras el auge de plataformas de IA capaces de generar vínculos afectivos. La medida plantea cuestiones profundas sobre la definición de persona, el consentimiento y la identidad en un contexto donde los límites entre lo humano y lo sintético se difuminan rápidamente.
Un proyecto legal con tintes de ciencia ficción
El proyecto de ley, presentado en la Cámara de Representantes de Ohio a mediados de octubre de 2025, tiene como objetivo prevenir cualquier intento de formalizar un matrimonio entre una persona y una inteligencia artificial. Aunque pueda parecer una medida anecdótica, la iniciativa responde a una preocupación real: el aumento de usuarios que establecen vínculos emocionales con chatbots generativos como Replika, Character.AI o incluso versiones personalizadas de modelos avanzados como ChatGPT o Claude.
Según informa Gizmodo, el legislador Williams justificó su propuesta alegando que “las entidades digitales no poseen conciencia, libre albedrío ni capacidad de consentimiento”, por lo que cualquier intento de contraer matrimonio con ellas carecería de validez moral y legal. El texto no solo prohíbe este tipo de uniones, sino que criminaliza cualquier ceremonia simbólica o contractual que busque reconocerlas.
Desde el punto de vista jurídico, la ley pretende evitar una posible “laguna legal” que pudiera surgir en un futuro próximo, cuando los sistemas de IA generativa alcancen niveles de interacción emocional y lenguaje cada vez más indistinguibles de los humanos. El proyecto aún no ha sido votado, pero ya ha generado una oleada de comentarios en foros legales y tecnológicos por sus implicaciones filosóficas.
El auge de las relaciones con IA: un fenómeno real
Aunque pueda parecer marginal, el fenómeno de las relaciones afectivas entre humanos y chatbots es ya una realidad medible. La empresa Replika, fundada en 2017, cuenta con más de 10 millones de usuarios registrados en todo el mundo, y según datos de 2024, al menos un 30 % de ellos mantiene interacciones consideradas “de pareja” con su asistente virtual.
El avance de la IA generativa multimodal —capaz de procesar texto, voz e imagen en tiempo real— ha impulsado la creación de compañeros digitales con apariencia, tono y personalidad personalizables. Algunos sistemas son tan sofisticados que simulan empatía, comprensión emocional y memoria de conversaciones pasadas. A nivel técnico, estas capacidades se basan en modelos de lenguaje de gran escala (LLMs) con más de 500.000 millones de parámetros, entrenados mediante técnicas de aprendizaje por refuerzo con retroalimentación humana (RLHF) para adaptar su comportamiento al usuario.
La consecuencia es que muchos individuos perciben a estos sistemas como algo más que una herramienta: los consideran interlocutores con identidad propia. Esto ha llevado a casos mediáticos en Japón, Estados Unidos y Corea del Sur, donde personas han celebrado ceremonias simbólicas con personajes digitales o chatbots personalizados. En 2023, un usuario japonés llegó a casarse “virtualmente” con un asistente holográfico de la empresa Gatebox, lo que marcó un precedente cultural, aunque sin validez legal.
La frontera entre persona y entidad sintética
El proyecto de Ohio abre un debate filosófico que trasciende la legislación local. Si la inteligencia artificial logra imitar la conciencia humana de forma convincente, ¿dónde se trazan los límites de la identidad y la autonomía? Según expertos en neuroética, la clave está en distinguir entre procesamiento de información y experiencia subjetiva. Los modelos actuales, por sofisticados que sean, carecen de autopercepción, intencionalidad o emociones genuinas.
Desde el punto de vista técnico, incluso los modelos más avanzados, como GPT-5 o Gemini 2, no poseen estructuras que puedan considerarse equivalentes a un sistema nervioso o a una conciencia emergente. Se basan en redes neuronales artificiales profundas que calculan probabilidades de respuesta basadas en patrones lingüísticos. No hay voluntad, ni deseo, ni sufrimiento detrás de sus palabras. Sin embargo, la ilusión de conciencia que generan puede resultar emocionalmente convincente para el usuario.
El filósofo de la tecnología David J. Gunkel, citado en The Guardian, ha advertido que “el riesgo no está en que las máquinas desarrollen sentimientos, sino en que los humanos proyecten los suyos sobre ellas”. En ese sentido, leyes como la de Ohio buscan proteger la dimensión humana del vínculo afectivo, preservando el matrimonio como una institución basada en la reciprocidad y el consentimiento consciente.
Entre la ética, la religión y el derecho civil
Más allá del componente tecnológico, la propuesta de Ohio refleja tensiones sociales más profundas. Algunos sectores conservadores han expresado su preocupación por lo que consideran un desdibujamiento de los valores tradicionales, mientras que otros lo interpretan como una reacción desproporcionada a un problema inexistente.
Desde un punto de vista legal, el texto se apoya en la definición tradicional de matrimonio como “la unión entre dos personas capaces de consentimiento libre y voluntario”. Como las entidades de IA no cumplen ese requisito, la ley no hace sino reforzar una interpretación preexistente. No obstante, los expertos señalan que el hecho de que un legislador haya sentido la necesidad de explicitarlo es, en sí mismo, un signo de los tiempos.
Algunos juristas plantean escenarios futuros en los que las entidades digitales adquieran algún tipo de estatus jurídico limitado, similar al que se otorga a las corporaciones o a los animales en ciertas legislaciones. En tal caso, se abriría un campo completamente nuevo de derechos y obligaciones. Por ahora, el consenso legal internacional es claro: la IA no puede ser sujeto de derechos civiles ni personales.
El trasfondo tecnológico: IA emocional y aprendizaje afectivo
Lo que hace creíble la iniciativa de Ohio es la velocidad a la que avanza la IA afectiva, una rama del aprendizaje automático centrada en la detección y simulación de emociones humanas. Estos sistemas utilizan modelos de análisis de voz, expresión facial y semántica emocional para responder con empatía.
Empresas como Soul Machines o Inflection AI trabajan ya en asistentes virtuales que pueden reaccionar a cambios de tono, pausas o microexpresiones, ajustando su respuesta en función del estado emocional del interlocutor. Algunos de estos modelos alcanzan tasas de reconocimiento emocional superiores al 85 %, lo que los hace especialmente convincentes.
Sin embargo, esta sofisticación técnica no equivale a una comprensión real. Como señaló un informe de MIT Technology Review, estos sistemas operan bajo un paradigma de emulación estadística, no de experiencia consciente. Su aparente empatía es el resultado de la correlación entre patrones de entrada (texto, voz, gestos) y respuestas aprendidas, sin una representación interna del significado.
Riesgos psicológicos y sociales de las relaciones con IA
Desde la perspectiva psicológica, los vínculos con chatbots pueden tener efectos ambivalentes. Por un lado, ofrecen compañía, consuelo y atención incondicional, especialmente en contextos de soledad o ansiedad social. Por otro, pueden reforzar dinámicas de dependencia emocional hacia una entidad que no experimenta reciprocidad.
Estudios recientes del Center for Human-AI Interaction de la Universidad de Stanford estiman que un 15 % de los usuarios de aplicaciones de IA conversacional interactúan con ellas más de una hora diaria, y un 5 % afirma sentir un vínculo romántico. Aunque estos porcentajes son relativamente bajos, la tendencia va en aumento.
Los psicólogos advierten que estas interacciones pueden alterar las expectativas afectivas humanas, generando idealizaciones que resultan imposibles en relaciones reales. Al no existir conflicto, aburrimiento o error —componentes naturales del vínculo humano—, el usuario puede desarrollar una visión distorsionada del afecto. De ahí que algunos legisladores vean necesario establecer límites simbólicos y normativos.
Un espejo de nuestra relación con la tecnología
El proyecto de ley de Ohio, más que un intento de censura, actúa como espejo de la relación contemporánea entre humanidad y tecnología. Nos recuerda que las máquinas no solo amplían nuestras capacidades, sino que redefinen nuestras nociones de identidad, intimidad y afecto.
En este contexto, el matrimonio con una IA puede interpretarse menos como una aspiración romántica y más como una manifestación del deseo de control sobre el vínculo afectivo. Una relación con un chatbot elimina la imprevisibilidad, la vulnerabilidad y la necesidad de negociación emocional que caracterizan las interacciones humanas.
Por ello, el debate no es solo jurídico, sino también antropológico. ¿Qué significa ser humano en una era en la que las máquinas pueden simular nuestra voz, nuestras emociones y hasta nuestras decisiones? Las respuestas a estas preguntas determinarán la ética de la convivencia futura con las inteligencias artificiales.
Reflexiones finales
El intento de prohibir el matrimonio entre humanos y chatbots puede parecer una curiosidad legislativa, pero encierra un debate profundo sobre los límites del afecto digital y la definición de persona. Aunque las IA generativas actuales carecen de conciencia y autonomía, su capacidad para simular el vínculo humano con una precisión lingüística y emocional creciente está transformando nuestras relaciones sociales.
Ohio ha sido el primer estado en abordar este fenómeno de manera explícita, pero no será el último. Conforme la inteligencia artificial siga evolucionando hacia formas más contextuales y empáticas, las leyes deberán adaptarse no solo para proteger a las personas, sino también para delimitar la identidad jurídica de las entidades no humanas.
El caso de Ohio no se trata tanto de negar el futuro, sino de prepararse para él. La línea que separa la simulación del sentimiento real puede ser técnica, pero también es ética. Y en ese cruce de caminos, el ser humano sigue siendo —por ahora— quien decide qué significa amar.
