En los últimos meses, el uso de inteligencia artificial (IA) ha trascendido de simples asistentes de redacción a herramientas que influyen directamente en prácticas profesionales con implicaciones éticas y legales profundas. Entre esas aplicaciones emergentes está un “AI proctor” —un supervisor de IA diseñado para monitorizar declaraciones remotas y detectar si un testigo podría estar usando IA para generar respuestas en tiempo real—. Este tipo de tecnología plantea cuestiones sobre integridad procesal, fiabilidad, privacidad y la propia naturaleza de la prueba testimonial en entornos digitales. Más allá de su presentación en eventos como CES, su posible integración en la toma de declaraciones o entrevistas judiciales ha reavivado debates entre juristas, tecnólogos y profesionales del derecho sobre hasta qué punto la inteligencia artificial puede o debe participar activamente en procedimientos sensibles.
Un Proctor de IA: ¿Qué es y cómo funciona?
La idea de un proctor de IA para declaraciones remotas surge de la preocupación real de que, en entornos digitales, un testigo no solo podría consultar apuntes o señales humanas escondidas, sino también apoyarse en generadores de texto de IA para responder a preguntas críticas. Herramientas como la presentada por una startup llamada Qlay monitorizan tanto el movimiento ocular como patrones del habla para identificar posibles momentos en que el interlocutor recurre a una fuente externa de respuestas. La tecnología puede requerir que el testigo utilice su teléfono móvil como cámara secundaria para proporcionar una vista más amplia del entorno, además de analizar microseñales en tiempo real. Tal software, en teoría, contempla procesar patrones faciales, seguimiento de la mirada y análisis acústico, técnicas que combinan visión por computadora y aprendizaje automático para encontrar anomalías que podrían sugerir uso de IA o de material escondido durante la declaración.
La importancia de un “AI proctor” radica en su función potencial de alertar sobre pruebas circunstanciales de deshonestidad, permitiendo al abogado plantear objeciones o solicitar medidas adicionales (como ampliar la cobertura de cámaras o interrumpir la sesión para verificaciones). Sin embargo, el propio creador reconoce que la herramienta no determina de forma concluyente si ha habido trampa: simplemente señala posibles indicios que deben ser evaluados por humanos. Esto plantea inmediatamente cuestiones sobre la fiabilidad de los algoritmos implicados: ¿puede una combinación de señales físicas y de voz distinguir entre nerviosismo natural y engaño asistido por IA sin generar falsos positivos?
¿Por qué surge esta tecnología ahora?
La proliferación de procedimientos judiciales remotos, acelerada por la pandemia y la adopción generalizada de videoconferencias, ha creado un terreno fértil para que la tecnología experta intente resolver problemas que antes eran minoritarios. La lógica es sencilla: si ya existe evidencia empírica —por ejemplo, encuestas en sectores de reclutamiento que sugieren que el 40 % de los candidatos usan IA para “mejorar” sus respuestas en entrevistas—, ¿por qué no podría pasar algo similar en declaraciones judiciales?
Además, otros desarrollos tecnológicos en ámbitos relacionados muestran cómo la IA puede analizar millones de puntos de datos simultáneamente y extraer patrones complejos. Por ejemplo, estudios académicos sobre sistemas automáticos de vigilancia de exámenes remotos y detección de trampas presentan modelos que combinan estimación de poses, seguimiento de mirada y análisis de manos, alcanzando tasas de clasificación superiores al 90 % en escenarios simulados.
Sin embargo, la transición de estas técnicas a un contexto legal eleva el nivel de exigencia técnica y ético de forma considerable. Mientras que en contextos educativos el objetivo es simple (detectar un intento de copiar respuestas), en un procedimiento judicial estamos lidiando con la credibilidad de testimonios que pueden tener consecuencias de enorme impacto legal y personal.
Implicaciones éticas y de procedimiento
Integrar una herramienta de este tipo en un proceso legal no es puramente técnico, sino también profundamente ético. Por un lado, existe la preocupación por la privacidad y el tratamiento de datos sensibles: las declaraciones suelen incluir información altamente confidencial, cuya transmisión, análisis y almacenamiento deben cumplir estrictos estándares de seguridad (en muchos casos, equiparables a HIPAA o similares).
Además, hay un debate activo sobre si es ético permitir que una IA influya en decisiones humanas tan críticas. Las reglas éticas que rigen la práctica legal, como las Model Rules de la American Bar Association en Estados Unidos, enfatizan que cualquier herramienta que “asista” a un abogado debe estar bajo su supervisión constante y no debe sustituir el juicio profesional del abogado. De hecho, algunas opiniones recientes sostienen que no se puede delegar el ejercicio de juicio legal a IA sin revisión humana.
Un punto crítico es la posibilidad de falsos positivos: si un algoritmo interpreta incorrectamente normalidades del comportamiento como indicios de trampa, podría terminar comprometiendo la percepción de credibilidad de un testigo inocente. Esto tendría implicaciones no solo en la valoración de pruebas, sino también en la percepción de equidad del proceso.
Técnica detrás de la detección automática
Los sistemas avanzados de supervisión basados en IA suelen integrar varios subsistemas:
-
Visión por computadora para seguimiento de mirada y poses corporales.
-
Análisis de voz y patrones de discurso, que pueden medir velocidad de habla, pausas, entonación y variación vocal.
-
Aprendizaje profundo (deep learning) aplicado a video y audio para detectar correlaciones no triviales entre microexpresiones y actividad cognitiva.
Este tipo de análisis puede generar miles de características por minuto (por ejemplo, mil variaciones de métricas de voz y movimiento por segundo), que luego son evaluadas por redes neuronales entrenadas con bases de datos etiquetadas. Pero incluso con modelos muy avanzados, existe un margen de error que requiere intervención humana para validar cualquier conclusión sugerida por la IA.
Reflexiones sobre su uso futuro
La posibilidad de que pruebas remotas puedan estar asistidas por IA es real y no se limita a declaraciones judiciales. Herramientas que automatizan redacción de resúmenes de declaraciones, análisis de inconsistencias o identificación de puntos clave de testimonios ya están siendo utilizadas por algunas firmas, reduciendo el trabajo manual y el tiempo dedicado a la revisión de transcripciones.
No obstante, la introducción de un supervisor de IA para detectar uso indebido de tecnología implica un nivel de implicación más profundo. Algunos profesionales argumentan que, antes de confiar en una herramienta automatizada para evaluar credibilidad, sería preferible reforzar procedimientos de verificación tradicionales o mejorar las medidas de seguridad de los entornos remotos.
Existe también un riesgo no menor de que este tipo de herramientas puedan ser vistas como infalibles cuando en realidad solo aportan análisis complementario a la observación humana. En contextos técnicos, como el análisis de grandes volúmenes de datos de vídeo y audio, incluso un 90 % de precisión puede implicar decenas de errores por procedimiento de horas.
Conclusión
La aparición de “AI proctors” para declaraciones remotas es un síntoma claro de que la inteligencia artificial está penetrando en áreas cada vez más delicadas de la profesión legal. La técnica que combina visión por computadora y análisis de voz para detectar posibles señales de uso de IA en respuestas ofrece una herramienta poderosa, pero también levanta cuestiones éticas, legales y procedimentales que la comunidad jurídica aún necesita resolver. Su uso responsable requerirá transparencia en su funcionamiento, supervisión humana estricta y estándares compartidos sobre cómo interpretar los indicios que genera. Como cualquier tecnología potente, puede ser una ayuda significativa, siempre y cuando se comprendan y mitiguen sus limitaciones.
389