En la era de la inteligencia artificial, muchas empresas han incorporado asistentes de IA para ayudar a los agentes de call center, con la promesa de aumentar eficiencia y ventas. Sin embargo, recientes testimonios recogidos en CallCenters chinos revelan que la implementación no siempre cumple lo esperado. En ocasiones, los sistemas cometen errores en transcripciones de audio, reconocimiento emocional o interpretación de números, lo que obliga a los operarios a corregir manualmente lo generado por la máquina . Aun así, ejemplos como el de Verizon demuestran los beneficios, como la reducción de tiempo por llamada y un incremento de ventas del 40 % tras adoptar un asistente basado en Google. Esta dualidad plantea preguntas clave: ¿realmente mejoran la productividad?, ¿quién gana y quién pierde en esta transición?.
Voz humana vs. corrección constante: los límites del asistente
Numerosos agentes reportan que sus asistentes de IA no captan con precisión el audio de diferentes acentos o velocidades de habla, y fallan en secuencias cruciales como números de teléfono. El resultado es una doble carga: si bien disminuye el tecleo manual, aumenta el tiempo en revisar y corregir ese contenido. Además, el sistema de detección emocional se basa en el volumen o palabras clave, lo que provoca etiquetas erróneas que los propios agentes ignoran . En este sentido, la automatización parece añadir más trabajo, en lugar de aligerarlo.
¿Más ventas o más presión? El caso Verizon
En contraste, Verizon ha informado de un notable éxito: tras implantar un asistente de IA basado en modelos de Google, el tiempo medio de llamada se redujo y las ventas dirigidas por teléfono aumentaron un 40 %. Este resultado, logrado gracias a sugerencias contextuales, apoyo en tiempo real y reskilled agents, pone sobre la mesa la siguiente cuestión: ¿es la IA útil siempre que se implemente como herramienta colaborativa, no como sustituta? En este caso, el foco no estaba en reemplazar personal, sino en potenciar sus capacidades.
Diferencias según perfil profesional
Un estudio de Stanford y MIT revela que los beneficios de la IA son más evidentes entre agentes menos experimentados, quienes mejoran su productividad en torno a un 14 %, mientras que los agentes veteranos apenas obtienen una ventaja. Sin embargo, esto también puede fomentar la estrategia de emplear trabajadores menos costosos y menos cualificados, pues su rendimiento se iguala al de empleados con más antigüedad. Esto plantea un dilema ético y económico: la IA impulsa la eficiencia, pero ¿también devalúa la experiencia?
Dilemas éticos y desafíos futuros
La integración de asistentes de IA en call centers plantea retos que van más allá de la eficacia operativa. La presión por cumplir ventas puede intensificarse y afectar al bienestar emocional de los agentes. Además, surgen interrogantes sobre la equidad: ¿deberían agentes más veteranos ser compensados por haber servido de base al entrenamiento de la IA? . Por otro lado, la rápida adopción de tecnología despierta temores de pérdida de empleo, especialmente en industrias con alta automatización —como ocurre en India, donde muchos call centers están siendo reemplazados por sistemas de IA que alteran el acento y responden automáticamente. A medio plazo, el verdadero desafío será encontrar un equilibrio entre automatización y empatía humana.
Conclusión
La inclusión de asistentes de IA en los call centers presenta una realidad compleja: por un lado, puede acelerar procesos, mejorar ventas y elevar la calidad del servicio; por otro, introduce errores, genera aprendizaje adicional para los agentes y plantea riesgos éticos y laborales. El éxito dependerá de una implementación consciente, donde la IA complemente —no reemplace— el talento humano. Desde PCDEMANO continuaremos analizando estas tendencias, reflexionando sobre cómo se equipara la tecnología con la experiencia real en entornos laborales sensibles.

El artículo de CNET ofrece una reflexión importante sobre los límites del uso de ChatGPT y otras herramientas de IA. Aunque son útiles para tareas cotidianas como redactar textos o aprender idiomas, confiar en ellas para temas delicados como salud, finanzas, emergencias o asuntos legales puede ser «peligroso».
El artículo destaca cómo la IA puede parecer confiable, pero aún comete errores, carece de empatía real y no reemplaza el juicio humano. Es un recordatorio de que, aunque la tecnología avanza rápidamente, hay situaciones donde el criterio profesional y humano sigue siendo insustituible. Usar la IA con responsabilidad es clave.