Aunque muchas personas ven a los asistentes de inteligencia artificial como herramientas sin emociones, la interacción humana con modelos como ChatGPT ha abierto un debate inesperado: ¿deberíamos comportarnos con cortesía con estas IA? Este interrogante no es solo filosófico o social; también plantea implicaciones prácticas, técnicas y económicas. Decir «gracias» o escribir con educación no tiene ningún efecto directo sobre los sentimientos del sistema, pero sí implica una mayor cantidad de tokens procesados, lo que incrementa el coste computacional para las empresas que prestan estos servicios.

En este artículo se analizan las implicaciones reales de la cortesía al usar ChatGPT y modelos similares. Desde el aumento de costes operativos hasta el impacto ambiental por el uso de centros de datos, cada palabra que introducimos —aunque parezca trivial— tiene un coste. Además, se explora cómo se están usando estas interacciones en contextos educativos y qué papel juega la IA en la manera en que las personas aprenden a comunicarse. No se trata solo de ahorrar tokens, sino de entender cómo nuestra forma de expresarnos moldea las relaciones con sistemas que, aunque artificiales, ya forman parte de nuestra vida diaria.

Una costumbre humana que cuesta millones de tokens

El uso de asistentes conversacionales como ChatGPT ha normalizado una forma de interacción que imita el diálogo humano. Es natural que muchas personas sientan la necesidad de escribir «hola», «gracias» o incluso «por favor». Este comportamiento, aunque inocente, conlleva consecuencias técnicas y económicas. Cada una de estas palabras consume lo que se conoce como un token, una unidad básica de procesamiento de texto para los modelos de lenguaje.

Un solo «gracias» puede parecer irrelevante, pero si se multiplica por los millones de interacciones diarias que maneja una IA como ChatGPT, el impacto se vuelve significativo. OpenAI estima que los costes operativos por mantener ChatGPT activo ascienden a varios millones de dólares al mes, buena parte de ellos vinculados al uso intensivo de servidores y procesamiento de tokens.

Desde un punto de vista técnico, la palabra «gracias» representa al menos dos tokens en el modelo GPT-4. Si se añaden frases completas de cortesía, como «muchas gracias por tu ayuda», se puede llegar fácilmente a 8 o 10 tokens extra por interacción. A gran escala, eso significa millones de tokens adicionales generados solo por cortesía.

¿La IA necesita educación? Un dilema social y educativo

Más allá del coste computacional, la cortesía frente a la IA ha generado interés en el ámbito educativo. Profesores y pedagogos han comenzado a utilizar ChatGPT como herramienta de apoyo en clase, y uno de los aprendizajes que promueven es el respeto en la comunicación, incluso con una máquina.

Este enfoque no pretende humanizar la IA, sino reforzar hábitos comunicativos. El lenguaje educado se convierte, en este caso, en una herramienta para fomentar el respeto mutuo y la claridad. De hecho, una investigación reciente del MIT sugiere que el uso de un tono amable mejora los resultados obtenidos en ciertas tareas conversacionales, no porque el sistema «entienda» la cortesía, sino porque los usuarios formulan peticiones de forma más clara y estructurada.

En centros educativos, ChatGPT está empezando a ser integrado en dinámicas de aprendizaje donde se fomenta la redacción de mensajes respetuosos. Aunque no tenga un valor operativo para el sistema, sí lo tiene para quienes aprenden a expresarse.

¿Cortesía o eficiencia? Una cuestión de diseño y sostenibilidad

Cada mensaje enviado a ChatGPT es procesado en un centro de datos que requiere recursos energéticos. Aunque el coste de un solo mensaje es minúsculo, las implicaciones aumentan al considerar los millones de interacciones diarias. Un modelo como GPT-4 procesa cada día varios miles de millones de tokens. Un pequeño ahorro por interacción podría traducirse en un impacto energético y económico notable.

Además, OpenAI utiliza sistemas de facturación basados en tokens. Si una empresa implementa GPT-4 en su solución y recibe interacciones extensas con cortesías innecesarias, verá cómo se disparan los costes sin una mejora efectiva en los resultados. Es una cuestión de eficiencia técnica y también de sostenibilidad ambiental.

A nivel técnico, los tokens determinan no solo el coste, sino también los límites funcionales. Los modelos de lenguaje tienen un número máximo de tokens que pueden procesar por petición. GPT-4-turbo, por ejemplo, tiene una ventana de contexto de 128k tokens. Incluir frases redundantes podría limitar la cantidad de contenido útil procesado, especialmente en tareas complejas.

ChatGPT y la psicología del agradecimiento: ¿proyectamos humanidad?

Desde una perspectiva psicológica, decir «gracias» a un sistema como ChatGPT refleja la tendencia humana a antropomorfizar la tecnología. Según estudios de la Universidad de Stanford, las personas tienden a proyectar emociones y valores humanos en objetos con los que interactúan de forma continuada. Esta proyección se ha observado incluso en contextos con asistentes de voz como Alexa o Siri.

La cortesía hacia la IA puede entenderse también como una forma de reafirmar nuestras propias normas de comportamiento. No se trata de que la máquina lo «valore», sino de que la persona que escribe mantiene su coherencia comunicativa. En este sentido, el acto de agradecer no tiene función operativa, pero sí psicológica o social.

¿Estamos enseñando a las IA a ser mejores o a gastar más?

Otro tema relevante es el aprendizaje de la propia IA. Aunque GPT-4 no entrena en tiempo real, las interacciones son revisadas para mejorar versiones futuras. Si la mayoría de las personas usa un lenguaje cortés, esto podría influir en cómo se entrenan futuras versiones del modelo. No porque el sistema aprenda que debe ser más educado, sino porque interpreta los patrones de lenguaje como parte de la experiencia de usuario esperada.

Sin embargo, incluir demasiados elementos no informativos puede sesgar los datos de entrenamiento. Desde el punto de vista del desarrollo de modelos, se valora la eficiencia y la claridad. Cuanto más ruido (tokens irrelevantes) se incluya, más difícil puede ser extraer patrones útiles para entrenamiento.

Reflexiones finales

La interacción con la inteligencia artificial no es neutra. Aunque la IA no siente, nuestra manera de relacionarnos con ella importa. Por un lado, tiene un coste operativo real; por otro, afecta a la forma en la que los humanos educamos, aprendemos y nos expresamos. El dilema no es si deberíamos ser educados con ChatGPT por respeto a la máquina, sino si esa educación refleja cómo queremos comunicarnos como sociedad. La eficiencia no tiene por qué estar reñida con la humanidad, pero es necesario ser conscientes de lo que implica cada palabra, incluso en lo digital.

285
Suscribirse
Notificación
0 Comments
Inline Feedbacks
Ver todos los comentarios
0
¡Aquí puedes dejar tus comentarios!x