Un estudio reciente del MIT Sloan School of Management revela que, en el ámbito de la inteligencia artificial generativa, la calidad del resultado no depende solo del modelo utilizado, sino también —y en igual medida— de cómo se formulan las preguntas o indicaciones. Esto cuestiona la creencia de que los modelos más avanzados siempre producen los mejores resultados por sí mismos. En realidad, el usuario tiene un papel decisivo. El estudio se centró en tareas de redacción empresarial y demuestra que el diseño de los prompts (indicaciones o peticiones al modelo) puede ser tan influyente como el propio motor de IA. En este artículo analizamos los hallazgos, sus implicaciones y las limitaciones que presenta este enfoque. Desde un punto de vista personal, considero que estos modelos son especialmente eficaces para generar imágenes llamativas o textos elaborados, pero no necesariamente para resolver problemas técnicos o matemáticos donde la solución es única y no admite tanteos.
El estudio: ¿es el modelo o el usuario el que manda?
En el imaginario colectivo, los avances en inteligencia artificial generativa se asocian al progreso técnico de los propios modelos: más parámetros, más datos, más capacidad de procesamiento. Sin embargo, el estudio llevado a cabo por investigadores del MIT Sloan plantea una disyuntiva que desafía esta lógica. Al comparar distintos modelos de lenguaje en una serie de tareas empresariales, los investigadores descubrieron que el diseño del prompt —es decir, cómo se formula la pregunta o tarea— influye tanto en la calidad del resultado como el propio modelo de IA que se utiliza.
Para la investigación se seleccionaron más de 2.000 profesionales del ámbito empresarial, a quienes se les encargó redactar correos electrónicos, diseñar estrategias de marketing o resumir informes utilizando inteligencia artificial. Se utilizaron diferentes niveles de complejidad en los prompts, desde simples comandos hasta indicaciones cuidadosamente elaboradas con estructura y contexto detallado. Los resultados fueron reveladores: las mejoras en los prompts bien diseñados generaban aumentos significativos en la calidad de la respuesta, comparables a los obtenidos al cambiar de un modelo básico a uno de última generación.
Esto implica una democratización del acceso al rendimiento óptimo de la IA. Un usuario con experiencia en ingeniería de prompts puede, en ciertos contextos, superar en resultados a otro que simplemente utiliza el modelo más avanzado sin estrategia alguna. Esta perspectiva invierte la narrativa dominante: el modelo ya no es el único protagonista; la interacción humana —cómo preguntamos— se convierte en pieza central del rendimiento.
La ingeniería de prompts: una habilidad clave en la era de la IA
A medida que los sistemas de inteligencia artificial generativa se integran en herramientas profesionales, la ingeniería de prompts se revela como una competencia esencial. En palabras de los autores del estudio del MIT, “el prompt es tan importante como el motor”. No se trata solo de decirle al modelo qué hacer, sino de cómo guiarlo con precisión para obtener una respuesta de calidad, alineada con los objetivos del usuario.
La investigación demuestra que indicaciones más detalladas, con instrucciones explícitas y contexto adecuado, tienden a generar respuestas mejor estructuradas, más precisas y adaptadas al entorno profesional. Por ejemplo, un simple “resume este informe” produce resultados considerablemente más pobres que una solicitud como: “resume este informe destacando las métricas clave de rendimiento, las conclusiones más importantes y los riesgos estratégicos que se mencionan”. En términos de resultados, esta diferencia equivale a pasar de un modelo básico como GPT-3.5 a uno más avanzado como GPT-4.
Este hallazgo tiene implicaciones prácticas profundas. Por un lado, subraya que la competencia profesional en el uso de IA ya no consiste solo en conocer qué modelo usar, sino en aprender a comunicarse eficazmente con él. Por otro, refuerza la idea de que la IA no reemplaza la inteligencia humana, sino que la amplifica en función de cómo se utilice. En un entorno empresarial, esto significa que equipos formados en técnicas de prompting pueden obtener resultados competitivos incluso sin acceso a los modelos más avanzados.
Límites del enfoque: ¿sirve para todo?
No obstante, es importante matizar el alcance de estas conclusiones. Desde una perspectiva personal, me parece que este tipo de modelos son especialmente adecuados para generar imágenes curiosas o redactar páginas y páginas de texto más o menos coherente, lo que resulta útil en tareas como la escritura creativa, el marketing de contenidos o el diseño gráfico. Sin embargo, su utilidad disminuye en contextos donde se requiere una solución unívoca y precisa, como en problemas técnicos, matemáticos o científicos complejos, donde el ensayo y error no es una vía viable.
La IA generativa, por naturaleza, funciona como un sistema probabilístico: predice la palabra o imagen más probable dada una entrada. Esto la hace muy competente en tareas donde el margen de interpretación es amplio y la creatividad puede jugar a favor. Pero en dominios donde la precisión es crítica y no hay espacio para la ambigüedad —como un cálculo de ingeniería estructural, una prueba estadística avanzada o una verificación matemática—, su rendimiento todavía dista de ser fiable.
De hecho, los propios investigadores reconocen que el estudio se centró en tareas de redacción empresarial, un campo en el que el lenguaje humano y las convenciones estilísticas tienen más peso que la corrección lógica o matemática. Sería un error extrapolar sin más los resultados a otros ámbitos técnicos donde la solución no puede depender de cómo se formule la pregunta, sino de si la respuesta es objetivamente correcta. En estos contextos, la IA puede ser una herramienta complementaria, pero aún no sustituye la lógica formal o el conocimiento profundo.
Hacia una nueva relación humano-máquina
El estudio del MIT no solo nos ofrece una nueva mirada sobre cómo obtener mejores resultados con IA, sino que también apunta a una transformación en la manera en que interactuamos con las máquinas. Si el diseño de prompts influye tanto como el modelo en sí, entonces estamos ante un cambio de paradigma: el ser humano ya no es solo un usuario pasivo, sino un director de orquesta que guía al modelo hacia el resultado deseado.
Esto plantea un cambio cultural profundo. En lugar de obsesionarse por tener siempre el modelo más potente, muchas organizaciones podrían beneficiarse más formando a sus empleados en técnicas de interacción avanzada con IA. El prompting no solo requiere habilidades lingüísticas, sino también comprensión del contexto, capacidad de síntesis y claridad en los objetivos. Así, la colaboración entre humanos y modelos generativos puede volverse más eficaz, más creativa y más alineada con las necesidades reales de las empresas.
Además, esta nueva perspectiva abre la puerta a un enfoque más inclusivo. Si la calidad del resultado depende en gran parte de la pericia del usuario al formular sus preguntas, entonces incluso herramientas de código abierto o modelos gratuitos pueden competir en rendimiento con modelos comerciales, siempre que se usen con habilidad. Esto puede reducir barreras de entrada y permitir que pequeñas empresas o profesionales individuales accedan a los beneficios de la IA sin grandes inversiones.
Conclusión
El estudio realizado por el MIT Sloan School of Management ofrece una lección crucial para el presente y el futuro de la inteligencia artificial generativa: no basta con tener el modelo más avanzado, hay que saber cómo interactuar con él. La calidad del prompt tiene un impacto directo y medible en la calidad del resultado, lo que transforma al usuario en un actor clave del proceso.
Esto tiene implicaciones técnicas, pedagógicas y sociales. Desde la formación de profesionales en habilidades de prompting, hasta la evaluación crítica de cuándo y dónde conviene aplicar IA generativa, pasando por una visión más realista de sus límites en campos técnicos. Personalmente, considero que estos modelos brillan en la generación de contenido abierto, como imágenes o textos creativos, pero todavía carecen de fiabilidad para resolver problemas con soluciones únicas y sin ambigüedad.
El futuro de la IA no solo dependerá de modelos cada vez más potentes, sino también de usuarios capaces de guiarlos con precisión. Porque en esta nueva era tecnológica, cómo preguntamos es tan importante como a quién preguntamos.
615
La guía publicada por Talk Android sobre cómo aprovechar mejor los prompts en ChatGPT-5 es una herramienta valiosa para usuarios que buscan maximizar el potencial de esta inteligencia artificial.
El artículo ofrece consejos prácticos para formular preguntas más precisas, estructurar tareas complejas y obtener respuestas más útiles. En un momento en que los modelos de lenguaje están transformando la productividad, la creatividad y el aprendizaje, saber cómo interactuar con ellos se vuelve esencial.
Esta guía no solo mejora la experiencia del usuario, sino que también promueve un uso más ético y eficiente de la tecnología, marcando un paso importante hacia una IA más accesible y comprensible.
El artículo de The Drum sugiere que para generar los mejores resultados con IA es fundamental proveer muchos datos en el prompt.
Esto implica que no basta con una instrucción vaga: cuanto más contexto, ejemplos y detalles relevantes incluimos, más eficaz y relevante será la respuesta del modelo.
La idea refuerza un principio básico del “prompt engineering”: guía al modelo con precisión, define su rol, tus objetivos y limita o matiza sus salidas para evitar resultados genéricos.
En definitiva, añadir abundancia de datos en tu prompt no es redundante, sino una palanca clave para mejorar la calidad del output de la IA.