Qué dicen los estudios sobre el tono humano y su impacto en los modelos de lenguaje
1) Una duda que parece menor, pero no lo es
Cuando pedimos algo a un asistente de inteligencia artificial, solemos centrarnos en el resultado. Pero, ¿y si la forma en que lo pedimos también influyera? Escribir “por favor” o “gracias” puede parecer una cortesía sin peso técnico, aunque los datos apuntan a que el tono que utilizamos podría tener cierto efecto en cómo responden los modelos de lenguaje.
La propia Microsoft ha publicado análisis en los que señala que un tono cortés puede generar respuestas más colaborativas, porque los modelos detectan patrones de lenguaje “educados” dentro de su entrenamiento (Microsoft WorkLab, 2023).
2) Qué dicen los estudios: la ciencia detrás del tono
2.1 Resultados que apoyan la cortesía
Un estudio reciente comparó los efectos de la politeness —el grado de cortesía del prompt— en diferentes idiomas (inglés, chino y japonés). Los resultados mostraron que las instrucciones descorteses tienden a reducir la calidad de la respuesta, mientras que las corteses la mejoran ligeramente. Sin embargo, una cortesía excesiva tampoco aporta beneficios claros. En resumen, el efecto existe, pero es contextual y depende del idioma y de la tarea (Yin et al., 2024).
En el ámbito de la atención automatizada, diferentes investigaciones han comprobado que los chatbots con lenguaje cortés generan una percepción más positiva, aumentan la satisfacción del usuario y mejoran la sensación de empatía (Service Management, 2023).
2.2 Un hallazgo curioso: cuando la rudeza “mejora” los resultados
No todos los estudios apuntan en la misma dirección. En 2025, investigadores probaron cinco niveles de tono —de muy cortés a muy grosero— con un modelo de última generación. Los resultados sorprendieron: los prompts con tono grosero obtuvieron una tasa de acierto ligeramente superior (84,8%) frente a los muy corteses (80,8%). Los autores no sugieren que haya que ser descortés, sino que los modelos pueden ser sensibles a pistas superficiales del lenguaje que alteran su rendimiento (Dobariya & Kumar, 2025).
3) Por qué el tono puede influir (aunque la IA no “entienda”)
Los modelos de lenguaje no tienen emociones, pero funcionan mediante probabilidades. Cuando escribimos un prompt, el modelo predice la palabra siguiente basándose en patrones que ha visto antes. Incluir expresiones como “por favor” o “gracias” no despierta empatía, pero sí sitúa la petición dentro de un contexto lingüístico más formal o colaborativo. En determinadas situaciones —por ejemplo, atención médica o educación— ese tono puede guiar al modelo hacia respuestas más adecuadas.
Además, enfoques de entrenamiento como la Constitutional AI desarrollada por Anthropic demuestran que los modelos pueden alinearse con principios éticos y de seguridad, reforzando respuestas útiles y no dañinas (Anthropic, 2022). En ese marco, la cortesía actúa como una señal más dentro del entorno conversacional.
4) ¿Conviene ser amable o directo?
No hay una fórmula universal. El efecto del tono depende de tres factores clave:
- Tipo de tarea: en actividades que requieren precisión (como cálculos o listados), los prompts claros y concisos suelen funcionar mejor.
- Interacción humana: en entornos conversacionales o de atención, la cortesía y un lenguaje empático pueden mejorar la percepción y la confianza.
- Idioma y cultura: lo que funciona en inglés no siempre se traslada igual al español. Los matices culturales del lenguaje influyen en el resultado.
5) Cómo experimentarlo por tu cuenta
Probarlo es sencillo. Utiliza la misma petición con dos tonos diferentes y observa los resultados:
- Versión directa: “Resume este texto en 100 palabras.”
- Versión cortés: “Por favor, resume este texto en 100 palabras. Gracias.”
Evalúa la precisión, el estilo y la claridad de cada respuesta. No se trata de decidir cuál es “mejor”, sino de entender cómo el modelo reacciona ante diferentes registros del lenguaje.
6) Buenas prácticas básicas
- Prioriza la claridad: la cortesía no sustituye la estructura. Define lo que pides y cómo quieres la respuesta.
- Adapta el tono: ajusta el nivel de formalidad según el contexto (no es igual un correo profesional que una consulta casual).
- Evita la ambigüedad: ser amable no implica ser vago. Las instrucciones vagas suelen generar respuestas imprecisas.
- Experimenta: haz pequeñas pruebas con distintos tonos para descubrir qué produce los mejores resultados según el caso.
7) Conclusión: ¿sirve hablarle bien a la IA?
La evidencia sugiere que sí puede tener un efecto, aunque no siempre de la forma que imaginamos. Ser amable no cambia las emociones de una máquina, pero puede influir en su comportamiento lingüístico y en cómo percibimos la interacción. En un mundo donde la comunicación hombre-máquina es cada vez más frecuente, cuidar el tono no es sentimentalismo, sino una forma de diseñar conversaciones más claras, seguras y humanas.
Fuentes y lecturas recomendadas
- Microsoft WorkLab (2023) — “Why Using a Polite Tone with AI Matters”.
- Yin et al. (2024) — “Should We Respect LLMs? A Cross-Lingual Study on the Influence of Prompt Politeness”.
- Dobariya & Kumar (2025) — “Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy”.
- Anthropic (2022) — “Constitutional AI: Harmlessness from AI Feedback”.
- Service Management (2023) — “Influence of Chatbot Service Recovery Strategies on Customer Satisfaction”.



English