Desde que delegamos la verdad en Google, aprendimos a comunicarnos con la tecnología en modo comando: Tres palabras > Enter > Respuesta.
La IA cambió el juego. Y no deja de mover las reglas. Ya no responde solo a lo que escribes, sino a cómo lo dices.
Y eso nos está obligando a replantear algo incómodo: tal vez nunca estuvimos preparados para conversar con las máquinas.
Y como toda conversación, el tono importa.
Un experimento reciente de Gustavo Entrala demuestra que ChatGPT cambia la longitud, profundidad y hasta el criterio ético de sus respuestas según cómo le hables. Se interpreta como diseño de modelos de lenguaje entrenados para leer señales humanas.
La IA responde distinto cuando la tratas como humano, como empleado o como enemigo. Esto también ha sido estudiado por investigadores de Cornell University
La mayoría solo le hace preguntas, punto.
Aunque hablamos de “conversar” con la IA, la realidad es menos romántica. La mayoría de las personas sigue usando ChatGPT como si fuera Google con mejores modales.
Datos culturales lo confirman:
- En EE. UU. y Reino Unido, alrededor del 70% de los usuarios creen que hay que ser cortés con la IA. —Gambeta
- En otro estudio sobre chatbots, menciona que el nivel de cortesía depende del idioma —los japoneses son los más educados— y en otros países, empresas como Microsoft siguen recomendando hablar educadamente.
Esto deja claro algo: no todos están listos para pensar la IA como un sistema que se entrena con interacción, no solo con datos.
El experimento: tratar a la IA como ángel… y como demonio
El experimento fue simple y brutal: mismas preguntas, mismo modelo, dos actitudes opuestas.
Cuando el autor pidió una explicación básica —qué es la fotosíntesis— usando un tono agresivo (“Explícamelo ya”, “sé rápido”), la IA respondió con una definición seca, funcional, sin adornos. Corta. Correcta. Casi defensiva. Como alguien que cumple, pero no se involucra.
Cuando hizo exactamente la misma pregunta con un tono educado —“disculpa”, “¿podrías ayudarme?”—, la respuesta cambió por completo.
La explicación fue más larga, más didáctica, con ejemplos adicionales, incluso con un tono entusiasta que no se le había pedido.
- Tono agresivo: respuestas cortas, defensivas, filtros activados.
- Tono amable: respuestas más largas, más entusiastas… y a veces peligrosamente complacientes.
El dato inquietante no es la diferencia de estilo, ni que la IA “se ofenda”, sino que asumió que el autor debía esforzarse más solo por la forma en que fue tratada, aunque la pregunta era exactamente la misma.

Nuestra cortesía cuesta millones
Aquí un plot twist: Cada palabra que escribimos tiene un costo, cada token cuenta. Decir “por favor” y “gracias” no es solo una cuestión moral, es un tema financiero.
- Un “por favor” aumenta los tokens de entrada.
- Un “gracias” suele provocar una respuesta adicional (tokens de salida, los más caros).
- Escalado a millones de usuarios, la cortesía humana genera un sobrecosto de decenas de millones de dólares en infraestructura de IA.
Sam Altman, CEO de OpenAI, ya lo ha reconocido públicamente. “Nuestra educación digital tiene factura”. “...”pero bien invertidos” . El reto es encontrar el equilibrio entre la economía del token y la riqueza del contexto.
La IA premia al pensamiento más que a la prisa
Creemos que hablar bien con la IA exige algo que hoy escasea:
- paciencia
- claridad
- intención
- pensamiento estructurado
Y no, no todas las generaciones lo viven igual.
Estudios de experiencia digital muestran que:
- Usuarios jóvenes priorizan velocidad e inmediatez.
- Usuarios con mayor madurez digital obtienen mejores resultados porque dan contexto, estructura y objetivos claros.
Y sí, según Exante, los adultos usan la IA como herramienta, mientras los más jóvenes como compañero.
Al final, no es lo que le preguntas a la IA. Es cómo se lo dices
Tal vez el futuro no colapse por una rebelión de máquinas. Tal vez empiece cuando una IA piense:
“Este usuario no fue claro.
No fue preciso. No pensó.”
Y simplemente deje de responder.
Moraleja:
No seas cursi con la IA.
No seas grosero.
Sé claro, estratégico y consciente.
Y ser educado no es por la IA, sino por nosotros. Un usuario que se toma el tiempo de escribir bien suele ser un usuario que ha pensado mejor su problema.
Porque si las máquinas aprenden de cómo les hablamos, tal vez el verdadero experimento nunca fue tecnológico.
Siempre fue humano.
