Ser grosero e irrespetuoso con ChatGPT te brinda respuestas más precisas
Un nuevo estudio sugiere que ser grosero al interactuar con ChatGPT puede mejorar la precisión de las respuestas, lo que abre un debate sobre cómo la inteligencia artificial interpreta el lenguaje humano.
Un estudio sugiere que hablar de forma grosera con ChatGPT puede aumentar la precisión de sus respuestas.
shutterstockHablar de manera grosera con ChatGPT podría ser más efectivo de lo que parece. Investigadores de la Universidad Estatal de Pensilvania descubrieron que el tono del usuario influye directamente en la calidad de las respuestas generadas por esta herramienta de inteligencia artificial, lo que desafía las suposiciones sobre cómo los modelos de lenguaje interpretan las emociones humanas.
El experimento, que comparó preguntas formuladas con distintos niveles de cortesía, mostró que las consultas planteadas de forma más agresiva obtuvieron resultados sorprendentemente más precisos que las educadas.
Un tono grosero mejora la precisión de ChatGPT
El trabajo académico —titulado ‘Cuidado con tu tono’— reveló que las preguntas groseras superaron de forma consistente a las formuladas de manera cortés. Según los investigadores, ChatGPT respondió con un 84,8% de precisión ante preguntas rudas, frente al 80,8% de las consultas educadas.
El estudio definió cinco niveles de tono: Muy educado, Educado, Neutral, Grosero y Muy grosero. Las pruebas se realizaron con 250 variaciones de 50 preguntas de opción múltiple, demostrando que incluso ligeros cambios en la redacción podían modificar el desempeño del chatbot.
Te podría interesar
¿Puede un chatbot sentir emociones?
La investigación también abre un debate más profundo: ¿puede un sistema de inteligencia artificial ‘reaccionar’ ante el tono humano? Aunque ChatGPT no tiene emociones reales, el estudio sugiere que las palabras cargadas de cierta agresividad podrían activar patrones de respuesta más “esforzados” dentro del modelo.
Sin embargo, los expertos advierten que estos resultados podrían no repetirse en otros chatbots como Gemini, Claude o Meta AI, y que el estudio solo evaluó tareas de razonamiento específicas en versiones experimentales del modelo GPT-4o.
No todos los estudios coinciden
Lo más interesante es que estos hallazgos contradicen investigaciones anteriores. Un artículo publicado hace un año sostenía que la rudeza deterioraba la calidad de las respuestas en los sistemas de inteligencia artificial, introduciendo errores y omisiones.
Esto plantea una pregunta clave: ¿cuánto influye la ‘carga emocional’ de una frase en el rendimiento de un modelo de lenguaje? Idealmente, un sistema como ChatGPT debería centrarse únicamente en la precisión, pero este estudio sugiere que incluso la IA puede verse afectada —aunque sea de forma indirecta— por cómo le hablamos.
FUENTE: Información extraída de Digital Trends





