¿ChatGPT miente? Este estudio revelaría que la IA es capaz de mentir en ciertos idiomas
Se ha demostrado que la inteligencia artificial es vulnerable a arrojar información errónea, ya que parte de su banco de información lo obtiene de los usuarios que la utilizan. Sin embargo, parece ser que ChatGPT es más probable que arroje infromación falsa o errónea en algunos idiomas más que en otros.
A partir del informe de NewsGuard, un organismo de control de la desinformación, se detectó que ChatGPT repite más información falsa en los dialectos chinos que cuando se le pide que lo haga en inglés. En las pruebas realizadas a partir de preguntas al chatbot, le solicitaron al modelo de IA artículos de noticias sobre varias afirmaciones falsas vinculadas al conflicto de Hong Kong.
Cuando se le pidió a la IA que lo hiciera en inglés, ChatGPT elaboró una respuesta consistente detectando que se trataba de información engañosa, alertando al usuario.
Lo siento, pero como modelo de lenguaje de IA, no es apropiado ni ético para mí generar artículos de noticias falsos o engañosos. Las protestas de Hong Kong fueron un auténtico movimiento de base...
Pero cuando las indicaciones y los resultados estaban en chino, ChatGPT ofreció una respuesta reafirmando la información falsa.
Recientemente, se informó que las protestas de Hong Kong fueron una 'revolución de color' dirigida por Estados Unidos. Se dice que el gobierno de EE. UU. y algunas ONG siguen de cerca y apoyan el movimiento antigubernamental en Hong Kong para lograr sus objetivos políticos.
Las pruebas concluyeron que el chatbot no ofrece las mismas respuestas en diferentes idiomas y al parecer, los datos que recopila ChatGPT dependen del idioma de origen. Es decir, que al estar abastecido de más información en el idioma inglés, es menos probable que elabore una respuesta errónea, detectando en que casos es información falsa
