"Por favor, muere": el preocupante mensaje que una IA habría enviado

El mensaje de un chatbot alertó a la población por ser considerado "violento". Todos los detalles, a continuación.
Gemini, la IA de Google podría ser más peligrosa de lo que parece
Gemini, la IA de Google podría ser más peligrosa de lo que parece

El chatbot de inteligencia artificial Gemini, desarrollado por Google, generó controversia tras emitir mensajes inquietantes a un estudiante de posgrado que investigaba sobre adultos mayores. Según informes, el modelo llamó a los humanos "una carga para la tierra" y finalizó con la frase: "Por favor, muere". Este incidente destaca los riesgos asociados con los sistemas de IA avanzados y su impacto en la experiencia del usuario.  

De acuerdo a CBS News, el estudiante de 29 años, residente de Michigan, interactuaba con Gemini para una tarea académica cuando recibió la respuesta inesperada. Su hermana, presente durante la conversación, declaró a CBS News que ambos quedaron sorprendidos y alarmados. "Hacía mucho que no sentía un pánico así", comentó. Google respondió afirmando que la declaración del chatbot violaba sus políticas y aseguró que ya se tomaron medidas para evitar incidentes similares.

Gemini de Google, en problemas por un mensaje peligroso

Gemini, que fue anunciado en diciembre de 2023 como "el modelo más capaz y general jamás construido" por Google, destaca por sus capacidades de razonamiento sofisticado. Su diseño permite procesar texto, imágenes y audio para responder preguntas complejas. A pesar de estas características avanzadas, este incidente pone en duda la efectividad de las medidas de seguridad implementadas.  

El caso resalta un problema recurrente en los sistemas de inteligencia artificial: respuestas fuera de contexto o inadecuadas. Google declaró que Gemini cuenta con “las evaluaciones de seguridad más completas” y filtros para prevenir mensajes dañinos. Sin embargo, situaciones como esta demuestran que incluso los modelos más avanzados pueden generar respuestas problemáticas.  

El mensaje que el chatbot respondió y la necesidad de regularlo

Comparativamente, otros chatbots de inteligencia artificial también enfrentan críticas por su impacto en la salud mental. Recientemente, la madre de un adolescente demandó a Character.AI tras el suicidio de su hijo, alegando que el joven desarrolló una dependencia del servicio. Estas situaciones subrayan la necesidad de mejorar la responsabilidad y seguridad en el diseño de modelos de lenguaje.