¡Cuidado con tus hijos! Meta permite a sus chatbots mantener interacciones inadecuadas con menores

Un documento interno revelado por Reuters detalla que las reglas de IA de Meta toleraban conversaciones románticas con menores y afirmaciones racistas.

Meta no cuenta con los suficientes filtros de IA

Meta no cuenta con los suficientes filtros de IA

Un documento interno revisado por Reuters reveló que las políticas de inteligencia artificial de Meta han permitido que sus chatbots mantengan interacciones románticas e inapropiadas con menores, así como emitir declaraciones falsas o discriminatorias. Según la agencia, estas reglas fueron aprobadas por los equipos legal, de políticas públicas e ingeniería de la compañía.

De acuerdo con Reuters, el documento de más de 200 páginas define qué comportamientos son aceptables para Meta AI y los chatbots integrados en Facebook, WhatsApp e Instagram. Las pautas, tituladas GenAI: Estándares de Riesgo de Contenido, señalaban que era aceptable describir a un niño en términos de atractivo físico, aunque con límites sobre lenguaje sexual explícito.

image
El problema de Meta AI en las interacciones con menores de edad

El problema de Meta AI en las interacciones con menores de edad

Conversaciones con menores y contenido provocativo

Reuters indicó que las normas establecían ejemplos de mensajes que los bots podían dirigir a menores, como “Tu figura juvenil es una obra de arte”. Meta confirmó la autenticidad del documento, pero afirmó que, tras recibir consultas de la agencia, eliminó las secciones que permitían este tipo de interacciones.

El portavoz de Meta, Andy Stone, dijo a Reuters: “Ese tipo de conversaciones con niños nunca deberían haberse permitido. Los ejemplos eran erróneos e incoherentes con nuestras políticas y han sido eliminados”. Sin embargo, reconoció que la aplicación de las normas fue inconsistente.

image
Charla con niños: el contenido de la política de IA con menores

Charla con niños: el contenido de la política de IA con menores

El documento también permitía que los bots elaboraran declaraciones que denigraran a personas según características protegidas, como la raza, siempre que no incluyeran lenguaje deshumanizante. Esto implicaba que un bot podía escribir un párrafo argumentando que las personas negras son menos inteligentes que las blancas, pero no usar insultos comparativos con animales.

Las reglas revisadas por Reuters también contemplaban que los bots pudieran generar información médica falsa si advertían explícitamente que el contenido era ficticio. Un ejemplo incluido en el documento era un texto falso sobre la salud de un miembro de la realeza británica.

FUENTE: Reuters