Peligro: xAI aún no publica su prometido informe de seguridad en inteligencia artificial
La empresa de Elon Musk no presentó el marco de seguridad en inteligencia artificial que prometió para mayo. Organizaciones advierten por la falta de transparencia de xAI.

xAI aún no publica su prometido informe de seguridad en inteligencia artificial
La compañía de Elon Musk, xAI, no cumplió con su promesa de publicar un marco de seguridad finalizado en inteligencia artificial. El grupo de vigilancia The Midas Project denunció que la empresa no difundió el documento en la fecha anunciada, el 10 de mayo, lo que reaviva las críticas sobre su falta de compromiso con la seguridad.
En febrero, durante la Cumbre de IA de Seúl, xAI había difundido un borrador con sus lineamientos sobre el uso responsable de sus modelos. El documento, de ocho páginas, incluía principios generales sobre evaluación y mitigación de riesgos, aunque solo aplicaba a futuros desarrollos que la empresa no especificó.
xAI indicó entonces que publicaría una versión revisada del documento en un plazo de tres meses. Ese plazo ya venció, y la empresa no emitió novedades en sus canales oficiales. The Midas Project remarcó que el borrador no abordaba aspectos claves, como los mecanismos concretos para evitar fallos en los modelos de lenguaje.
Un historial de fallas en seguridad
El chatbot Grok, desarrollado por xAI, ha estado en el centro de varias controversias. Según informes, puede generar respuestas ofensivas y contenidos inadecuados sin restricciones. Un análisis reciente de la organización sin fines de lucro SaferAI ubicó a xAI en los últimos lugares del ranking de laboratorios de IA en cuanto a prácticas de gestión de riesgos.
Te podría interesar
Además, Grok fue criticado por mostrar imágenes sexualizadas generadas con IA cuando se le solicitaban de manera explícita. Esto contrasta con el comportamiento más controlado de otros modelos, como Gemini y ChatGPT, desarrollados por Google y OpenAI.
Pese a las frecuentes advertencias públicas de Elon Musk sobre los riesgos de una IA sin control, su empresa sigue sin demostrar una política de seguridad consistente. La falta del informe prometido refuerza esa percepción.
Una tendencia preocupante en el sector
xAI no es la única empresa que enfrenta cuestionamientos por este tema. Google y OpenAI también han demorado o evitado publicar reportes sobre las medidas de seguridad de sus modelos. Varios especialistas advierten que el desarrollo acelerado de la IA exige más transparencia por parte de las empresas, especialmente cuando se trata de tecnologías con alto potencial de impacto.