Más de 200 líderes de todo el mundo exigen que se establezcan 'líneas rojas' al desarrollo de la IA
Más de 200 líderes mundiales impulsan un pacto internacional para definir “líneas rojas” éticas y de seguridad en el avance de la inteligencia artificial antes de 2026.
Más de 200 líderes mundiales impulsan un acuerdo global para fijar líneas rojas a la inteligencia artificial.
shutterstockMás de 200 líderes políticos, científicos y empresariales firmaron la iniciativa Global Call for AI Red Lines, que propone establecer líneas rojas que la inteligencia artificial nunca debería cruzar. La propuesta surge ante el crecimiento acelerado de la IA y busca evitar riesgos que podrían tener consecuencias irreversibles.
El objetivo es lograr un acuerdo político internacional antes de 2026 que imponga prohibiciones comunes, como impedir que los sistemas de IA se hagan pasar por humanos o que tengan la capacidad de autorreplicarse. Detrás del proyecto están instituciones como The Future Society, el Centro Francés para la Seguridad en IA (CeSIA) y el Centro para la Inteligencia Artificial Compatible con los Humanos de la Universidad de Berkeley.
“Si los países aún no saben qué quieren hacer con la IA…”
La propuesta parte de una premisa clara: prevenir antes que lamentar. “Si los países aún no saben qué quieren hacer con la IA, al menos deben acordar lo que la IA nunca debe hacer”, explicó Charbel-Raphaël Segerie, director ejecutivo del Centro Francés para la Seguridad en IA (CeSIA).
Este enfoque busca adelantarse a escenarios catastróficos, evitando que la regulación llegue demasiado tarde. En otras palabras, no se trata solo de cómo usar la inteligencia artificial, sino de qué límites no se deben traspasar en ninguna circunstancia.
Te podría interesar
Quiénes impulsan las líneas rojas
Entre los firmantes figuran nombres de enorme peso en el campo de la inteligencia artificial moderna: Geoffrey Hinton —uno de sus ‘padres fundadores’—, Wojciech Zaremba (cofundador de OpenAI), Jason Clinton (responsable de seguridad de Anthropic) e Ian Goodfellow (investigador en Google DeepMind).
También se sumó la periodista filipina Maria Ressa, premio Nobel de la Paz, quien aprovechó la Asamblea General de Naciones Unidas para denunciar la “impunidad de las grandes tecnológicas” y pedir “una verdadera rendición de cuentas a nivel global”.
Un consenso que aún no existe
Aunque existen avances regionales, como la Ley de IA de la Unión Europea o el acuerdo entre Estados Unidos y China para mantener el control humano sobre las armas nucleares, todavía no hay un marco global.
Para Niki Iliadis, directora de gobernanza global de IA en The Future Society, los compromisos voluntarios de las empresas “se quedan cortos” y es urgente crear una institución independiente que pueda vigilar y sancionar el incumplimiento de normas.
Seguridad antes que innovación descontrolada
El profesor Stuart Russell, una de las voces más influyentes del sector, comparó la situación con la industria nuclear:
Russell pidió aplicar el mismo principio a la inteligencia artificial: no avanzar en el desarrollo de sistemas de IA general hasta contar con garantías sólidas. “La idea de que, para tener diagnósticos médicos con IA, debemos aceptar a cambio un AGI incontrolable es un sinsentido”, afirmó.
FUENTE: Información extraída de Andro4all






