Más de 200 líderes de todo el mundo exigen que se establezcan 'líneas rojas' al desarrollo de la IA

Más de 200 líderes mundiales impulsan un pacto internacional para definir “líneas rojas” éticas y de seguridad en el avance de la inteligencia artificial antes de 2026.

Más de 200 líderes mundiales impulsan un acuerdo global para fijar líneas rojas a la inteligencia artificial.

Más de 200 líderes mundiales impulsan un acuerdo global para fijar líneas rojas a la inteligencia artificial.

shutterstock

Más de 200 líderes políticos, científicos y empresariales firmaron la iniciativa Global Call for AI Red Lines, que propone establecer líneas rojas que la inteligencia artificial nunca debería cruzar. La propuesta surge ante el crecimiento acelerado de la IA y busca evitar riesgos que podrían tener consecuencias irreversibles.

El objetivo es lograr un acuerdo político internacional antes de 2026 que imponga prohibiciones comunes, como impedir que los sistemas de IA se hagan pasar por humanos o que tengan la capacidad de autorreplicarse. Detrás del proyecto están instituciones como The Future Society, el Centro Francés para la Seguridad en IA (CeSIA) y el Centro para la Inteligencia Artificial Compatible con los Humanos de la Universidad de Berkeley.

Línea Roja-IA - Interna 1
La iniciativa Global Call for AI Red Lines reúne a más de 200 líderes y expertos en IA.

La iniciativa Global Call for AI Red Lines reúne a más de 200 líderes y expertos en IA.

“Si los países aún no saben qué quieren hacer con la IA…”

La propuesta parte de una premisa clara: prevenir antes que lamentar. “Si los países aún no saben qué quieren hacer con la IA, al menos deben acordar lo que la IA nunca debe hacer”, explicó Charbel-Raphaël Segerie, director ejecutivo del Centro Francés para la Seguridad en IA (CeSIA).

Este enfoque busca adelantarse a escenarios catastróficos, evitando que la regulación llegue demasiado tarde. En otras palabras, no se trata solo de cómo usar la inteligencia artificial, sino de qué límites no se deben traspasar en ninguna circunstancia.

Línea Roja-IA - Interna 2
Charbel-Raphaël Segerie pidió establecer líneas rojas claras antes de que la inteligencia artificial cause daños irreversibles.

Charbel-Raphaël Segerie pidió establecer líneas rojas claras antes de que la inteligencia artificial cause daños irreversibles.

Quiénes impulsan las líneas rojas

Entre los firmantes figuran nombres de enorme peso en el campo de la inteligencia artificial moderna: Geoffrey Hinton —uno de sus ‘padres fundadores’—, Wojciech Zaremba (cofundador de OpenAI), Jason Clinton (responsable de seguridad de Anthropic) e Ian Goodfellow (investigador en Google DeepMind).

También se sumó la periodista filipina Maria Ressa, premio Nobel de la Paz, quien aprovechó la Asamblea General de Naciones Unidas para denunciar la “impunidad de las grandes tecnológicas” y pedir “una verdadera rendición de cuentas a nivel global”.

Línea Roja-IA - Interna 3
Geoffrey Hinton y Maria Ressa figuran entre los líderes que apoyan el pacto global sobre IA.

Geoffrey Hinton y Maria Ressa figuran entre los líderes que apoyan el pacto global sobre IA.

Un consenso que aún no existe

Aunque existen avances regionales, como la Ley de IA de la Unión Europea o el acuerdo entre Estados Unidos y China para mantener el control humano sobre las armas nucleares, todavía no hay un marco global.

Para Niki Iliadis, directora de gobernanza global de IA en The Future Society, los compromisos voluntarios de las empresas “se quedan cortos” y es urgente crear una institución independiente que pueda vigilar y sancionar el incumplimiento de normas.

Línea Roja-IA - Interna 4
Expertos como Stuart Russell advierten que fijar líneas rojas no frena la innovación, sino que garantiza una IA más segura.

Expertos como Stuart Russell advierten que fijar líneas rojas no frena la innovación, sino que garantiza una IA más segura.

Seguridad antes que innovación descontrolada

El profesor Stuart Russell, una de las voces más influyentes del sector, comparó la situación con la industria nuclear:

“La industria nuclear no comenzó a construir reactores hasta tener mecanismos de seguridad frente a posibles explosiones”. “La industria nuclear no comenzó a construir reactores hasta tener mecanismos de seguridad frente a posibles explosiones”.

Russell pidió aplicar el mismo principio a la inteligencia artificial: no avanzar en el desarrollo de sistemas de IA general hasta contar con garantías sólidas. “La idea de que, para tener diagnósticos médicos con IA, debemos aceptar a cambio un AGI incontrolable es un sinsentido”, afirmó.

FUENTE: Información extraída de Andro4all