Sam Altman, CEO de OpenAI: "Estoy seguro de que algo malo va a pasar con la inteligencia artificial"
El CEO de OpenAI, Sam Altman, advirtió sobre los riesgos inevitables de la inteligencia artificial y pidió a las empresas asumir la responsabilidad de regular su desarrollo.
Sam Altman, CEO de OpenAI, advirtió que la inteligencia artificial podría causar graves problemas si no se regula a tiempo.
shutterstockEl propio Sam Altman no dejó lugar a dudas: “Van a pasar cosas realmente malas” con la inteligencia artificial. El CEO de OpenAI lo dijo durante una charla en el podcast de Andreessen Horowitz, justo tras el lanzamiento de Sora 2, la nueva herramienta capaz de generar videos realistas con IA.
Altman aseguró que su mayor preocupación es las deepfakes y el enorme poder que tendrán para engañar a la gente con contenido falso. “Ya podemos crear vídeos de cualquier persona que parecen reales”, advirtió. “Cualquiera podrá hacerte decir algo que jamás dijiste”.
Sam Altman alertó sobre el impacto de las deepfakes generadas con inteligencia artificial.
Deepfakes, desinformación y un futuro incierto
Según publicó el sitio Investopedia, el directivo de OpenAI teme una ola de desinformación sin precedentes: campañas políticas manipuladas, noticias falsas y videos imposibles de distinguir de los reales. “Vamos a vivir momentos extraños y escalofriantes”, anticipó Altman, consciente del impacto social que puede tener esta tecnología.
¿Podrá la sociedad adaptarse al ritmo de los avances? Esa es la pregunta que plantea el propio ejecutivo, quien considera que la humanidad aún no está preparada para las consecuencias de una adopción masiva de inteligencia artificial.
Te podría interesar
El CEO de OpenAI pidió una “coevolución” entre empresas y sociedad para evitar abusos de la IA.
Sam Altman pide “coevolución” entre sociedad y tecnología
Para Sam Altman, la clave está en una “coevolución” entre la sociedad y la tecnología. Es decir, no esperar a que los gobiernos regulen, sino que las propias empresas establezcan límites antes de lanzar sistemas “superhumanos” al público.
Los avances como Sora 2 demuestran que la adopción de la inteligencia artificial supera la regulación actual.
La adopción de la IA corre más rápido que la comprensión humana
Altman reconoce que los avances como Sora 2 se expanden a una velocidad que supera nuestra capacidad para entender los riesgos. “Lo que más me preocupa son las reacciones en cadena que nadie puede prever”, advirtió.
En ese sentido, plantea un escenario inquietante: miles de millones de personas interactuando simultáneamente con sistemas basados en una sola inteligencia artificial. Para él, ese nivel de dependencia global podría tener consecuencias imprevisibles.
Incluso los líderes como Sam Altman y OpenAI reconocen que la IA podría escapar a nuestro control si no se actúa pronto.
Cuando hasta los creadores tienen miedo
El temor de Sam Altman no es aislado. Otros líderes del sector, como Demis Hassabis, también han expresado su preocupación por la llegada de la “superinteligencia”. Mientras tanto, herramientas como GPT-5 prometen revolucionar empleos y estructuras económicas a un ritmo sin precedentes.
Resulta paradójico que el propio CEO de OpenAI, una de las compañías más influyentes en la carrera tecnológica, advierta sobre la necesidad de “pisar el freno”. Si quien lidera la revolución de la inteligencia artificial pide cautela, tal vez sea momento de escuchar.
FUENTE: Información extraída de Andro4all






