La verdad detrás de la acusación a la IA DeepSeek

La verdad detrás de la acusación a la IA DeepSeek

Reguladores y expertos cuestionan el origen y la seguridad de los datos que utiliza esta startup de inteligencia artificial. Una base de datos expuesta y acusaciones de uso indebido de información intensifican las preocupaciones.

Constanza Ferreyra

Constanza Ferreyra

El rápido ascenso de DeepSeek, una startup china enfocada en inteligencia artificial, despertó inquietudes entre usuarios y reguladores. A solo una semana de su lanzamiento, DeepSeek se posicionó como la aplicación gratuita más descargada en Estados Unidos, lo que afectó las acciones de gigantes como Nvidia y Oracle. 

La nueva IA china acusada de filtrar datos y utilizar tecnología de OpenAI

DeepSeek está catalogada como un modelo abierto, lo que significa que parte de su funcionamiento es público, pero no divulga por completo los datos de entrenamiento ni el código para replicar su modelo. Este detalle provoca acusaciones, como la de OpenAI, que afirma que DeepSeek utilizó su modelo ChatGPT para entrenar su chatbot.

ChatGPT vs DeepSeek: la guerra entre las IA termina

El regulador de privacidad italiano, GPDP, pidió a DeepSeek aclarar qué datos personales recopila, su origen, el propósito de su uso y si se almacenan en servidores ubicados en China. El GPDP dio a la empresa 20 días para responder, y mientras tanto, DeepSeek desapareció de las tiendas de aplicaciones en Italia el 29 de enero de 2025.

De acuerdo al sitio MalwareBytes, las preocupaciones se intensificaron tras el hallazgo de una base de datos pública vinculada a DeepSeek. Según investigadores de Wiz, esta base de datos contenía información sensible como historiales de chat, secretos de API y contraseñas en texto sin formato. No requería autenticación, permitiendo el acceso libre a información confidencial y potencialmente a la escalada de privilegios en el sistema.

DeepSeek IA

Este caso manifiesta los riesgos de priorizar la innovación sobre la seguridad en el desarrollo de IA. La falta de medidas de protección pone en peligro tanto a las empresas como a los usuarios. Mientras las autoridades y la industria buscan soluciones, los expertos recomiendan a los usuarios ser cautelosos con la información que comparten en plataformas de inteligencia artificial, ya que podría terminar en manos no deseadas.

Temas

¿Querés recibir notificaciones de alertas?