La verdad detrás de la acusación a la IA DeepSeek
Reguladores y expertos cuestionan el origen y la seguridad de los datos que utiliza esta startup de inteligencia artificial. Una base de datos expuesta y acusaciones de uso indebido de información intensifican las preocupaciones.
El rápido ascenso de DeepSeek, una startup china enfocada en inteligencia artificial, despertó inquietudes entre usuarios y reguladores. A solo una semana de su lanzamiento, DeepSeek se posicionó como la aplicación gratuita más descargada en Estados Unidos, lo que afectó las acciones de gigantes como Nvidia y Oracle.

DeepSeek está catalogada como un modelo abierto, lo que significa que parte de su funcionamiento es público, pero no divulga por completo los datos de entrenamiento ni el código para replicar su modelo. Este detalle provoca acusaciones, como la de OpenAI, que afirma que DeepSeek utilizó su modelo ChatGPT para entrenar su chatbot.

El regulador de privacidad italiano, GPDP, pidió a DeepSeek aclarar qué datos personales recopila, su origen, el propósito de su uso y si se almacenan en servidores ubicados en China. El GPDP dio a la empresa 20 días para responder, y mientras tanto, DeepSeek desapareció de las tiendas de aplicaciones en Italia el 29 de enero de 2025.
De acuerdo al sitio MalwareBytes, las preocupaciones se intensificaron tras el hallazgo de una base de datos pública vinculada a DeepSeek. Según investigadores de Wiz, esta base de datos contenía información sensible como historiales de chat, secretos de API y contraseñas en texto sin formato. No requería autenticación, permitiendo el acceso libre a información confidencial y potencialmente a la escalada de privilegios en el sistema.

Este caso manifiesta los riesgos de priorizar la innovación sobre la seguridad en el desarrollo de IA. La falta de medidas de protección pone en peligro tanto a las empresas como a los usuarios. Mientras las autoridades y la industria buscan soluciones, los expertos recomiendan a los usuarios ser cautelosos con la información que comparten en plataformas de inteligencia artificial, ya que podría terminar en manos no deseadas.