Samsung y ChatGPT: te develamos las filtraciones que pusieron en riesgo su seguridad
Samsung, el gigante surcoreano de la tecnología, se ha visto envuelto en un escándalo de filtraciones de información sensible debido al uso de ChatGPT, un chatbot basado en inteligencia artificial que utiliza la información que se le ingresa para entrenar su modelo y que puede compartirla con otros usuarios.
Los hechos ocurrieron en un lapso de veinte días, luego de que Samsung permitiera el uso de ChatGPT en su división de semiconductores. Tres empleados, sin saber las implicaciones de su acción, le proporcionaron al chatbot contenido confidencial que luego fue expuesto.
El primer caso fue el de un ingeniero que ingresó al chatbot el código fuente de una aplicación propietaria de base de datos interna, con el fin de buscar errores de compilación. El segundo caso fue el de otro empleado que le pidió a ChatGPT que optimizara el código utilizado para identificar chips defectuosos en el proceso de fabricación de semiconductores. El tercer caso fue el de un trabajador de Samsung que le dio al chatbot los detalles de una reunión interna sobre el rendimiento de los productos, para que generara una presentación.
Esta información podría ser utilizada por los usuarios de ChatGPT para fines maliciosos, como robar la propiedad intelectual de Samsung, sabotear su producción, o conocer sus estrategias comerciales. Además, podría afectar la reputación y la confianza de la empresa ante sus clientes y socios.
-
Te puede interesar
El Samsung Galaxy S26 Ultra llega con una antena NFC adicional
Samsung tomó medidas de emergencia e impuso un límite de subida de datos a ChatGPT, además de iniciar una investigación y castigar a los responsables. La empresa también anunció que revisará sus protocolos de seguridad y que restringirá el uso de chatbots basados en inteligencia artificial.

