Toma asiento antes de conocer la nueva estafa de WhatsApp complementada con inteligencia artificial
WhatsApp es una de las herramientas más utilizadas para realizar delitos cibernéticos y ahora, con la irrupción de la inteligencia artificial, todos estamos vulnerables. Es que el uso de la aplicación de mensajería de Meta les facilitará a los ciberdelincuentes nuestra voz, permitiéndoles así clonarla y cometiendo cualquier tipo de estafa.
Clonación de voz, la nueva estafa que vincula a WhatsApp
Las plataformas que trabajan con inteligencia artificial han permitido la aparición de técnicas de estafa más sofisticadas que los clásicos métodos que conocemos. Esto se debe a que la IA hace posible generar fotos, videos o audios falsos que son altamente realistas y que fácilmente pueden ser presentados como un contenido real.
Y recientemente se supo que la principal tendencia pasa por la clonación de voz, algo fácil de realizar ya que todos hoy en día enviamos audios en la plataforma de Meta sin saber qué persona lo puede reenviar o utilizar para cometer un delito.
En este marco, expertos en ciberseguridad señalan que gracias a la inteligencia artificial ahora es mucho más sencillo crear audios que imiten perfectamente la voz de una persona. A raíz de esta situación, las autoridades han indicado que en esta época es muy importante tener mucho cuidado con las notas de voz que se envían a través de WhatsApp.
Además de los audios, los ciberdelincuentes también utilizan llamadas de voz para cometer el acto ilícito utilizando WhatsApp y la inteligencia artificial. Por ende, también es fundamental tener precaución con la información que se suministra mediante una comunicación vía telefónica para evitar caer en esta innovadora estafa.
