Ciberestafa: clonaron la voz de su hija con IA y perdió $15.000 dólares
Una mujer de Florida fue víctima de una estafa con inteligencia artificial, donde los delincuentes usaron la voz clonada de su hija para engañarla.
Una familia fue estafada con 15.000 dólares tras recibir una llamada en la que una IA clonó la voz de su hija para simular una emergencia (Foto: Shutterstock)
Una mujer de Florida perdió $15.000 dólares tras caer en una estafa con inteligencia artificial. El caso ocurrió el 9 de julio, cuando Sharon Brightwell recibió una llamada con audio clonado que imitaba la voz de su hija. La investigación indica que los delincuentes tomaron registros de redes sociales para crear un modelo de voz creíble.
Cómo se utilizó la inteligencia artificial en la estafa
Según la Oficina del Sheriff del condado de Hillsborough, los estafadores utilizaron audios públicos de la hija de Brightwell en redes como Facebook. Con esos registros, clonaron su voz usando herramientas de IA. Durante la llamada, una voz femenina dijo haber atropellado a una mujer embarazada mientras usaba el celular al conducir.
Después, un supuesto abogado se comunicó con la víctima para solicitar $15.000 dólares como fianza. Brightwell retiró el dinero del banco y lo entregó en una caja a un conductor que se presentó en su domicilio, siguiendo las indicaciones de los estafadores. Más tarde, recibió otra llamada exigiendo $30.000 dólares más, lo que activó las sospechas de su nieto.
Al confirmar que su hija estaba bien, descubrieron que todo había sido un engaño. La hija de la víctima declaró que su voz clonada “sonaba exactamente igual” a la original.
La hija de la víctima, April Monroe, creó una campaña en GoFundMe para ayudar a su familia a recuperarse económicamente tras la estafa. En la descripción, Monroe explicó que su voz "fue clonada con inteligencia artificial y sonaba exactamente como yo". Detalló que su hijo estaba con su madre durante el incidente y que, tras una segunda solicitud de dinero, ambos contactaron a una amiga cercana de la familia, quien les advirtió que se trataba de un engaño. Casi al mismo tiempo, Monroe envió un mensaje a sus hijos durante su almuerzo, lo que permitió comprender toda la situación.
Consejos de prevención ante fraudes con IA
La familia afectada recomienda establecer palabras clave privadas para confirmar la identidad durante emergencias. También sugieren no entregar dinero sin antes verificar la situación real de quien pide ayuda. Las autoridades locales investigan el caso, aunque hasta el momento no hay detenidos.


