«Cuidado» «IA» clona tu voz para estafarte
Una de cada cuatro personas ha experimentado o conoce una víctima de estafa por clonación de voz con IA.
La clonación de voz mediante inteligencia artificial (IA) se ha convertido en una herramienta cada vez más popular para los ciberdelincuentes, quienes la utilizan para crear audios falsos que suenan como familiares o amigos de sus víctimas, solicitando dinero de manera urgente
Según un estudio de McAfee, una de cada cuatro personas encuestadas ha sido afectada o conoce a alguien que ha sido víctima de esta estafa, que resulta difícil de detectar, ya que el 70 por ciento de los encuestados no logra distinguir entre una voz clonada.
En Tabasco, aún no se han presentado denuncias penales por este tipo de fraude. Sin embargo, en las redes sociales se ha dado cuenta de casos de la clonación de identidad utilizando la ‘IA’.
PERDIDA DE DINERO
Este tipo de estafa suele involucrar mensajes cargados de urgencia, en los que la voz clonada solicita dinero inmediato debido a un accidente, robo o emergencia. Un 77 por ciento de los afectados han perdido dinero.
Las redes sociales y otros espacios digitales brindan a los delincuentes acceso a grabaciones de voz, dado que las personas publican contenido personal sin saber es usado con fines delictivos.
Con solo tres segundos de audio, los delincuentes logran un clon, aprovechando el Spear phishing y otros métodos.