Los criminales utilizan una herramienta de IA que permite copiar la voz de un familiar en cuestión de segundos.
Si bien la inteligencia artificial supone uno de los avances más significativos en tecnología en los últimos años, también conlleva sus riesgos. Lamentablemente, cada vez más criminales se aprovechan de esta innovación para llevar a cabo estafas telefónicas.
A través de plataformas como ElevenLabs, se pueden crear líneas de diálogo simulando cualquier voz, con solo 30 segundos de grabación. Este software analiza cada uno de los aspectos de la voz, incluyendo edad, género y acento para copiarla. De esta manera, el estafador solo necesita hacer una llamada previa al familiar que usarán para engañar a la víctima y en muy corto tiempo pueden obtener la información necesaria.
Según el diario norteamericano, Washington Post, este tipo de estafas tecnológicas en Estados Unidos generaron pérdidas de más de 11 millones de dólares durante 2022. La herramienta de ElevenLabs ya había bastante criticada en su momento por la difusión de un audio que copiaba la voz de la actriz, Emma Watson , recitando pasajes de “Mein Kampf” de Adolf Hitler.
Por otro lado, tampoco hay que creer que es imposible no caer en este tipo de estafas. La mejor manera para evitar ser engañado es nunca brindar información personal como nombres, dirección, teléfono, números de cuenta o correos electrónicos. En el caso de dar por error el nombre de un familiar o que lo adivinen, lo más recomendable es llamar directamente a esa persona para comprobar la veracidad de su situación.