1 de cada 7 suplantaciones de identidad en Estados Unidos se lleva a cabo con falsificaciones de voz.
ESTADOS UNIDOS.- La inteligencia artificial ha cambiado por completo el panorama de cómo las personas se relacionan; sin embargo, pese a sus avances en ilustración, creación de montajes o de códigos.
Las IA, como se le conoce por su abreviación, también presuponen un peligro en la identidad de los usuarios, con especial énfasis en la suplantación de la misma, pues ya que se ha reportado la clonación artificial de la voz de un hombre que es utilizada para estafar a sus padres.
Hemos visto cómo existen inteligencias artificiales como Midjourney, Dall-E o Stable Diffussion para crear tus ilustraciones; sin embargo, también existen aquellas que imitan a la perfección la voz humana.
Clonan la voz de una persona con IA el objetivo de estafar.
De acuerdo con un artículo de El Confidencial, ya se arrancaron los primeros casos de fraudes que utilizan IA generativas con el fin de simular de personas y estafar dinero a sus familiares en llamadas telefónicas.
Es bien sabido que, por lo menos en México, las estafas relacionadas con el ‘secuestro’ o la voz de un pariente con el fin de sacar dinero a los familiares resultan ser casi el ‘pan de cada día’; sin embargo, los delincuentes pueden ir un paso más allá con las estafas de clonación de voz.
Con esto, los primeros casos ya empiezan a surgir inclusive cuando la tecnología apenas está avanzando. Actualmente, existen IAs como Vall-E, que es un algoritmo de Microsoft capaz de clonar la voz de cualquier persona con solo escucharla hablar unos segundos.
Una vez se entrena a esta inteligencia artificial, únicamente es necesario introducir el texto que se quiere convertir en voz y la máquina lo hace con total precisión; inclusive las inflexiones y emociones del individuo. Sin embargo, Vall-E no está abierto al público.
Casos de clonación de voz para estafar gente.
En Washington Post se cuenta en un artículo el caso de Ruth Card, una mujer oriunda de Canadá de 73 años que recibió una llamada de alguien, que en sus palabras, sonaba como su nieto Brandon y que le decía que estaba detenido por la policía.
Con el fin de pagar su fianza, el supuesto Brandon consiguió que tanto Ruth y su marido, Greg, fuesen al banco y sacasen el máximo dinero permitido en un día: $3,000 dólares canadienses. Sin embargo, cuando ellos intentaron obtener más, el director les llamó y les alertó que podría ser un fraude que se relacionaba con los deepfakes de audio.
Estas ‘deepfakes de audio’ ofrece a los estafadores la posibilidad de utilizar la inteligencia artificial para sintetizar voces ajenas, con solo unos segundos de muestra a la voz a imitar, que pueden grabarse desde cualquier sitio: cuentas de TikTok, YouTube, Instagram, etc.
(… )Estábamos convencidos de que estábamos hablando con Brandon” cuenta Ruth para la entrevista.
Es menester señalar que existen otros casos, pues el Washington Post también relata el de Benjamín Perkin, un hombre de 39 años que, supuestamente, habría recibido una llamada de su supuesto abogado, asegurando que su hijo había matado a un diplomático estadounidense en un accidente automovilístico y necesitaba $21 mil dólares.
El abogado, asimismo, hizo parecer que ponía a Perkin al teléfono y una voz similar a la suya le dijo a sus padres que les quería y que si podrían enviarle dinero.
Las estafas que involucran tecnología de IA son anteriores a la aparición de ChatGPT y otros bots de IA, mismos que se están volviendo sumamente virales en este momento. Finalmente, 1 de cada 7 suplantaciones de identidad en Estados Unidos se lleva a cabo con falsificaciones de voz.