EXTORSIÓN A LO 'BLACK MIRROR'

Fraudes con Inteligencia Artificial a lo 'Black Mirror': simulan la voz de tus familiares para estafarte

Tan solo en 2022, los delincuentes lograron obtener 10 millones de euros a través de miles de estafas telefónicas de impostores.

Por
Escrito en INTERNACIONAL el

Los modelos de IA diseñados para simular la voz de una persona están facilitando que los ladrones imiten la voz de los seres queridos y conocidos de sus víctimas y logren obtener miles de euros en extorsiones, informó el diario estadounidense Washington Post.

Algunos software de generación de voz de Inteligencia Artificial que evolucionan rápidamente en sofisticación, requieren solo unas pocas oraciones de audio para producir un discurso convincente que transmita el sonido y el tono emocional de la voz de un ser hablante, mientras que otras opciones necesitan tan solo tres segundos.

Para quienes son los objetivos de los extorsionadores, que a menudo son personas mayores o madres de familia, informó el Post, puede ser cada vez más difícil detectar cuando una voz no es auténtica, incluso cuando las circunstancias de emergencia descritas por los estafadores en las llamadas puedan parecen inverosímiles.

Los avances tecnológicos aparentemente hacen que sea más fácil aprovecharse del temor de las personas y logran asustar a las víctimas que experimentan un "horror visceral" al escuchar lo que parecían ser súplicas directas de amigos o familiares que necesitaban ayuda con urgencia, dijeron las personas que habían sufrido esta nueva modalidad de fraude. 

Una pareja envió 15.000 dólares (unos 14.000 euros) a través de una terminal de bitcoin a un estafador después de creer que habían hablado con su hijo. La voz generada por IA les dijo que necesitaba honorarios legales después de estar involucrado en un accidente automovilístico en el que murió un diplomático estadounidense.

El fraude de suplantación de voz por IA fue el segundo más reportado en EE.UU.

Según la Comisión Federal de Comercio de Estados Unidos, las llamadas de estafas de impostores son extremadamente comunes en los EE.UU. El fraude más reportado en 2022 fue el de suplantación de voz por Inteligencia Artificial y generó las segundas pérdidas más altas para los destinatarios. De 36.000 informes, más de 5.000 víctimas fueron estafadas por unos 10 millones de dólares vía telefónica.

Debido a que estas estafas pueden ejecutarse desde cualquier parte del mundo, es extremadamente difícil para las autoridades tomar medidas enérgicas contra ellas y revertir la preocupante tendencia, informó el Post.

No solo es difícil rastrear llamadas, identificar a los estafadores y recuperar fondos, sino que a veces también es un desafío decidir qué agencias tienen jurisdicción para investigar casos individuales cuando los estafadores operan desde diferentes países. Incluso cuando es obvio qué agencia debe investigar, algunas actualmente están mal equipadas para manejar el creciente número de suplantaciones reportadas.

Ante esta nueva y sofisticada modalidad de extorsión telefónica, crear conciencia sobre las estafas que se basan en simuladores de voz de IA es probablemente la mejor defensa de los consumidores en la actualidad. Se recomienda que cualquier solicitud de efectivo se trate con escepticismo y antes de enviar fondos, intente comunicarse con la persona que parece estar pidiendo ayuda a través de métodos que no sean una llamada de voz.