¡Cuidado! Estafadores usan deepfakes de voces de famosos para engañar a usuarios en redes sociales

Listen to this article


Bitdefender Labs ha estado al tanto del último método de operación de los ciberdelincuentes, quienes están adaptando tecnologías emergentes para defraudar a los consumidores. Uno de estos métodos consiste en el uso de «Deepfakes» de voz, una técnica que busca extorsionar a la víctima solicitando dinero e información confidencial.

Los especialistas en ciberseguridad explican que la clonación de voz, también conocida como «Deepfakes» de voz, implica el uso de herramientas de inteligencia artificial para crear reproducciones de la voz de otra persona. Esta tecnología avanzada emplea técnicas de aprendizaje profundo para replicar el habla de un individuo, generando un audio extremadamente realista y convincente de una voz humana.

Aunque la clonación de voz tiene numerosos usos legítimos en áreas como la educación, la atención médica y el entretenimiento, como la creación de doblajes de voz para actores de películas, la narración de audiolibros, asistentes personales y locuciones, lamentablemente, esta tecnología está siendo mal utilizada para actividades fraudulentas.

Plataformas de redes sociales: fuente para estafas de clonación de voz

Millones de personas utilizan las redes sociales a diario, por lo que no es de extrañar que estas plataformas se hayan convertido en la fuente principal de muchas estafas emergentes que emplean inteligencia artificial y tecnologías de clonación de voz. Estos dos avances por sí solos son un punto de inflexión para los estafadores, quienes rápidamente los explotan para mejorar el alcance de sus esquemas fraudulentos.

Por ello, Bitdefender Labs ha seguido de cerca estas estafas, especialmente en plataformas de redes sociales donde descubrieron una serie de videos fraudulentos en Facebook e Instagram en los que audio falsificados de celebridades como Elon Musk, Oprah Winfrey, Tiger Woods, Kylie Jenner, Vin Diesel, Jennifer Aniston y Mr. Beast, prometían obsequios “gratuitos” y oportunidades de inversión. Las voces generalmente se reproducen sobre imágenes reales de la celebridad en cuestión.

Los vídeos deepfake analizados por el laboratorio cuentan la misma historia falsa: son parte de un “grupo exclusivo de 10.000 personas” que pueden adquirir productos exclusivos por un pago modesto a partir de 2 dólares (dependiendo del anuncio/producto). En la captura de pantalla siguiente, los estafadores clonaron la voz del YouTuber Mr. Beast, cuyo espíritu caritativo lo llevó al estrellato en Internet. Hicieron una buena sincronización al modificar el video, siendo este uno de los deepfakes de audio más convincentes y mejor orquestados por los ciberdelincuentes.

Los videos publicitarios tienen una duración de 30 segundos y motivan a los espectadores a actuar rápidamente haciendo un clic en el enlace para beneficiarse de una «oportunidad inmediata». Pero ¿cuál es el problema? Los afortunados solo pagan el envío en el «obsequio de iPhone 15 más grande del mundo». ¿Suena descabellado? Eso es porque lo es.

Al hacer clic en el enlace fraudulento, los usuarios son dirigidos a un sitio web falso que promociona el sorteo y que enumera una cantidad limitada de dispositivos/productos restantes.

La última página es donde el usuario debe completar los datos y pagar el envío. El pago es mayor que el monto especificado en el video. Por supuesto, el usuario debe proporcionar varios datos personales antes de realizar el pago, incluido el nombre, el país, la dirección y la información de contacto (correo electrónico y número de teléfono).

Durante el pago, los usuarios deben proporcionar sus números de tarjeta de crédito para pagar el envío.

¿Cómo puede protegerse contra estafas de audio falsas?

Detectar la clonación de voces puede ser un gran desafío, especialmente porque los avances en inteligencia artificial y tecnologías de aprendizaje han mejorado significativamente la calidad de las voces creadas. Sin embargo, existen varios consejos que puede seguir para detectar y protegerse contra la clonación de voz:

1. Verifique la calidad y consistencia de la voz: preste atención a la calidad de la voz. Algunas voces clonadas pueden tener tonos inusuales, ser estáticas o presentar inconsistencias en los patrones del habla.

2. Ruido de fondo y artefactos: si bien la clonación de voz de alta calidad minimiza los ruidos de fondo, estos aún podrían estar presentes en un clip de audio o vídeo sintético. Escuche atentamente para detectar ruidos de fondo inusuales o artefactos digitales.

3. Tenga cuidado con solicitudes inusuales y ofertas demasiado buenas para ser verdad: debe examinar los anuncios y videos que le prometen grandes retornos de la inversión, incluso aunque parezcan respaldados por una celebridad, una persona influyente en las redes sociales o un político.

4. Verifique: si sospecha, cuelgue y comuníquese con la persona u organización a través de los canales oficiales. No utilice ninguna información de contacto que se le haya proporcionado durante la llamada.

5. Tenga cuidado al compartir información personal: evite compartir muestras de voz con extraños que conozca en línea. Los estafadores pueden utilizar cualquier detalle de las redes sociales para que su suplantación suene muy convincente.

6. Utilice software de seguridad en su dispositivo: emplee soluciones de seguridad integrales como Bitdefender, que ofrece varias funciones para proteger contra el phishing y el fraude.

7. Utilice herramientas dedicadas para detectar estafas: puede ser más astuto que los estafadores utilizando Bitdefender Scamio, nuestro chatbot de IA y detector de estafas gratuito de próxima generación, para descubrir si el contenido en línea con el que interactúa o los mensajes que recibe son intentos de estafarlo.

8. Manténgase informado: manténgase al día con las últimas amenazas a la seguridad y cómo funcionan. Nuestros blogs y boletines le ayudan a estar al tanto de estafas en línea nuevas y existentes y le brindan información sobre cómo usted y su familia pueden mantenerse seguros.

En Perú, la posibilidad de enfrentar estafas de clonación de voz es una preocupación real, por lo tanto, es vital fomentar una cultura de seguridad digital. Asimismo, es crucial informar a la Policía Nacional del Perú y a las autoridades pertinentes sobre cualquier actividad sospechosa o intento de fraude que se detecte en las redes sociales para combatir este tipo de estafas.

Deja un comentario

Descubre más desde InfoNoticiasPerú

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo