En The Washington Post, hablaron sobre los deepfakes generadas por IA que pueden imitar las voces de los seres queridos para cometer delitos cibernéticos.

El documento cita el ejemplo de Ruth Card, de 73 años.

Supuestamente recibió una llamada de su nieto Brandon diciendo que estaba en la cárcel sin teléfono ni tarjeta. «Necesito una fianza», dijo una voz familiar.

Como familiares, Card y su esposo decidieron ir al banco a retirar $3,000 y planeaban retirar los $3,000 en otra oficina para depositarlos en otra cuenta.

El director de la otra unidad se dio cuenta de esto y decidió hablar con ellos para advertirles a otros clientes que habían sido víctimas de una estafa con deepfake.

Por suerte el director pudo advertirles, pero no todos llegaron a este extremo.

Según datos de la Comisión Federal de Comercio (FTC), en 2022 el robo de identidad superó las 36.000 denuncias de personas en Estados Unidos y fue el segundo tipo de fraude más común.

Tenga en cuenta que, si bien no todos están relacionados con el mal uso de la IA, estas estafas son muy reales, con $35 millones robados.

Los avances en IA pueden ser buenas noticias, pero también malas noticias, como tácticas de engaño.

Aunque la víctima esté atenta y consciente de la existencia de estos actos, los deepfakes son cada vez más reales, imitar las voces y rostros de personas de confianza es suficiente para caer en la trampa.

Usando un software de síntesis de voz como ElevenLabs, cuyas tarifas de suscripción van desde gratis hasta $330 al mes, los estafadores pueden repetir el discurso.

Para hacer esto, necesitan un breve mensaje de audio del ser querido de la víctima y usan el sistema para llamar y solicitar asistencia de emergencia.

FUENTE:
https://www.20minutos.es/tecnologia/ciberseguridad/lo-ultimo-en-estafas-es-usar-deepfakes-de-audio-que-imitan-la-voz-de-seres-queridos-para-pedir-dinero-urgente-5108322/