Hoy es

Tecnología

Crecen las estafas con inteligencia artificial: cómo clonan voces y rostros para robar dinero

Las estafas digitales potenciadas por inteligencia artificial avanzan a un ritmo alarmante. Hoy, los ciberdelincuentes ya pueden clonar voces, generar rostros falsos y hasta realizar videollamadas manipuladas en tiempo real para engañar a sus víctimas y obtener dinero o información sensible.

Especialistas en ciberseguridad advierten que estas tecnologías, que hasta hace pocos años estaban reservadas para laboratorios especializados, hoy están al alcance de cualquiera mediante aplicaciones gratuitas o plataformas de fácil acceso.

Cómo funciona la clonación de voz

Uno de los métodos más utilizados es la clonación de voz mediante IA. Para lograrlo, los delincuentes solo necesitan unos pocos segundos de audio, que pueden obtener de mensajes de voz enviados por aplicaciones como WhatsApp, videos publicados en redes sociales o llamadas grabadas.

Con ese material, los sistemas son capaces de reproducir con notable precisión:

El tono de voz
La velocidad al hablar
Las pausas
Las muletillas
La entonación emocional

Esto permite simular llamadas extremadamente convincentes. Una persona puede recibir una comunicación aparentemente realizada por un familiar, un amigo o incluso un superior laboral solicitando una transferencia urgente o datos confidenciales.

La situación se vuelve más preocupante porque algunos modelos ya operan en tiempo real, respondiendo preguntas e improvisando conversaciones de forma natural.

Los deepfakes ya llegaron a las videollamadas

La amenaza no se limita al audio. Los videos manipulados mediante inteligencia artificial, conocidos como deepfakes, también evolucionaron rápidamente.

Actualmente, estas herramientas pueden recrear expresiones faciales, movimientos e interacciones en vivo, haciendo cada vez más difícil distinguir una videollamada real de una falsa.

Uno de los casos más impactantes ocurrió en Hong Kong, donde un empleado de una firma internacional participó en una videollamada en la que creyó estar conversando con directivos reales de la empresa.

En realidad, todos los participantes eran recreaciones generadas con inteligencia artificial. Convencido de la legitimidad de la reunión, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.

Estafas sentimentales más sofisticadas

La inteligencia artificial también transformó las llamadas estafas románticas.

Los delincuentes ahora pueden crear identidades falsas mucho más creíbles, aparecer en videollamadas con rostros generados digitalmente e interactuar en tiempo real para construir vínculos emocionales con sus víctimas.

Este tipo de engaño, conocido internacionalmente como pig butchering 2.0, suele extenderse durante semanas o meses antes de concretar el fraude económico.

Los adultos mayores aparecen entre los grupos más vulnerables frente a esta modalidad.

El phishing también cambió

Los clásicos correos electrónicos fraudulentos también se perfeccionaron gracias a la IA.

Si antes era posible detectarlos por errores ortográficos o frases extrañas, hoy los modelos de lenguaje permiten redactar mensajes prácticamente idénticos a los emitidos por bancos, organismos oficiales o grandes empresas tecnológicas.

Esto dificulta enormemente su identificación, incluso para usuarios con experiencia digital.

Cómo protegerse

Los expertos recomiendan extremar precauciones y adoptar nuevas medidas de verificación:

Confirmar pedidos de dinero mediante otro canal de comunicación
Establecer palabras clave familiares para emergencias
Desconfiar de llamadas o videollamadas inesperadas
No compartir audios personales públicamente
Activar autenticación en dos pasos
Verificar cuidadosamente correos y enlaces antes de hacer clic

La principal advertencia de los especialistas es clara: ya no alcanza con confiar en una voz conocida o una imagen familiar. En la era de la inteligencia artificial, verificar la identidad por múltiples vías se volvió indispensable.

Entradas recientes

Wanda Nara anticipó el estreno de su serie vertical junto a Maxi López

A horas del estreno de Triángulo amoroso, la primera ficción vertical original de Telefe, Wanda…

11 minutos hace

Escándalo en pleno vuelo: detuvieron a una pareja por intentar tener relaciones sexuales en el avión

Un insólito episodio se registró en la provincia de Santa Fe, cuando una pareja fue…

1 hora hace

Inflación: por qué sigue arriba del 2% y qué prevén los economistas para los próximos meses

Aunque se espera una desaceleración en los próximos meses, la inflación todavía no logra perforar…

1 hora hace

Batacazo de Mariano Navone en Roma: eliminó al número 5 del mundo y avanzó a tercera ronda

El tenis argentino volvió a celebrar en el Masters 1000 de Roma con una actuación…

1 hora hace

“Comer en Casa”: entregarán módulos alimentarios en localidades de la Puna

El Ministerio de Desarrollo Humano de Jujuy, a través de la Secretaría de Asistencia Directa,…

2 horas hace

Cursos gratuitos de portugués para fortalecer el turismo receptivo brasileño en Jujuy

En el marco de la Feria Internacional del Libro de Buenos Aires, el Gobierno de…

2 horas hace