Las estafas digitales potenciadas por inteligencia artificial avanzan a un ritmo alarmante. Hoy, los ciberdelincuentes ya pueden clonar voces, generar rostros falsos y hasta realizar videollamadas manipuladas en tiempo real para engañar a sus víctimas y obtener dinero o información sensible.
Especialistas en ciberseguridad advierten que estas tecnologías, que hasta hace pocos años estaban reservadas para laboratorios especializados, hoy están al alcance de cualquiera mediante aplicaciones gratuitas o plataformas de fácil acceso.
Uno de los métodos más utilizados es la clonación de voz mediante IA. Para lograrlo, los delincuentes solo necesitan unos pocos segundos de audio, que pueden obtener de mensajes de voz enviados por aplicaciones como WhatsApp, videos publicados en redes sociales o llamadas grabadas.
Con ese material, los sistemas son capaces de reproducir con notable precisión:
El tono de voz
La velocidad al hablar
Las pausas
Las muletillas
La entonación emocional
Esto permite simular llamadas extremadamente convincentes. Una persona puede recibir una comunicación aparentemente realizada por un familiar, un amigo o incluso un superior laboral solicitando una transferencia urgente o datos confidenciales.
La situación se vuelve más preocupante porque algunos modelos ya operan en tiempo real, respondiendo preguntas e improvisando conversaciones de forma natural.
La amenaza no se limita al audio. Los videos manipulados mediante inteligencia artificial, conocidos como deepfakes, también evolucionaron rápidamente.
Actualmente, estas herramientas pueden recrear expresiones faciales, movimientos e interacciones en vivo, haciendo cada vez más difícil distinguir una videollamada real de una falsa.
Uno de los casos más impactantes ocurrió en Hong Kong, donde un empleado de una firma internacional participó en una videollamada en la que creyó estar conversando con directivos reales de la empresa.
En realidad, todos los participantes eran recreaciones generadas con inteligencia artificial. Convencido de la legitimidad de la reunión, el trabajador autorizó transferencias millonarias antes de descubrir que había sido víctima de un fraude.
La inteligencia artificial también transformó las llamadas estafas románticas.
Los delincuentes ahora pueden crear identidades falsas mucho más creíbles, aparecer en videollamadas con rostros generados digitalmente e interactuar en tiempo real para construir vínculos emocionales con sus víctimas.
Este tipo de engaño, conocido internacionalmente como pig butchering 2.0, suele extenderse durante semanas o meses antes de concretar el fraude económico.
Los adultos mayores aparecen entre los grupos más vulnerables frente a esta modalidad.
El phishing también cambió
Los clásicos correos electrónicos fraudulentos también se perfeccionaron gracias a la IA.
Si antes era posible detectarlos por errores ortográficos o frases extrañas, hoy los modelos de lenguaje permiten redactar mensajes prácticamente idénticos a los emitidos por bancos, organismos oficiales o grandes empresas tecnológicas.
Esto dificulta enormemente su identificación, incluso para usuarios con experiencia digital.
Cómo protegerse
Los expertos recomiendan extremar precauciones y adoptar nuevas medidas de verificación:
Confirmar pedidos de dinero mediante otro canal de comunicación
Establecer palabras clave familiares para emergencias
Desconfiar de llamadas o videollamadas inesperadas
No compartir audios personales públicamente
Activar autenticación en dos pasos
Verificar cuidadosamente correos y enlaces antes de hacer clic
La principal advertencia de los especialistas es clara: ya no alcanza con confiar en una voz conocida o una imagen familiar. En la era de la inteligencia artificial, verificar la identidad por múltiples vías se volvió indispensable.
A horas del estreno de Triángulo amoroso, la primera ficción vertical original de Telefe, Wanda…
Un insólito episodio se registró en la provincia de Santa Fe, cuando una pareja fue…
Aunque se espera una desaceleración en los próximos meses, la inflación todavía no logra perforar…
El tenis argentino volvió a celebrar en el Masters 1000 de Roma con una actuación…
El Ministerio de Desarrollo Humano de Jujuy, a través de la Secretaría de Asistencia Directa,…
En el marco de la Feria Internacional del Libro de Buenos Aires, el Gobierno de…