Hubo una época en que las historias de personas que imitaban voces sólo pertenecían al terreno de la ciencia ficción o del cine de suspenso. Gracias a avances en Inteligencia Artificial, estos escenarios se vuelven realidad: es posible clonar voces con apenas unos segundos de audio y luego usar ese duplicado para engañar, extorsionar o suplantar identidades. Lo que antes era complejo ahora está al alcance de actores malintencionados con herramientas accesibles.
La clonación de voz con IA, también llamada “deepfake de audio” o “audio sintético”, consiste en tomar fragmentos de voz reales y usar modelos de aprendizaje automático para recrear patrones de entonación, ritmo, pausas y timbre. De esta forma, el impostor puede emitir mensajes que suenan casi idénticos al original. Con instrumentos cada vez más sofisticados, desde plataformas comerciales hasta servicios en línea, estos clones han sido adoptados como instrumento de fraude.
Según McAfee, los delincuentes pueden lograr clones efectivos con apenas pocos segundos de audio y usar ese recurso para enviar mensajes urgentes que inducen a la víctima a entregar dinero de forma inmediata. En su estudio global, descubrieron que uno de cada 10 usuarios admitió haber recibido llamadas con voces clonadas y

Sonos Era 100: ¿realmente una maravilla?
77 % de quienes fueron víctimas de ese tipo de estafa reportó pérdidas económicas.
Una mujer en Florida fue estafada por 15,000 dólares luego de recibir una llamada en la que “su hija” afirmaba estar en un accidente y necesitaba dinero. Otro engaño documentado tomó por víctima a un hombre que entregó 25,000 dólares tras creer que su hijo estaba en problemas legales.
Aunque los clones pueden sonar muy convincentes, no son perfectos. Aquí algunos indicios que pueden ayudarte a sospechar: entonaciones forzadas, repetición de patrones similares, falta de ruido de fondo congruente, solicitudes urgentes fuera de lo normal, incoherencias al pedir información que la persona debería conocer.
Puedes protegerte de este tipo de estafas evitando una exposición continúa de tu voz en redes sociales, estableciendo una palabra segura con tu entorno cercano con la que se pueda verificar tu identidad, además puedes verificar por otros medios en donde se encuentra tu familiar.
La clonación de voz con IA ya es una amenaza real y creciente, algunos de los casos documentados muestran pérdidas significativas, angustia emocional y vulneración de la confianza familiar. La tecnología evoluciona rápido, pero nuestra capacidad para ser cautelosos y preparar defensas también debe avanzar.

