Colombia
Estafadores usan IA para clonar voces en segundos. Conozca cómo protegerser de este fraude digital que está afectando a miles.
Publicado:
Por: María Paula Vargas Rodríguez
Creativa Digital
En el pasado, las estafas requerían presencia física y métodos de intimidación. Hoy, un fragmento de audio y acceso a internet son suficientes para suplantar a cualquier persona.
Con apenas tres segundos de grabación, los delincuentes pueden replicar la voz de un individuo y engañar incluso a sus familiares más cercanos. Esta modalidad, en crecimiento a nivel mundial, combina herramientas de inteligencia artificial con técnicas de ingeniería social para cometer fraudes altamente persuasivos.
Christian Ali Bravo, experto en ciberseguridad de ESET, explica que basta con un audio breve, como un video en TikTok, una nota de voz en WhatsApp o un clip en Instagram, para que los criminales reproduzcan el ritmo, entonación y particularidades de una voz auténtica.
Los ciberdelincuentes emplean un proceso sencillo:
• Recolección de muestras: buscan audios disponibles públicamente en redes sociales, entrevistas o mensajes de voz.
• Entrenamiento de modelos de IA: utilizan herramientas como Voice Engine de OpenAI, capaces de imitar el habla humana con apenas 15 segundos de grabación.
• Simulación de llamadas: crean llamadas falsas, suplantando a familiares o superiores, solicitando dinero o información sensible en situaciones que apelan a la urgencia emocional.
• Manipulación emocional: la víctima, confiada en el reconocimiento de la voz, responde de forma automática, cayendo en la trampa.
Además, muchos estafadores emplean técnicas de spoofing para falsificar números de teléfono, haciendo que la llamada parezca provenir de un contacto real.
De acuerdo con la Comisión Federal de Comercio (FTC) de Estados Unidos, en 2023 las pérdidas por fraudes digitales superaron los 2.700 millones de dólares.
En el Reino Unido, una encuesta de Starling Bank reveló que una de cada cuatro personas ha sido víctima de un engaño con voz clonada, y cerca del 46 % desconocía que esta tecnología existía.
Para enfrentar esta amenaza, los expertos recomiendan crear una frase segura entre familiares o amigos cercanos. Esta clave debe: • Ser simple pero difícil de adivinar. • Ser fácil de recordar, distinta de una contraseña común. • Compartirse únicamente en persona. • Actualizarse periódicamente.
Si recibe una llamada sospechosa y la persona al otro lado no puede decir la frase correcta, la recomendación es colgar de inmediato y verificar la situación por otro medio.
Adoptar medidas de prevención puede marcar la diferencia entre ser víctima de un fraude o frustrar el engaño a tiempo.