
Claves para prevenir estafas con voces clonadas por IA
El veloz avance de la inteligencia artificial ha abierto oportunidades valiosas para la innovación, pero también ha multiplicado los riesgos de fraude digital. En el marco del Día de la Protección de Datos es imprescindible entender cómo nuestra huella digital (o conjunto de datos personales que dejamos en línea) puede ser utilizada por delincuentes para ejecutar estafas con voces clonadas por IA, modalidad que está creciendo con rapidez y sofisticación.
Esta forma de estafa utiliza fragmentos de audio o videos expuestos en internet, estados de mensajería o cualquier espacio público digital para entrenar modelos de inteligencia artificial capaces de imitar con gran precisión la voz de una persona real. Con ellos, simulan emergencias o situaciones de alto impacto emocional para obtener dinero, información sensible o acceso a cuentas bancarias.
Según la División de Investigación de Ciberdelincuencia de la Policía Nacional en agosto del 2025 se recibieron más de 4.000 denuncias por delitos informáticos y 94 casos de estafa gracias a la ayuda de la IA, que suplantó la identidad de otras personas, logrando sustraer más de 1 millón de soles.
Un caso reciente ocurrió en Florida, donde una mujer fue engañada mediante una llamada en la que la voz de su propia hija, generada artificialmente, le relataba un accidente y presionaba para entregar 15,000 dólares en efectivo como fianza. La estafa fue tan convincente que la víctima entregó sus ahorros antes de verificar la situación con familiares directos.
"El volumen de datos que compartimos en plataformas públicas, como grabaciones familiares, mensajes de voz, videos personales, alimenta algoritmos que pueden construir réplicas sonoras casi indistinguibles de las voces originales. Esa misma exposición breve de audio o video puede ser suficiente para que un modelo de IA reproduzca entonaciones, acentos y patrones vocales de una persona en un contexto de fraude", señaló Víctor Gutiérrez, especialista en seguridad digital de Intecnia Corp, Country partner de Bitdefender.
Informes especializados señalan que las estafas con voces generadas artificialmente aumentaron hasta un 30 % en diciembre de 2025, asociado a fechas de mayor actividad familiar y transaccional. En ese sentido, el experto en ciberseguridad señala cinco medidas para reducir la vulnerabilidad frente a estos ataques:
Gestión consciente de la huella digital: Limitar la publicación de audios y videos personales en redes y establecer configuraciones de privacidad estrictas.
Verificación por múltiples canales: Ante una llamada sospechosa, cortar la comunicación y confirmar por mensaje de texto o llamada desde un número verificado.
Palabras clave de seguridad: Establecer códigos de confirmación únicos con familiares para validar identidades en situaciones críticas.
Verificación de información sensible: Nunca proporcionar claves, enviar dinero o facilitar accesos sin validar con fuentes directas y confiables.
Educación continua: Estar siempre al tanto de las nuevas modalidades de estafas, y capacitar a familiares, a mayores de edad, sobre la lógica de manipulación emocional que subyace en estos fraudes.



