El inicio de año trae un riesgo que expertos en sonido y ciberseguridad consideran prioritario: la clonación de voces con inteligencia artificial para cometer fraudes y extorsiones.
Un informe de la Universidad de San Buenaventura (USB), sede Bogotá, advierte que esta modalidad aumentó un 30 % en diciembre y entrega pautas prácticas para protegerse en enero.
“La voz genera confianza inmediata y por eso es tan atractiva para los estafadores”, explica Marcelo Herrera, docente de Ingeniería de Sonido de la USB.
Las cifras internacionales muestran que esta amenaza dejó de ser excepcional. El Fall 2025 Threat Report de Ironscales reveló que el 85 % de las empresas sufrió al menos un incidente con deepfakes en el último año y que más de la mitad registró pérdidas superiores a US$ 280.000 por ataque.
De otra parte, Gartner informó que el 62 % de las compañías enfrentó intentos similares y que en el 44 % de los casos se utilizaron audios sintéticos diseñados para imitar voces humanas.
Asimismo, McAfee señaló que 1 de cada 10 personas fue blanco directo de una estafa con voz clonada el año anterior.
En Colombia, este fenómeno también muestra señales preocupantes. Con a diciembre de 2025, la Policía Nacional reportó 64 denuncias por extorsión en Bolívar, de las cuales 24 están asociadas a modalidades digitales que incluyen voces clonadas e imágenes generadas con IA.
En ese mismo periodo, el GAULA registró 36 capturas relacionadas con estos casos. La Estrategia Nacional de Seguridad Digital advierte que el país fue el segundo más atacado digitalmente de América Latina en 2025, concentrando el 17 % de los intentos de afectación regionales.
A esto se suma la Ley 2502 de 2025, que agravó las penas por falsedad personal cuando se utilice IA para suplantar identidad.
En conjunto, todos estos datos confirman que la amenaza de las voces clonadas con IA es real, está creciendo y ya tiene impacto visible en ciudadanos y empresas en distintas regiones del país.
Le contamos cómo operan las deepfakes
Los estafadores suelen empezar con un mensaje corto que imita la voz de un familiar o un superior, usando fragmentos extraídos de redes sociales, estados de WhatsApp o grabaciones antiguas. Con apenas unos segundos de audio entrenan modelos de IA capaces de replicar timbre y ritmo con sorprendente fidelidad.
El engaño sigue un patrón claro: primero generan impacto emocional —miedo, confusión o urgencia— con libretos sobre accidentes, bloqueos bancarios, detenciones o solicitudes de ayuda inmediata. Luego buscan que la víctima actúe rápido enviando dinero, compartiendo claves o entregando información personal.
“El delincuente sabe que el cerebro reacciona distinto cuando cree escuchar a alguien cercano en peligro; por eso construyen historias breves y presionadas”, explica Herrera.
En los audios clonados es común que la voz suene demasiado limpia, con silencios sin ambiente, frases que no fluyen o cambios abruptos de entonación.
También aparecen respiraciones perfectas o finales cortados, señales que pueden pasar inadvertidas si la víctima está alterada. Los delincuentes suelen impedir cualquier verificación: cortan la llamada, envían otro audio o insisten en que no pueden hablar más.
Además, en esta temporada combinan la clonación de voz con otros métodos: perfiles falsos, números desconocidos o enlaces diseñados para suplantar entidades.
Diciembre, con más desplazamientos, compras, estrés y conversaciones urgentes, es un terreno fértil para el engaño. En ese contexto, un audio que suena creíble —aunque tenga fallas sutiles— puede bastar para que alguien responda sin detenerse a pensar.
Cinco pasos para actuar en segundos y evitar caer en estos engaños
- Verifique por otro canal. Cuelgue y comuníquese con la persona real por un número distinto.
- Pregunte algo que solo el verdadero contacto pueda responder. La IA imita voces, no recuerdos.
- Escuche el audio con audífonos. “Muchas manipulaciones se evidencian al oír el final de cada frase”, indica Herrera.
- Tómese veinte segundos antes de actuar. Esa pausa corta la manipulación emocional.
- Nunca envíe dinero sin verificación múltiple. Si hay presión, probablemente es fraude.
Herrera finalmente recomienda acordar una palabra clave familiar para emergencias y definir protocolos internos en empresas para validar pagos y cambios de cuentas. Revisar el contexto de la llamada también es fundamental: si el mensaje contradice la rutina de la persona, lo más seguro es que sea un intento de engaño. Conservar el audio y reportarlo ayuda a prevenir que otros caigan. “Lo que protege no es la tecnología, sino la calma para verificar”, concluye.

