
Lo que vemos y escuchamos ya no siempre es real. Cada vez estamos más expuestos a los deepfakes, esos contenidos audiovisuales generados con IA capaces de imitar un discurso, alterar una voz o construir una escena que nunca ocurrió.
Pese a tener aún resultados, actas y votos por procesar de la primera jornada electoral, Perú se prepara para la segunda vuelta.
“Cuando hablamos de deepfakes en procesos electorales, el problema no es solo tecnológico, es de confianza. Si los ciudadanos dejan de confiar en lo que ven y escuchan, la legitimidad del proceso se debilita”, señala Alberto Juárez, vicepresidente global de verificación de identidad y servicios de confianza en Sovos.
LEA TAMBIÉN: Congreso busca prohibir uso de IA en las elecciones: ¿se evitará la difusión de deepfakes?
Francisco José Adán Castaño, abogado y docente de la Maestría Oficial en Derecho Digital y de la Ciberseguridad de la Universidad Internacional de Valencia - VIU precisa que hay una conciencia sobre el uso malicioso de esta herramienta digital, que se basa en inteligencia artificial para crear videos o audios falsos que simulan ser reales. No obstante, la acción regulatoria y técnica avanza a un ritmo mucho más lento, afectando a diferentes sectores de la sociedad.
“Los políticos son probablemente los más perjudicados en este tema; con videos falsos de candidatos diciendo cosas que nunca dijeron justo antes de unas elecciones”, alerta el especialista.

Cómo identificar los deepfakes
Juárez de Sovos brinda cinco recomendaciones para no caer en la desinformación por contenido manipulado. Cinco pasos a tomar en cuenta antes de compartir información por redes sociales:
1. Verifique antes de compartir
Si un video o audio genera indignación inmediata o parece explosivo, deténgase. Busque la declaración en medios reconocidos o canales oficiales antes de reenviarla.
2. Desconfíe de audios anónimos en WhatsApp
Los mensajes sin fuente clara, especialmente los que afirman “esto no lo verás en la prensa”, suelen ser desinformación.
3. Observe detalles técnicos
Movimientos labiales poco sincronizados, parpadeo irregular o tono de voz robótico pueden ser señales de manipulación.
4. Consulte fuentes oficiales
Revise redes verificadas de candidatos, organismos electorales y medios formales para contrastar información.
5. No reaccione emocionalmente de inmediato
Los deepfakes están diseñados para provocar miedo, enojo o sorpresa. Esa reacción rápida es parte de su estrategia.








