La reciente difusión de un video manipulado/generado mediante inteligencia artificial, en el que el gobernador de Córdoba, Martín Llaryora, aparece parodiado sin su consentimiento —y cuya autoría se atribuyó el diputado nacional Rodrigo de Loredo— revela una amenaza que trasciende lo partidario: el uso de deepfakes como instrumentos de violencia simbólica, desinformación y erosión democrática.
¿Hasta dónde puede ampararse la falsificación digital en la libertad de expresión? ¿Cuándo la sátira deja de ser legítima para convertirse en agresión?
Los deepfakes (manipulación de la realidad con apariencia de verdad) son videos generados por inteligencia artificial —mediante redes neuronales generativas— capaces de simular gestos, voces y rostros con realismo extremo. Aunque surgieron como curiosidad técnica, su evolución los convirtió en herramientas de manipulación con alto impacto social.
Según el Observatorio de Deepfakes del ISMS Forum, esta tecnología ha sido utilizada para estafas financieras, campañas electorales falsas y pornografía no consentida. Ignas Kalpokas y Julija Kalpokienė advierten que este fenómeno promueve una “anarquía epistémica”: una realidad donde lo falso y lo verdadero se vuelven indistinguibles, lo que debilita los pilares informativos de la democracia.
Libertad de expresión, pero no de engaño
La libertad de expresión es esencial en toda sociedad democrática, pero no es absoluta. La Corte Interamericana de Derechos Humanos ha afirmado que puede ser limitada cuando colisiona con el ejercicio de otros derechos fundamentales: el honor, la imagen, la privacidad y la integridad moral.
Como advierte Davey Gibian en Hacking artificial intelligence, la manipulación algorítmica de la percepción social representa un riesgo no sólo informativo, sino estructural para la convivencia. No se trata de censurar el humor político, sino de establecer límites ante contenidos que se presentan como reales sin serlo, lo que induce al error y provoca perjuicios.
El video en cuestión no fue una sátira identificable, sino una falsificación digital con apariencia de autenticidad. No es crítica política: es suplantación de identidad con fines de descrédito.
En términos jurídicos, configura un abuso del derecho. El artículo 10 del Código Civil y Comercial argentino es claro: “La ley no ampara el ejercicio abusivo de los derechos”, especialmente cuando se contradicen la buena fe, la moral o las buenas costumbres.
Modelos comparados
La comunidad internacional ya empezó a actuar frente a esta amenaza.
Unión Europea: en marzo de 2024, el Reglamento de Inteligencia Artificial (AI Act) estableció que todos los contenidos generados por IA, incluidos los deepfakes, deben ser identificados como tales, salvo contadas excepciones. También impone a las plataformas la obligación de detectar y frenar contenidos manipulados que puedan causar daños o alterar procesos electorales.
Estados Unidos: algunos jurisdicciones estaduales adoptaron normas específicas. California y Texas prohíben el uso de deepfakes engañosos en campañas electorales. Nueva York penaliza la difusión de contenidos sexuales falsificados y avanza en la protección de la identidad digital.
China: en un enfoque más restrictivo, desde 2023 exige que todo contenido generado con IA esté claramente marcado como “contenido sintético” y no pueda alterar hechos ni difundir falsedades. La difusión requiere autorización estatal. Aunque su modelo plantea tensiones con la libertad de expresión, reconoce el riesgo estructural que implican los deepfakes.
Brasil: el 26 de junio de 2025, el Supremo Tribunal Federal dictó una resolución clave: plataformas como Google, Meta y TikTok serán responsables civilmente si no eliminan contenidos denunciados que inciten al odio o contengan discursos ilícitos. También deberán establecer sistemas de notificación, debida diligencia, autorregulación e informes de transparencia.
Ética digital y responsabilidad pública
Usar deepfakes para ridiculizar o engañar no es libertad de expresión: es violencia simbólica amplificada tecnológicamente. Las herramientas digitales deben fortalecer el debate democrático, no convertirlo en un espectáculo degradante.
El caso De Loredo–Llaryora debe ser un punto de inflexión. Es hora de legislar con claridad, establecer estándares de responsabilidad política y garantizar que quienes ocupan cargos públicos usen la tecnología dentro de las fronteras de una ética virtuosa. La IA no puede ser un campo al margen de la ley y la ética.
Porque en un entorno donde la mentira se puede programar y viralizar en segundos, defender la verdad no es neutralidad: es justicia.
*Profesor titular de Historia del Derecho Argentino, UCC; director de la Diplomatura de Legaltech y Argumentación Constitucional