La reciente publicación del diputado nacional Rodrigo de Loredo, en la que utiliza inteligencia artificial para simular un discurso del gobernador Martín Llaryora, no puede ser entendida sólo como una pieza ingeniosa de comunicación política. El video, que imita de manera realista la voz y la imagen del mandatario, aunque con un pequeño aviso (“generado con IA”), expone un vacío regulatorio que merece atención urgente y deja abiertas preguntas éticas de fondo sobre los límites del juego político en la era digital.
La dimensión ética de la inteligencia artificial no se limita a sus usos aplicados. Está profundamente ligada al diseño mismo de estas herramientas: desde los sesgos en los datos con los que se entrenan hasta los impactos sociales y políticos que generan.
De Loredo, al usar esta tecnología para construir un mensaje falso en apariencia, pero real en efecto, no transgrede ninguna norma explícita y se encuentra a priori comprendido por los estándares de libertad de expresión que protegen el discurso público en nuestro país.
Pero sí incurre en un tipo de práctica que, moralmente, puede catalogarse como confusa y manipuladora. No porque el video engañe a todos –el disclaimer está ahí–, sino porque su realismo instala, por vía indirecta, un discurso que el gobernador no expresó. Y eso es grave.

El problema no es solamente la herramienta técnica (la IA generativa), sino el contexto: un político relevante, líder de una de las principales coaliciones en Córdoba, pone en boca de su principal adversario político lo que en realidad es parte de su propia agenda.
No se trata de humor político, ni de sátira evidente: es un montaje cuidado para parecer real, con intención persuasiva.
Incluso si se aclara que es falso, su poder de insinuación puede funcionar. Y, si lo hace, es precisamente porque hay un vacío normativo sobre cómo deben presentarse estas producciones en el debate público.
Hay que distinguir bien entre dos planos: el legal y el moral. Desde el punto de vista jurídico, este tipo de contenido no constituye un delito electoral, y no vulnera de manera directa la libertad de expresión. Pero, desde el plano moral (clave en cualquier república democrática), sí hay una degradación del estándar mínimo de transparencia y honestidad en la comunicación política.
No se trata de censurar, sino de definir reglas claras para no normalizar un “todo vale”.
El caso se diferencia del video con deepfake (tecnología basada en IA que crea videos o audios falsos extremadamente realistas, simulando personas diciendo o haciendo cosas que no ocurrieron) que circuló en la campaña de La Libertad Avanza en la Ciudad Autónoma de Buenos Aires, en el que sí se violó la veda electoral y se buscó confundir al electorado en las horas críticas previas al voto.
En el caso de De Loredo, aún no hay campaña oficialmente lanzada. Pero el impacto simbólico y el uso anticipado de esta tecnología para erosionar la imagen del adversario sientan un precedente preocupante.
Así que, aunque muchos entiendan que el video no es real, una parte de la población podría no captar la ironía o el montaje. Y, aun cuando no se lo crea, el mensaje queda instalado. Esa es la eficacia peligrosa de las deepfakes en política: no buscan convencer de una mentira, sino posicionar una idea desde la boca del enemigo, con apariencia de verdad.
De Loredo, con este video, inaugura una zona gris. No rompe la ley, pero sí empuja los límites de lo tolerable en democracia.
Y, mientras no haya regulación específica, será responsabilidad del sistema político, y también del periodismo y de la ciudadanía, marcar dónde empieza el juego sucio. Porque lo que hoy parece creativo mañana puede ser veneno para el debate público.
(*) Abogado - Especialista en regulación digital. Director del Instituto de Desarrollo Digital de América Latina y el Caribe (Iddlac)