
El pasado miércoles 8 de abril de 2026, un video comenzó a circular en redes sociales generando gran repercusión en la ciudad de Loja. El material audiovisual, que aparentemente pertenece a una entrevista radial a la gobernadora Alexandra Jara Minga, fue rápidamente viralizado; sin embargo, la autoridad provincial denunció que dicho clip fue manipulado utilizando herramientas de inteligencia artificial (IA).
En el video se escuchan conversaciones aparentemente privadas entre Alexandra Jara y el conductor del programa, donde se tocan temas relativos al Gobierno, labor de los asambleístas lojanos y las elecciones seccionales. En ellas, se hace referencia a la decisión de la gobernadora de no postularse a futuros cargos electivos para evitar “quemarse” políticamente, además de mencionar que se sintió acosada por la insistencia de un canal de televisión por más de dos semanas para conceder una entrevista.
Asimismo, se oye mencionar al asambleísta Jorge Guevara sobre la necesidad de tapar huecos en las vías de otros sectores, y se anuncia la creación de un podcast semanal titulado “Habla con Ale”, que contará con invitados.
Horas después de que el video se viralizara, Alexandra Jara emitió un comunicado oficial rechazando categóricamente el material difundido. La gobernadora explicó que el contenido fue manipulado con tecnologías de inteligencia artificial con el propósito de tergiversar la información y dañarla moralmente y políticamente. Ella aclaró que dicho material no guarda relación alguna con la realidad y representa un intento de desinformación para afectar su honra y desviar la atención del trabajo que realiza en territorio.
Además, anunció que tomará acciones legales contra las personas responsables de la creación, difusión y promoción de este video falso, entendiendo que estas acciones vulneran sus derechos e imagen pública.
En el mismo contexto, Hernán Yaguana Romero, experto en inteligencia artificial consultado por Diario Crónica, explicó que para detectar la manipulación de audios a través de IA es necesario analizar los rangos de frecuencias naturales y artificiales con software especializado como Adobe Audition. El proceso incluye identificar alteraciones o recreaciones artificiales y estimar un veredicto de veracidad con un margen aproximado del 80%.
Este caso refleja la complejidad que enfrentan figuras públicas ante la proliferación de contenidos falsificados mediante IA, lo que plantea grandes retos para la defensa de la verdad y la reputación en la era digital.
Comentarios (0)