
La expansión acelerada de la inteligencia artificial está transformando el ecosistema informativo y amplificando riesgos como la desinformación y los deepfakes. En este contexto, la Oficina de la UNESCO en Ecuador impulsa espacios de reflexión como el ciclo “Democracia algorítmica”, del cual surge esta conversación con la Dra Leslie Salgado, especializada en ética de la inteligencia artificial y en el impacto de la tecnología sobre los medios y la desinformación.
En la última década, el ecosistema informativo global ha experimentado transformaciones aceleradas impulsadas por la expansión de la inteligencia artificial (IA) generativa, la automatización de contenidos y la creciente intermediación algorítmica. Estos cambios han ampliado el acceso a información, pero también han generado nuevos riesgos: desde la viralización de noticias falsas hasta la proliferación de deepfakes de alta precisión y la automatización de operaciones de influencia que impactan directamente en la calidad del debate público. Cada día, las aplicaciones de inteligencia artificial (IA) generativa se vuelven más sofisticadas logrando producir textos, imágenes, audios y videos que tornan cada vez más difícil el proceso de verificación de la información.
Por ello, la UNESCO ha reiterado que la desinformación, los discursos de odio y la manipulación digital representan amenazas directas para la conversación democrática y para el ejercicio de los derechos fundamentales. La Organización subraya la importancia de fortalecer la alfabetización mediática e informacional, promover la transparencia de los sistemas algorítmicos y asegurar que las tecnologías emergentes no socaven la integridad democrática. Ante fenómenos como los deepfakes o la aparición de agentes autónomos de IA, UNESCO recuerda que sin información verificada, sin diálogo abierto y sin pluralidad de voces, la democracia no puede sostenerse.
En este marco, y con el propósito de contribuir a una reflexión pública informada, la Oficina de la UNESCO en Ecuador ha coorganizado el Ciclo de conferencias “Democracia algorítmica”, junto al Área de Letras y Estudios Culturales de la Universidad Andina Simón Bolívar. En su cuarto encuentro, “La IA y la reorganización del poder mediático”, especialistas analizaron cómo los sistemas algorítmicos están redefiniendo las dinámicas informativas y la formación de la opinión pública. En esa mesa participaron Santiago Nieto (Informe Confidencial), José Rivera (UASB E), Jorge Cruz (PUCE) y Leslie Salgado (Universidad de Calgary), con la moderación de Indira Salazar (UNESCO Ecuador).
La entrevista que sigue nace de ese espacio de diálogo y del compromiso de UNESCO Ecuador por situar en la conversación pública las reflexiones más urgentes sobre IA, medios y democracia. La entrevistada, Leslie Salgado, es doctora en Comunicación y Medios por la Universidad de Calgary, especializada en ética de la inteligencia artificial y en el impacto de la tecnología sobre los medios y la desinformación. Combina su trabajo académico con experiencia profesional en organismos multilaterales y en el campo periodístico.
En las páginas que siguen, presentamos su análisis sobre los desafíos emergentes en torno a la desinformación impulsada por IA y sus efectos en la deliberación democrática.
¿Cuál considera que ha sido el impacto de la inteligencia artificial (IA) sobre el fenómeno de la desinformación en el mundo contemporáneo?
Leslie Salgado:
Aunque en los últimos años, sobre todo a raíz de la creciente influencia de las tecnologías algorítmicas sobre el consumo de información, el debate sobre la desinformación ha crecido, no se trata de un fenómeno nuevo. De hecho, los estudiosos del tema ubican los primeros récords sobre desinformación en la representación que hacía el emperador romano Julio César de la “amenaza gala”. Lo que sí ha cambiado, y de manera vertiginosa, es la escala, la velocidad y la sofisticación con que la información maliciosa se produce y se distribuye.
Recordemos lo que sucedió durante la pandemia de COVID 19, que obligó a la UNESCO a acuñar el concepto de “infodemia” (entendida como la sobreabundancia de información —verdadera o falsa— que dificulta a las personas identificar fuentes confiables y tomar decisiones informadas), para nombrar algo que ya no cabía en las categorías anteriores. En ese contexto, entre 2020 y 2021 sufrimos una avalancha de información maliciosa alrededor del COVID 19. Hoy, con la irrupción de la Inteligencia Artificial (IA) Generativa, incluso la noción de infodemia empieza a quedarse corta porque la IA Generativa contribuye a crear información maliciosa a una velocidad que no habíamos visto hasta ahora.
¿Cuál es el rol específico de la IA generativa y los grandes modelos de lenguaje en la expansión de la desinformación?
Leslie Salgado:
Desde hace ya varias décadas estamos hablando sobre cómo las tecnologías algorítmicas han reconfigurado cada etapa del proceso informativo, desde la generación de contenido, pasando por su diseminación, hasta la interacción con las audiencias. Sin embargo, antes de noviembre de 2022, cuando fue lanzado ChatGPT, la influencia algorítmica sobre la desinformación operaba mayoritariamente a través de las burbujas informativas, los buscadores y las redes sociales. Con el lanzamiento al público de ChatGPT y de otras herramientas de IA Generativa como MidJourney, ese panorama cambió.
Primero, precisemos que la IA Generativa es una categoría amplia que incluye sistemas capaces de producir texto, imágenes, audio y video. Dentro de ella, los grandes modelos de lenguaje (LLMs por sus siglas en inglés), como ChatGPT o Claude, han transformado el panorama de producción de contenido. Con los grandes modelos de lenguaje accesibles de forma relativamente fácil, cualquier actor, con recursos mínimos, puede generar contenido malicioso a gran escala, adaptado a audiencias específicas, con una velocidad y a un volumen antes impensables.
Una investigación académica reciente identifica cuatro formas en las cuales la IA Generativa y particularmente los LLMs impactan sobre la desinformación: reducción de las barreras de entrada a la tecnología; mayor capacidad de producción de contenido malicioso; incrementada microsegmentación de las audiencias; y más dificultad para detectar operaciones de influencia durante procesos electorales.
Es importante no olvidar que cuando hablamos de LLMs hablamos de modelos fundacionales que pueden ser la base de otros servicios. No pensemos únicamente en el chatbot con el cual interactuamos, sino en modelos de lenguaje que permiten crear otras herramientas digitales, entre las cuales pueden existir servicios para crear información maliciosa a gran escala. Esas capacidades facilitan la expansión de un fenómeno que los investigadores llaman Desinformación como Servicio (DaaS).
¿Qué implica exactamente la “Desinformación como Servicio”?
Leslie Salgado:
¿De qué hablamos cuando nos referimos a Desinformación como Servicio? Un mercado organizado con operaciones de creación y diseminación de contenido malicioso, con clientes, plataformas organizadoras y trabajadores distribuidos globalmente. El caso del “Team Jorge”, expuesto por una investigación de más de veinte medios internacionales en 2023, es una muestra de cómo pueden operar estos esquemas donde la desinformación se manufactura con ayuda de la IA, se compra y se vende. La investigación periodística reveló que la empresa participó en 33 campañas presidenciales, con 27 “intervenciones exitosas”. Que se trate de un negocio estructurado, incluso con métricas de éxito, dice mucho sobre el estado actual del problema.
Este caso nos dice además que las elecciones se han convertido en un blanco predilecto de las operaciones de desinformación, y la IA Generativa contribuye, desafortunadamente, a apuntar con menos costos a esa meta.
El caso de las elecciones de 2024 en México es ilustrativo. Recordemos que circularon aparentes noticias, por ejemplo, de que la entonces candidata presidencial Claudia Sheinbaum supuestamente planeaba cerrar la Basílica de Guadalupe o abolir la propiedad privada. Cuando vemos el empacado de esas noticias falsas, es claro que no requerían sofisticación tecnológica porque con IA Generativa, modelos de lenguaje y otras herramientas digitales no es difícil generar y hacer circular masivamente este tipo de contenido.
¿Qué riesgos representan los deepfakes hoy para el ecosistema informativo?
Leslie Salgado:
Pienso que más allá de los textos, los deepfakes representan hoy la frontera más preocupante del impacto de la IA Generativa sobre el ecosistema informativo. Y digo esto por varias causas. Primero, el nivel de producción: hay estadísticas que indican que los deepfakes crecieron un 550% entre 2019 y 2023. Segundo, por el nivel de sofisticación de los resultados: si comparamos deepfakes producidos hace un año con los de hoy, 2026, los detalles gracias a los cuales podíamos detectarlos van desapareciendo. Las sombras, el brillo, la coherencia de la luz, los ojos de las figuras van siendo cada vez más realistas. Y es muy difícil que los detectores se mantengan al ritmo de avance de los productores.
La investigación muestra que incluso los deepfakes detectables tienen un impacto negativo sobre la evaluación que el público hace de una figura política. Se les llama “dividendo del mentiroso” por su capacidad de sembrar la duda. Hoy las audiencias saben que los deepfakes existen, que son sofisticados y por lo tanto empiezan a dudar de lo auténtico. Como hemos visto, esa duda se usa como arma política tratando de encuadrar como deepfake contenido verídico.
Pero no toda la amenaza viene de la sofisticación tecnológica. En América Latina, los llamados cheapfakes, manipulaciones con IA más simples, han demostrado una capacidad notable para circular masivamente. En Argentina, según la plataforma Chequeado, estos videos con manipulación de IA fueron los protagonistas de las elecciones de 2025, generando decenas de denuncias ante la Fiscalía Electoral.
Usted ha hablado de los agentes de IA como un “nuevo escalón” de riesgo. ¿Qué los diferencia de la IA Generativa tradicional?
Leslie Salgado:
El siguiente escalón de esta escalada donde la IA influye crecientemente en la desinformación —y del cual apenas empezamos a ver señales— son los agentes de IA. Antes hablamos de la IA Generativa como una herramienta con la cual se pueden producir textos, audios, imágenes; pero los agentes de la IA son actores. Se trata de otro nivel, y esta diferencia no es menor. Por ejemplo, los agentes tienen capacidad de manejar varios navegadores al mismo tiempo, conectar numerosos chats y manejar archivos en nuestras computadoras.
Por supuesto, tienen usos beneficiosos, pero pensando en el ecosistema informativo y la desinformación los efectos pueden ser fatales. Un artículo publicado en la revista Science a comienzos de este año alerta sobre capacidades emergentes de los agentes de IA como la fabricación de consenso sintético o el envenenamiento de chatbots con narrativas falsas. Esta publicación alerta cómo un enjambre de agentes maliciosos puede sostener identidades persistentes en el tiempo, coordinar objetivos compartidos con distintas “personalidades”, adaptarse en tiempo real a las reacciones de las audiencias y operar simultáneamente en múltiples plataformas, casi sin supervisión humana.
Esta proyección me lleva a pensar en lo que la teoría crítica de la tecnología nos ha alertado por décadas: la ambivalencia de la tecnología. En este caso, una tecnología que está generando mucho entusiasmo en la industria —los agentes de la IA— puede tener efectos devastadores sobre el debate cívico y la democracia, sobre la verdad construida sobre hechos. Lo más preocupante es que esto no es ciencia ficción, pues para finales de 2026 se proyecta que las identidades no humanas superarán en número a las humanas en los entornos digitales.
Para concluir con esta entrevista, quisiera consultarle ¿Cómo se relaciona este escenario con la economía de la atención digital?
Leslie Salgado:
Todo esto intersecta de manera crítica con la economía de la atención digital y lo que UNESCO llama la plataformización de la democracia. Por un lado, el acceso a la información está mediado por algoritmos cuyo interés no es la calidad del contenido sino su capacidad de generar clics y engagement. Como sabemos, esos algoritmos nos mantienen además en burbujas informativas, aislados de visiones contrarias o alejadas de nuestros sesgos.
Por otro lado, la IA Generativa puede producir desinformación masivamente, rápido y dirigida a audiencias específicas. Esa capacidad se articula perfectamente con la lógica de los algoritmos. La combinación es, para usar una palabra no exagerada, alarmante. El resultado no es solo que el contenido falso, emotivo, no factual circula más rápidamente; es también que los espacios donde podríamos encontrarnos a conversar, a compartir hechos, a debatir desde perspectivas diversas, se erosionan cada vez más y desaparecen.
En palabras de UNESCO, la democracia requiere una ciudadanía bien informada y capaz de dialogar. Esa posibilidad está bajo una presión sin precedentes. De ahí que preguntas como qué formas de alfabetización mediática son efectivas en este contexto, cómo se produce y circula la desinformación en la región o cómo medir el impacto real de la desinformación en las elecciones no son solo preguntas para la investigación académica, sino preguntas urgentes para la supervivencia de la conversación democrática.
Quito., 09 marzo 2026.
Nota:
El ciclo de reflexión “Democracia algorítmica” es una iniciativa organizada conjuntamente por el Área de Estudios Sociales y Globales de la Universidad Andina Simón Bolívar, Sede Ecuador, y la Oficina de la UNESCO en Ecuador. Este ciclo se concibió como un espacio de debate interdisciplinario orientado a analizar el impacto creciente de la inteligencia artificial en las democracias contemporáneas, la seguridad, las políticas públicas, los medios de comunicación y los procesos de formación de la opinión pública. El ciclo está previsto para cinco sesiones, desarrolladas a lo largo de 2025 y el primer semestre de 2026, y contempla como resultado final la publicación de un libro académico que reúna las memorias de estos cinco encuentros.