Columna de opinión, por: Andrés Alfaro, Subdirector del Departamento de Ingeniería en Informática y Ciencias de la Computación.
A pocos meses de las elecciones presidenciales y parlamentarias, la ciudadanía estará expuesta a una avalancha de información sobre los distintos candidatos y candidatas. Sin embargo, no toda esa información será veraz. La presencia de deepfakes, fake news y bots jugará un papel cada vez más protagónico en la difusión de contenidos falsos o manipulados, dificultando discernir lo real de lo fabricado. Según Yuval Harari, una democracia solo puede funcionar si se garantizan dos condiciones fundamentales: un debate público y libre sobre asuntos clave, y un mínimo de orden social y confianza en las instituciones. Pero ¿qué tan posible es cumplir con estas condiciones cuando un ecosistema de desinformación digital, potenciada por la inteligencia artificial en especial la generativa, amenaza precisamente esos pilares democráticos?
El informe State of Deepfakes 2023 de la empresa Security Hero reveló un aumento del 550% en la creación de deepfakes desde 2019, siendo la mayoría de contenido pornográfico que afectaba exclusivamente a mujeres. En 2024, la misma empresa analizó el impacto de los deepfakes en las elecciones estadounidenses, arrojando cifras alarmantes: el 81,5% de los votantes afirmó que este tipo de videos les hizo cuestionar su decisión de voto, un 36% cambió completamente su voto, y un 74,7% expresó preocupación por su influencia en las elecciones. Los efectos principales fueron escepticismo, desconfianza y enojo.
En Chile, aunque no existen estudios cuantitativos sobre su impacto en el voto, el 11 de abril del presente año, se realizó el seminario “Uso de la IA en campañas electorales y sus efectos democráticos”. En este, el doctor Rafael Rubio (U. Complutense de Madrid) presentó su libro Inteligencia Artificial y campañas electorales algorítmicas, donde advierte sobre campañas electorales, caracterizada por el uso intensivo de IA plantea serios riesgos para la democracia. Entre los principales riesgos está la sobrecarga de información, que genera confusión y dificulta distinguir lo verdadero de lo falso. Los algoritmos de redes sociales tienden a reforzar emociones intensas, negativas y creencias previas, lo que aumenta la polarización. Además, la segmentación extrema hace que cada grupo reciba mensajes distintos, afectando la igualdad en el acceso a la información. También puede haber discriminación tecnológica hacia ciertos grupos, y se recurre al “hackeo cognitivo” mensajes personalizados que influyen en nuestras decisiones sin que lo notemos
En este encuentro, también se llevó a cabo un panel denominado “Una elección en otro entorno informativo”, Pamela Figueroa, presidenta del Consejo Directivo del Servel, destacó que el Servel ya trabaja en monitoreo de redes, sanciones por desinformación y gobernanza de la información electoral. En esa misma ocasión, Sebastián Valenzuela (UC) presentó un informe del International Panel on the Information Environment (IPIE), que monitoreó procesos electorales en 50 países con elecciones nacionales durante 2023 (Chile no fue incluido, ya que solo tuvo elecciones regionales). El estudio reveló que en el 80% de los países analizados se detectó el uso de inteligencia artificial generativa en campañas políticas. De estos casos, el 90% correspondía a la creación de contenido, como textos y propaganda visual. De manera alarmante, el 46% de estos materiales no tenía autoría identificable, y un 20% fue atribuido a actores extranjeros. Además, el 69% de los contenidos fueron catalogadas como nocivas para el proceso democrático.
¿Pero qué es este ecosistema de desinformación digital que pone en riesgo la calidad del debate público y la estabilidad de nuestras democracias? Los deepfakes son contenidos audiovisuales (imágenes, videos y audio) generados mediante inteligencia artificial generativa que pueden simular con gran realismo rostros, voces y escenas falsas. Se caracterizan por su alta verosimilitud, lo que dificulta distinguirlos de materiales reales. Aunque tienen usos positivos en áreas como el cine o la educación. También se utilizan para difundir desinformación, manipular la opinión pública y
desacreditar a figuras públicas mediante videos o audios falsos. Además, estos contenidos contribuyen a fenómenos como el ciberacoso, el fraude digital, las estafas financieras y los ataques de desprestigio. Las fake news son informaciones falsas o engañosas difundidas intencionalmente para manipular la opinión pública, desprestigiar o generar clics. Suelen tener titulares sensacionalistas, apelan a las emociones y circulan en redes sociales. Buscan influir políticamente, obtener beneficios económicos o dañar reputaciones. Los bots son programas que automatizan tareas repetitivas. En redes sociales, pueden simular interacciones humanas para difundir mensajes, manipular opiniones o viralizar desinformación. También existen bots útiles, como los de atención al cliente. Pero en contextos maliciosos, son usados para propagar fake news y deepfakes.
Algunos ejemplos reales demuestran el impacto de estas tecnologías en procesos democráticos. En la República Checa, un deepfake de audio difundido pocos días antes de las elecciones alteró el resultado, ya que su falsedad se comprobó solo después de la votación. En México, la circulación de varios deepfakes durante las primarias generó desconfianza ciudadana, y un candidato utilizó esta excusa para desviar una acusación de corrupción. En Rumanía, una masiva campaña de desinformación con decenas de miles de cuentas falsas llevó a la anulación de las elecciones, debido a la falta de reacción oportuna por parte del ente electoral.
Pero ¿cómo es que se propaga tan rápido la información?, según el libro, La era del capitalismo de vigilancia de Shoshana Zuboff. La autora, expone que los algoritmos de redes sociales como Facebook e Instagram no son neutrales, están diseñados para recolectar datos sobre cada acción del usuario: clics, «me gusta», comentarios, tiempo de permanencia, ubicación, uso del dispositivo, incluso expresiones emocionales con el fin de predecir comportamientos futuros y modificar conductas para fines comerciales. Mediante inteligencia artificial, estos datos se procesan para anticipar lo que haremos, clasificarnos según nuestro valor comercial y segmentarnos en grupos con patrones similares. Así, no te muestran lo que nosotros elegimos ver, sino aquello que probablemente aumente nuestro tiempo de uso y nuestra respuesta emocional: refuerzan nuestras creencias, manipulan nuestro estado de ánimo y reorganizan el contenido para alterar nuestra percepción. Todo esto responde a un modelo conocido como economía de la atención, cuyo objetivo no es solo captar tu tiempo, sino influir activamente en nuestras decisiones: inducirnos a comprar, modificar nuestras rutinas o empujarnos hacia ciertos productos, ideas o comportamientos. Si una imagen genera más clics en nosotros que otra, el sistema aprende y se adapta para maximizar ese impacto. En este modelo, los usuarios no son los clientes, sino la materia prima; los verdaderos clientes son los anunciantes, empresas de marketing, aseguradoras, actores políticos y agencias gubernamentales que pagan por esa capacidad de influencia.
Es innegable que el ecosistema actual de desinformación digital, amplificado por el uso malicioso de la inteligencia artificial, especialmente de la IA Generativa, puede interferir en un debate público transparente y debilitar la confianza en las instituciones democráticas. ¿Qué hacer frente a este escenario? A pocos meses de las elecciones, comprender qué es la inteligencia artificial, cómo funciona y cómo puede ser utilizada con fines engañosos es más urgente que nunca. Para proteger nuestro voto y participar de manera informada, resulta esencial verificar la información (fact checking), desarrollar pensamiento crítico y adoptar un escepticismo informado: contrastar fuentes, desconfiar de contenidos sospechosamente perfectos y exigir transparencia en el uso de estas tecnologías
Finalmente, cabe preguntarse: ¿por qué las personas creemos en estos contenidos? ¿Qué vacíos institucionales o deficiencias en la formación ciudadana permiten que la desinformación tenga tal
impacto? La inteligencia artificial no solo es capaz de distorsionar imágenes, sino también de alterar las estructuras del conocimiento y del poder en las que se sostiene nuestra democracia.