La tecnología que distorsiona rostros y voces distorsiona también el voto

Columna de opinión, por: Andrés Alfaro, Subdirector del Departamento de Ingeniería en Informática y Ciencias de la Computación.

A pocos meses de las elecciones presidenciales y parlamentarias, la ciudadanía estará expuesta a  una avalancha de información sobre los distintos candidatos y candidatas. Sin embargo, no toda esa  información será veraz. La presencia de deepfakes, fake news y bots jugará un papel cada vez más  protagónico en la difusión de contenidos falsos o manipulados, dificultando discernir lo real de lo  fabricado. Según Yuval Harari, una democracia solo puede funcionar si se garantizan dos  condiciones fundamentales: un debate público y libre sobre asuntos clave, y un mínimo de orden  social y confianza en las instituciones. Pero ¿qué tan posible es cumplir con estas condiciones cuando un ecosistema de desinformación digital, potenciada por la inteligencia artificial en especial  la generativa, amenaza precisamente esos pilares democráticos? 

El informe State of Deepfakes 2023 de la empresa Security Hero reveló un aumento del 550% en la  creación de deepfakes desde 2019, siendo la mayoría de contenido pornográfico que afectaba  exclusivamente a mujeres. En 2024, la misma empresa analizó el impacto de los deepfakes en las  elecciones estadounidenses, arrojando cifras alarmantes: el 81,5% de los votantes afirmó que este  tipo de videos les hizo cuestionar su decisión de voto, un 36% cambió completamente su voto, y un  74,7% expresó preocupación por su influencia en las elecciones. Los efectos principales fueron  escepticismo, desconfianza y enojo. 

En Chile, aunque no existen estudios cuantitativos sobre su impacto en el voto, el 11 de abril del  presente año, se realizó el seminario “Uso de la IA en campañas electorales y sus efectos  democráticos”. En este, el doctor Rafael Rubio (U. Complutense de Madrid) presentó su libro  Inteligencia Artificial y campañas electorales algorítmicas, donde advierte sobre campañas electorales, caracterizada por el uso intensivo de IA plantea serios riesgos para la democracia. Entre  los principales riesgos está la sobrecarga de información, que genera confusión y dificulta distinguir  lo verdadero de lo falso. Los algoritmos de redes sociales tienden a reforzar emociones intensas,  negativas y creencias previas, lo que aumenta la polarización. Además, la segmentación extrema  hace que cada grupo reciba mensajes distintos, afectando la igualdad en el acceso a la información.  También puede haber discriminación tecnológica hacia ciertos grupos, y se recurre al “hackeo  cognitivo” mensajes personalizados que influyen en nuestras decisiones sin que lo notemos 

En este encuentro, también se llevó a cabo un panel denominado “Una elección en otro entorno  informativo”, Pamela Figueroa, presidenta del Consejo Directivo del Servel, destacó que el Servel  ya trabaja en monitoreo de redes, sanciones por desinformación y gobernanza de la información  electoral. En esa misma ocasión, Sebastián Valenzuela (UC) presentó un informe del International  Panel on the Information Environment (IPIE), que monitoreó procesos electorales en 50 países con  elecciones nacionales durante 2023 (Chile no fue incluido, ya que solo tuvo elecciones regionales).  El estudio reveló que en el 80% de los países analizados se detectó el uso de inteligencia artificial  generativa en campañas políticas. De estos casos, el 90% correspondía a la creación de contenido,  como textos y propaganda visual. De manera alarmante, el 46% de estos materiales no tenía autoría  identificable, y un 20% fue atribuido a actores extranjeros. Además, el 69% de los contenidos  fueron catalogadas como nocivas para el proceso democrático. 

¿Pero qué es este ecosistema de desinformación digital que pone en riesgo la calidad del debate  público y la estabilidad de nuestras democracias? Los deepfakes son contenidos audiovisuales  (imágenes, videos y audio) generados mediante inteligencia artificial generativa que pueden simular  con gran realismo rostros, voces y escenas falsas. Se caracterizan por su alta verosimilitud, lo que  dificulta distinguirlos de materiales reales. Aunque tienen usos positivos en áreas como el cine o la  educación. También se utilizan para difundir desinformación, manipular la opinión pública y 

desacreditar a figuras públicas mediante videos o audios falsos. Además, estos contenidos  contribuyen a fenómenos como el ciberacoso, el fraude digital, las estafas financieras y los ataques  de desprestigio. Las fake news son informaciones falsas o engañosas difundidas intencionalmente  para manipular la opinión pública, desprestigiar o generar clics. Suelen tener titulares  sensacionalistas, apelan a las emociones y circulan en redes sociales. Buscan influir políticamente,  obtener beneficios económicos o dañar reputaciones. Los bots son programas que automatizan  tareas repetitivas. En redes sociales, pueden simular interacciones humanas para difundir mensajes,  manipular opiniones o viralizar desinformación. También existen bots útiles, como los de atención  al cliente. Pero en contextos maliciosos, son usados para propagar fake news y deepfakes. 

Algunos ejemplos reales demuestran el impacto de estas tecnologías en procesos democráticos. En  la República Checa, un deepfake de audio difundido pocos días antes de las elecciones alteró el  resultado, ya que su falsedad se comprobó solo después de la votación. En México, la circulación de  varios deepfakes durante las primarias generó desconfianza ciudadana, y un candidato utilizó esta  excusa para desviar una acusación de corrupción. En Rumanía, una masiva campaña de  desinformación con decenas de miles de cuentas falsas llevó a la anulación de las elecciones, debido  a la falta de reacción oportuna por parte del ente electoral. 

Pero ¿cómo es que se propaga tan rápido la información?, según el libro, La era del capitalismo de  vigilancia de Shoshana Zuboff. La autora, expone que los algoritmos de redes sociales como  Facebook e Instagram no son neutrales, están diseñados para recolectar datos sobre cada acción del  usuario: clics, «me gusta», comentarios, tiempo de permanencia, ubicación, uso del dispositivo,  incluso expresiones emocionales con el fin de predecir comportamientos futuros y modificar  conductas para fines comerciales. Mediante inteligencia artificial, estos datos se procesan para  anticipar lo que haremos, clasificarnos según nuestro valor comercial y segmentarnos en grupos con  patrones similares. Así, no te muestran lo que nosotros elegimos ver, sino aquello que  probablemente aumente nuestro tiempo de uso y nuestra respuesta emocional: refuerzan nuestras creencias, manipulan nuestro estado de ánimo y reorganizan el contenido para alterar nuestra percepción. Todo esto responde a un modelo conocido como economía de la atención, cuyo  objetivo no es solo captar tu tiempo, sino influir activamente en nuestras decisiones: inducirnos a  comprar, modificar nuestras rutinas o empujarnos hacia ciertos productos, ideas o comportamientos.  Si una imagen genera más clics en nosotros que otra, el sistema aprende y se adapta para maximizar  ese impacto. En este modelo, los usuarios no son los clientes, sino la materia prima; los verdaderos  clientes son los anunciantes, empresas de marketing, aseguradoras, actores políticos y agencias  gubernamentales que pagan por esa capacidad de influencia. 

Es innegable que el ecosistema actual de desinformación digital, amplificado por el uso malicioso  de la inteligencia artificial, especialmente de la IA Generativa, puede interferir en un debate público  transparente y debilitar la confianza en las instituciones democráticas. ¿Qué hacer frente a este  escenario? A pocos meses de las elecciones, comprender qué es la inteligencia artificial, cómo  funciona y cómo puede ser utilizada con fines engañosos es más urgente que nunca. Para proteger  nuestro voto y participar de manera informada, resulta esencial verificar la información (fact checking), desarrollar pensamiento crítico y adoptar un escepticismo informado: contrastar fuentes,  desconfiar de contenidos sospechosamente perfectos y exigir transparencia en el uso de estas  tecnologías 

Finalmente, cabe preguntarse: ¿por qué las personas creemos en estos contenidos? ¿Qué vacíos  institucionales o deficiencias en la formación ciudadana permiten que la desinformación tenga tal 

impacto? La inteligencia artificial no solo es capaz de distorsionar imágenes, sino también de alterar  las estructuras del conocimiento y del poder en las que se sostiene nuestra democracia.

Compartir
Ir al contenido