Hasta las personas que lo conocen estaban desconcertadas cuando escucharon la voz de Michal Simecka conversando con una conocida periodista. En un video que circuló en Facebook e Instagram, se podía escuchar a ese candidato del Partido Progresista diciendo que compraría votos para ganar las elecciones en Eslovaquia. También se le oía decir que, si llegaba a ser primer ministro, aumentaría el precio de la cerveza.
Esos audios, elaborados con recursos de inteligencia artificial, eran falsos y se difundieron dos días antes de las elecciones en Eslovaquia, a fines de septiembre pasado. El triunfador fue el prorruso Robert Fico. Simecka, vicepresidente del Parlamento Europeo y partidario de estrechar las relaciones con Europa, quedó en segundo lugar. Nunca se sabrá cuántos votos perdió debido a la falsificación de su voz.
El empleo de programas de inteligencia artificial generativa en la creación de contenidos falsos, amenaza la transparencia en la información política y la confianza en los procesos democráticos. En las campañas políticas siempre han existido mentiras. Desde hace años se ha conocido la fabricación de escenas y audios impostados. Pero hoy en día no se requiere de una capacitación técnica sofisticada para crear contenidos con sistemas de inteligencia artificial (IA). Por otra parte, los videos, imágenes y audios elaborados con esos recursos tienen mucha mejor calidad que los que se podían elaborar hasta ahora.
El año pasado, cuando comenzaba la agresión rusa contra Ucrania, circularon videos que mostraban al presidente Zelensky llamando a sus compatriotas para que se rindieran. Hace medio año, en Florida, los publicistas contratados por el gobernador DeSantis difundieron un video en donde aparecían abrazándose el expresidente Trump y el doctor Anthony Fauci, antiguo responsable del combate a la pandemia. En febrero de este año, circuló un video en donde la senadora demócrata Elizabeth Warren decía que a los republicanos les deberían prohibir que votaran.
Esos tres videos eran falsos. Los rusos intentaron mostrar a Zelensky en una actitud de derrota. A Trump, quienes lo rebasan por la derecha (que sí los hay) en el Partido Republicano, lo querían desacreditar exhibiéndolo en una actitud amistosa con el respetable Dr. Fauci, con quien se confrontó por el apego de ese médico a las orientaciones científicas durante la pandemia. A Warren, simplemente pretendían difamarla.
Los tres videos fueron elaborados con programas de IA. A los contenidos hechos de esa manera, que falsifican semblante, voz y/o ademanes, se les denomina “deepfake” que es algo así como engaños profundos. En Eslovaquia, el departamento de verificación de contenidos (fact-checking) de la agencia de noticias AFP determinó que los audios del ahora ex candidato Simecka eran falsos. Para entonces, ya habían circulado ampliamente. La empresa Meta, propietaria de Facebook e Instagram, colocó sobre ellos un anuncio que indicaba que posiblemente eran contenidos alterados con IA, pero no los retiró de esas redes.
Los contenidos deepfake, cuando se emplean para influir en elecciones, buscan reforzar las apreciaciones adversas a un candidato y sembrar dudas entre los ciudadanos que no tienen una opinión política definida. Con todo y lo exagerados que puedan ser, esos contenidos les parecen verosímiles a quienes quieren creer en ellos y acentúan la polarización que hoy en día existe en muchas sociedades.
La circulación de deepfakes, por otra parte, puede erosionar de tal manera la credibilidad en las informaciones sobre asuntos políticos que, cuando se difundan denuncias auténticas, con videos o audios que registren hechos reales, los personajes así evidenciados pueden decir que se trata de acusaciones falsas, fabricadas con inteligencia artificial.
Los actores políticos están reaccionando con demasiada lentitud a los riesgos que implica el uso de IA para crear deepfakes. Muchos gobernantes y legisladores temen que, si proponen medidas para atajar la creación de esos contenidos, se les considere como censores. Otros, simplemente, no entienden ese asunto. También habrá quienes estén dispuestos a emplear tales recursos para desacreditar a sus contrarios, de la misma manera que con o sin IA difunden calumnias y campañas negras.
En Estados Unidos, varias organizaciones, encabezadas por el grupo Public Citizen, han solicitado a la Comisión Federal de Elecciones que prohiba el uso de IA para alterar o simular acciones o declaraciones de candidatos o partidos. Esa Comisión podría apoyarse, reinterpretándola, en una disposición legal que sanciona la “tergiversación fraudulenta” de las declaraciones de un candidato o vocero de un partido.
Una de las medidas para dificultar el uso de deepfake, sería que todas las empresas de IA estuvieran obligadas a colocar una etiqueta digital que permitiera identificar a los contenidos elaborados con esa tecnología. Varias firmas de ese campo, entre otras Adobe y Microsoft, han diseñado una marca de agua que registraría cómo fue realizado y qué cambios ha tenido un contenido digital.
Por otra parte, la ambiciosa legislación que se ha discutido en la Unión Europea contempla una disposición similar, para que todos los contenidos hechos con IA puedan ser reconocidos como tales. La semana pasada el grupo de trabajo que creó el Parlamento Europeo aprobó un borrador de Ley de IA que será presentado a los legisladores. El camino para que esa Ley sea realidad aún demorará, al menos, varios meses. En Estados Unidos, la Orden Ejecutiva sobre IA que el presidente Biden firmó en noviembre, incluye facultades para que el Departamento de Comercio establezca una marca de agua digital en los contenidos hechos con sistemas de esa índole. No se trata de una ley, sino de medidas administrativas.
En México, los riesgos que implica la creación de contenidos falsos con recursos de IA han sido ignorados, tanto por autoridades electorales como por legisladores. Entre ellos, hasta ahora se prefiere exhortar a empresas y usuarios de IA para que se ciñan a códigos de ética. Eso estaría bien, pero la ética no reemplaza a las leyes.
La IA trae indudables beneficios. Sus riesgos,no pueden ser eludidos únicamente con previsiones legales. Pero la confusión que los deepfake suscitan en las campañas electorales puede atemperarse con la obligación para colocar etiquetas digitales en los contenidos artificiales, la sanción a quienes difamen con o sin IA y por, otra parte, la verificación de contenidos dudosos por parte de periodistas profesionales e independientes.
Copyright © 2023 La Crónica de Hoy .