Sucesos

OpenAI detecta campañas de influencia encubierta de Rusia, China, Irán e Israel

Estas operaciones utilizaban los modelos de OpenAI para respaldar actividades engañosas en Internet 

Influencia encubierta

OpenAI, la empresa responsable de la herramienta de inteligencia artificial ChatGPT, ha revelado la identificación de campañas de influencia encubierta por parte de Rusia, China, Irán e Israel

Foto de Matheus Bertelli en Pexels

La empresa estadounidense OpenAI, la firma detrás de la popular herramienta de inteligencia artificial ChatGPT, advirtió este jueves que había identificado campañas de Rusia, China, Irán e Israel que utilizaban su tecnología para influir en el discurso político y ejecutar propaganda encubierta.

"En los últimos tres meses, hemos desmantelado cinco IO (influencias encubiertas) que utilizaban nuestros modelos para respaldar actividades engañosas en Internet", indicó el investigador principal del equipo de OpenAI, Ben Nimmo, en un informe sobre campañas de influencia encubiertas.

OpenAI citó la interrupción de dos operaciones rusas, una que publicaba contenido sobre Ucrania en internet y otra que operaba "principalmente en Telegram y tenía como objetivo Ucrania, Moldavia, los Estados bálticos y Estados Unidos".

La empresa estadounidense también identificó un actor chino persistente que publicaba contenido en internet "para elogiar a China y criticar a sus críticos"; y otro iraní lanzaba contenido en contra de Israel y Estados Unidos.

Además, se detectó una empresa comercial en Israel que generaba contenidos sobre el conflicto de Gaza y, en menor medida, la organización sindical Histadrut en Israel y las elecciones indias, reza el informe.

El contenido publicado por esas operaciones se centró en temas como la guerra en Ucrania y el conflicto en Gaza, aunque también abordaron asuntos como las elecciones generales de la India, la política en Europa y EU, además de críticas al Gobierno de China por parte de disidentes y gobiernos extranjeros.

Los atacantes intentaban influir en la opinión pública a través de la generación de contenido con errores de idioma, la mezcla de contenido nuevo con antiguo y la generación de respuestas a publicaciones propias para fingir participación y generar mayor productividad.

Estas operaciones, aun así, "no parecen haberse beneficiado de una mayor participación o alcance de la audiencia como resultado de nuestros servicios", sentenció Nimmo.