Cultura

El gran peligro de la IA que es el de la discriminación y el perfilamiento. Es decir que la IA hereda y amplifica sesgos de quien la programa y de la información que la alimenta

La Inteligencia artificial como arma de guerra

Artefacto Un dron de guerra.

Durante el último año el desarrollo de la inteligencia artificial dio pasos gigantescos y se dio a conocer como una herramienta para uso cotidiano. Abundan las polémicas sobre su utilización. Aquí algo que está en desarrollo y, por lo tanto, apenas comienza a ser analizado, como lo es su uso comoherramienta de guerra y represión, específicamente en el conflicto palestino-israelí.

En enero de 2025, The Washington Post, publicó un artículo que señalaba los vínculos entre el gobierno israelí y la empresa Google para el uso de herramientas de inteligencia artificial (TWP, 21701/2025). Esta colaboración no era nueva, en 2021 las empresas Google y Amazon firmaron con el ejérecito israelí un contrato por US $1200 millones para proporcionarle servicios de computación en la nube a través de su gobierno. Se le conoció como el Proyecto Nimbus. Sin embargo, fue a partir de los ataques del 7 de octubre de 2023 de las milicias de Hamas, que comenzaron los pedidos del ejército israelí para utilizar las herramientas de inteligencia artificial de estas empresas.

Así lo muestran los documentos obtenidos por The Washington Post, que detallan cómo el ministerio israelí presionó para utilizar urgentemente un servicio de Google llamado Vertex. Con él, los clientes pueden aplicar algoritmos de inteligencia artificial a sus propios datos.

Además, otros de esos documentos fechados en la primavera y el verano de 2024, muestran las solicitudes de empleados de Google para obtener acceso adicional a la tecnología de IA para las Fuerzas de Defensa de Israel (FDI).

El paso final fue que, en noviembre de 2024, cuando la Franja de Gaza estaba completamente destruida, las FDI solicitaron el acceso a la tecnología de inteligencia artificial Gemini, pues querían desarrollar su propio asistente de IA para procesar documentos y audios (TWP, 21701/2025).

El artículo del Washington Post no daba más información sobre cómo habían sido utilizadas estas tecnologías, pero un artículo publicado en la revista +972 a principios de marzo, dio más detalles en este sentido.

En una conferencia ocurrida en 2024, Chaked Roger Joseph Sayedoff, un oficial de inteligencia de la Unidad 8200, ya mencionada en otros artículos en este diario, explicó parte del proceso de la conformación de su sistema de IA: “Buscamos crear el conjunto de datos más grande posible, recopilando todos los datos que el Estado de Israel haya tenido alguna vez en árabe”. Pues según fuentes citadas por la revista, el chatbot de la Unidad 8200 ha sido entrenado con 100 mil millones de palabras en árabe obtenidas en parte a través de la vigilancia a gran escala de los palestinos por parte de Israel (+972, 4/3/2025).

Es decir, en lugar de que el chatbot israelí recurra a información en la red, se alimenta con la información de seguridad y espionaje que el Mossad y la Unidad 8200 han recopilado a lo largo de décadas (de forma ilegal o no), para analizar información y seleccionar objetivos militares y políticos.

Preguntando al chatbot Gemini de Google su “opinión” sobre el desarrollo de las aplicaciones de IA por parte del ejército israelí señala varias controversias. Por ejemplo, la violación masiva de la privacidad que implica esta app, pues: “La base de este sistema de IA se construye sobre años de espionaje masivo y secreto a la población palestina”. También habla sobre el desequilibrio de poder y control: “El desarrollo de esta IA por parte de Israel, una potencia ocupante, en relación con la población palestina, que vive bajo ocupación, exacerba un desequilibrio de poder ya existente”.

Pero lo más importante de lo que dice Gemini, es que advierte el gran peligro de la IA que es el de la discriminación y el perfilamiento. Es decir que la IA hereda y amplifica sesgos de quien la programa y de la información que la alimenta. “Si se alimenta con información recopilada en un contexto de conflicto y animosidad, y si el diseño del algoritmo no está extremadamente cuidado para evitar sesgos, existe un alto riesgo de que la IA genere perfiles estereotipados y discriminatorios de la población palestina”. Lo que ya ocurrió en Gaza en el caso de la utilización del programa Lavander (La Crónica 12/12/24), que seleccionó objetivos militares en la ofensiva actual causando miles de “víctimas colaterales”.

Y es que, las respuestas y análisis que proporciona la IA se basan en quién la programa, sus fines, prejuicios y estereotipos, pero también en la información que utiliza. Además, otro factor relacionado con los errores de la IA, son las “alucinaciones” que se refiere a situaciones en las que la IA genera información falsa o inventada, pero la presenta como si fuera verdadera. Esto puede incluir datos, citas o hechos que no existen. O de acuerdo con la información que consulte, tomar una dirección no esperada.

Lo anterior es evidente en el caso del bot FactFinderAI, desarrollado para hacer propaganda del gobierno israelí. El chatbot “pro-israelí” pronto se volvió contra sus creadores, incluido el propio gobierno israelí, llegando a llamar a sus soldados: “colonizadores blancos en el Israel del apartheid”. Los desarrolladores del bot han explicado que esto se debió a la información que el chatbot toma de las redes sociales y de la web.

A pesar de que desde diversos medios se ha denunciado la colaboración de Google con el ejército israelí y los serios cuestionamientos éticos que esta conlleva, la relación es cada vez más estrecha.

El 18 de marzo Google anunció que después de un año de negociaciones se había alcanzado un acuerdo definitivo para la adquisición de la empresa de ciberseguridad en la nube Wiz. Se trata de una empresa de origen israelí desarrollada por Assaf Rappaport y otros ex miembros de la Unidad de inteligencia militar 8200. El costo de la compra fue de US$30,000 millones, la cantidad más alta pagada por Google por un startup de este tipo.

Esto se suma al anuncio del Departamento de Estado de los Estados Unidos de que utilizará IA para seleccionar y, en su caso, revocar las visas de estudiantes extranjeros que se les identifique como partidarios de Hamas (Reuters, 6/03/2025). Por todo lo anterior, desde muchos sectores se comienza a hablar de la necesidad de legislar, de manera mundial, el uso de estas herramientas dados los peligros que conllevan y los errores en los que pueden incurrir. Aunque está por verse cuál será el organismo que pueda logar la norma que surja con ese fin.

Seminario Universitario de las Culturas de Medio Oriente

Tendencias