
Se viven tiempos peligrosos y se observa inestabilidad en todo el planeta. El uso de las redes sociales ha avivado este fuego y ahora vemos como la creciente intolerancia se genera en parte, a través de las nuevas tecnologías digitales. Es cierto que la inteligencia artificial (IA) ofrece muchas ventajas como la capacidad de resumir grandes bloques de información, permitir la automatización y mejorar la productividad. Sin embargo, con estas nuevas capacidades tecnológicas también han surgido numerosos desafíos, incluyendo problemas de confianza y supervisión, la presencia de información falsa, obstáculos con los datos personales y riesgos para la privacidad. Mientras la IA tradicional se limitaba a reconocer patrones y a hacer predicciones basadas en datos existentes, la nueva IA –denominada generativa- no solo analiza y clasifica grandes cantidades de datos, sino que también puede crear contenido nuevo, desde texto hasta imágenes y música.
El dato relevante es que la IA generativa se centra en la producción de contenido novedoso que es prácticamente indistinguible del creado por los seres humanos. Los “modelos de lenguaje largo” son una combinación de algoritmos que generan texto predictivo a partir de una enorme cantidad de información. Cuando la IA generativa se alimenta con datos sesgados o polarizados, puede replicar y amplificar estereotipos, prejuicios y discursos discriminatorios. Al automatizar la generación de contenido, estas inteligencias artificiales pueden producir discursos de odio a gran escala. Plataformas como redes sociales y foros virtuales usan algoritmos de recomendación que combinados con la IA generativa pueden reforzar narrativas extremistas. Esto crea los “motores sociales del odio” que refuerzan visiones intolerantes, generando radicalización.
Distintas disciplinas como la filosofía analítica del lenguaje (Ludwing Wittgenstein), la teoría de los actos del habla (John Austin), la teoría de la performatividad (Judith Butler), el análisis crítico del discurso (Teun Van Dijk), así como la teoría postestructuralista (Jacques Derrida), han demostrado que ciertas expresiones no solo comunican ideas ofensivas sino lo que es peor, actúan sobre la realidad, reforzando estructuras de poder, exclusión y violencia simbólica. Todo discurso discriminante reproduce desigualdades, reafirma jerarquías sociales y da forma a la identidad de los sujetos, especialmente a los más vulnerables. Estas teorías se refieren a lo que ocurre cuando decir algo es, al mismo tiempo, hacer algo. Es por ello que el lenguaje no solo describe el mundo, sino que puede transformarlo en un sentido o en otro.
La tecnología no es neutral porque refleja las estructuras sociales y culturales en que se desarrolla. La desinformación y el odio representan uno de los principales peligros, ya que la IA generativa puede producir noticias falsas, “deepfakes” que son contenidos
audiovisuales manipulados, discursos polarizantes y contenido odioso a escala masiva. Actualmente, se debate: ¿quién debe asumir la responsabilidad por los contenidos generados?, ¿el usuario?, ¿el desarrollador?, o ¿la IA misma? Si un usuario utiliza IA generativa para producir contenido dañino o ilegal como incitación a la violencia, difamación o discurso de odio tiene responsabilidad directa, especialmente si hubo intención maliciosa. Las empresas que despliegan modelos generativos como OpenAI, Google o Meta, tienen responsabilidad técnica y ética por el diseño, entrenamiento y límites de uso del modelo.
Sin embargo, actualmente la IA no puede ser considerada legalmente responsable. De momento, no tiene agencia legal, intencionalidad y conciencia. Algunos expertos abogan por una nueva categoría legal en el futuro, una especie de “persona algorítmica limitada” pero esto todavía es materia del debate. La responsabilidad debe entenderse como un sistema de capas, donde cada parte tiene un deber proporcional al control que ejerce sobre el proceso. Validar los resultados de la IA generativa no solo es un reto técnico, sino un imperativo ético. El futuro de la confianza digital depende de nuestra capacidad para discernir entre desinformación asistida y discriminación automatizada