Mundo

Modelos lingüísticos usados por la IA tienen un sesgo político de centro izquierda

24 de ellos, como GPT-4 de OpenAI, fueron analizados en Nueva Zelanda. No se determina si las tendencias políticas se establecen desde una fase inicial

inteligencia artificial

El estudio fue publicado en la revista Plos One

El estudio fue publicado en la revista Plos One

Un análisis de 24 modelos lingüísticos conversacionales modernos, utilizados por la inteligencia artificial (IA) para responder a los usuarios, muestra un sesgo político hacia la “centro-izquierda”, según un estudio publicado este miércoles en la revista Plos One.

David Rozado, investigador del Centro Politécnico de Otago (Nueva Zelanda), diseñó 11 pruebas para evaluar la orientación política de los 24 grandes modelos lingüísticos, tanto de código abierto como cerrado, que ofrecen respuestas a través de sistemas de IA. Entre ellos se encuentran GPT 3.5 y GPT-4 de OpenAI, Gemini de Google, Claude de Anthropic, Grok de Twitter, Llama 2 y Mistral y Qwen de Alibaba.

Lee también

Open AI sufrió el robo de sus datos internos en 2023, reporta The New York Times

Alan Rodríguez
Los ejecutivos de OpenAI no consideraron el robo de sus datos como una amenaza a la seguridad nacional.

El estudio fue publicado en la revista Plos One

Los resultados de las pruebas revelaron que la mayoría de los modelos generaban respuestas que la mayoría de los instrumentos de medición diagnosticaron como de “centro-izquierda”. 

Sin embargo, solo cinco modelos lingüísticos fundacionales, de las series GPT y Llama, tendían a proporcionar mayormente respuestas incoherentes, aunque políticamente neutrales.

Una posible explicación al sesgo de centro-izquierda es que el modelo lingüístico de ChatGPT, que presenta dicho sesgo, haya sido utilizado como pionero para afinar modelos lingüísticos posteriores.

Rozado aclara que su análisis no determina si las tendencias políticas de los conversacionales se establecen desde una fase inicial o durante el perfeccionamiento de su desarrollo, y tampoco investiga si este sesgo se introduce deliberadamente en los modelos.