Mundo

EU advierte a tecnológicas sobre seguridad en desarrollo de la IA

La vicepresidenta Kamala Harris llamó a la responsabilidad ética, moral y legal a directivos de las firmas Microsoft, Alphabet y Google, Anthropic, y OpenAI.

inteligencia artificial

Para EU es importante

Para EU es importante "mitigar" los riesgos que la IA supone para los individuos.

EFE

Este jueves, la vicepresidenta de EU, Kamala Harris, advirtió a los directivos de las cuatro firmas estadounidenses al frente del desarrollo de la IA, que deben garantizar la seguridad de los productos que usen ese sistema y también responder a un deber moral.

"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense", dijo la vicepresidenta en un comunicado.

Harris se pronunció tras haber recibido en la Casa Blanca a los consejeros delegados de Microsoft, Satya Nadella; Alphabet y Google, Sundar Pichai; Anthropic, Dario Amodei, y OpenAI, Sam Altman.

"Los avances en tecnología siempre han presentado oportunidades y riesgos, y la IA no es diferente. Es una de las tecnologías más poderosas de la actualidad, con el potencial de mejorar la vida de las personas y abordar algunos de los mayores desafíos de la sociedad", remarcó.

Harris aludió a la manera en que esta tecnología puede aumentar drásticamente las amenazas a la seguridad y la protección, infringir los derechos civiles y la privacidad, y “erosionar la confianza pública y la fe en la democracia".

Lee también

Más esperanza que temor: la IA puede guiarnos a un mejor futuro

Alan Rodríguez
Los desarrollos tecnológicos en IA pueden ayudar a mejorar la sostenibilidad de las técnicas agrícolas.

"Mitigar" los riesgos actuales

Por su parte, el presidente Joe Biden subrayó que las compañías “tienen una responsabilidad fundamental de garantizar que sus productos son seguros antes de distribuirlos o presentarlos en público", indicó en un comunicado.

Tanto Biden como Harris hicieron hincapié en la importancia de "mitigar" los riesgos actuales y potencias que la IA pueda suponer para los individuos, la sociedad y la seguridad nacional.

La reunión se centró en tres áreas: la necesidad de que las compañías sean más transparentes con los políticos y el público sobre sus sistemas de IA; la importancia de evaluar, verificar y validar la seguridad de dichos sistemas; y la importancia de garantizar que la IA no cae en manos de "actores maliciosos" y es blanco de ataques.

La conversación con los cuatro directivos fue "franca y honesta", y dejó claro que es necesario que las plataformas que desarrollan la IA sean "más transparentes" sobre sus sistemas tanto con los políticos como con el público.

También se informó que el gobierno de EU emitirá nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales, para asegurar que respetan los derechos y la seguridad de los ciudadanos estadounidenses.