Mundo

Open AI sufrió el robo de sus datos internos en 2023, reporta The New York Times

Un hacker habría accedido a detalles sobre diseño de las tecnologías de la desarrolladora de IA, la cual no informó sobre el incidente a las autoridades

ciberseguridad

Los ejecutivos de OpenAI no consideraron el robo de sus datos como una amenaza a la seguridad nacional.

Los ejecutivos de OpenAI no consideraron el robo de sus datos como una amenaza a la seguridad nacional.

Foto tomada de coingeek.com

OpenAI vio violada su seguridad interna, luego de que el año pasado un hacker accedió a los sistemas de mensajería interna en OpenAI y robó detalles sobre el diseño de las tecnologías de IA de la compañía, según informó The New York Times.

El hacker obtuvo detalles de discusiones en un foro en línea donde los empleados hablaban sobre las últimas tecnologías de OpenAI, según el informe, que citaba a dos personas familiarizadas con el incidente.

Sin embargo, no ingresaron a los sistemas donde OpenAI, la empresa detrás del popular chatbot ChatGPT, alberga y desarrolla su IA, agregó el informe.

Lee también

China lidera el mundo con seis veces más patentes de IA generativa que EU: ONU

Alan Rodríguez
China ha tomado la delantera en la carrera por la IA generativa.

Silencio ante la violación

Los ejecutivos de OpenAI, respaldada por Microsoft Corp (MSFT.O), informaron tanto a los empleados en una reunión general en abril del año pasado como a la junta de la compañía sobre la violación, según el informe.

Los ejecutivos decidieron no compartir la noticia públicamente, ya que no se había robado información sobre clientes o socios.

Los ejecutivos de OpenAI no consideraron el incidente como una amenaza a la seguridad nacional, creyendo que el hacker era un individuo privado sin vínculos conocidos con un gobierno extranjero, según el informe.

La compañía con sede en San Francisco no informó a las agencias federales de aplicación de la ley sobre la violación, agregó.

En mayo, OpenAI dijo que había interrumpido cinco operaciones de influencia encubierta que buscaban usar sus modelos de inteligencia artificial para “actividades engañosas” en Internet, lo que suscitó preocupaciones sobre la seguridad y el posible mal uso de la tecnología.

La administración de Joe Biden estaba a punto de abrir un nuevo frente en su esfuerzo por proteger la tecnología de IA de EU de China y Rusia con planes preliminares para establecer salvaguardias alrededor de los modelos de IA más avanzados, incluidos ChatGPT.

En mayo, 16 empresas que desarrollan IA se comprometieron en una reunión global a desarrollar la tecnología de manera segura en un momento en que los reguladores están luchando por mantenerse al día con la rápida innovación y los riesgos emergentes.