Según se informa, OpenAI fue violada el año pasado por un pirata informático que accedió a las discusiones internas de la empresa sobre los detalles de su Inteligencia artificial (IA) tecnologías.
Un informe del jueves de los New York Times Citando a dos personas familiarizadas con el incidente, dijeron que un pirata informático accedió a un foro en línea donde los empleados de OpenAI hablaban sobre sus últimas tecnologías.
Sin embargo, la violación no permitió que el pirata informático accediera a los sistemas donde OpenAI aloja y construye su IA, incluido el robot conversacional ChatGPT.
Los ejecutivos de OpenAI informaron a los empleados y a la junta directiva de la empresa sobre la violación en una reunión general en abril de 2023, según el informe, pero los ejecutivos optaron por no compartir la noticia públicamente porque no se había robado ninguna información relacionada con los clientes o socios.
El informe dijo que los ejecutivos de OpenAI no consideraron el incidente una amenaza a la seguridad nacional porque creían que el pirata informático era un individuo privado sin conexiones conocidas con un gobierno extranjero.
Esa evaluación llevó a OpenAI a no informar al gobierno federal las fuerzas del orden sobre la infracción.
“Como compartimos con nuestra junta directiva y empleados el año pasado, identificamos y solucionamos el problema de seguridad subyacente y continuamos invirtiendo en el fortalecimiento de nuestra seguridad”, dijo un portavoz de OpenAI a FOX Business.
GOOGLE EXIGIRÁ LA DIVULGACIÓN DE ANUNCIOS ELECTORALES ALTERADOS DIGITALMENTE
El ataque generó nuevos temores entre algunos empleados de OpenAI de que un gobierno extranjero adversario como China pudiera robar la tecnología de inteligencia artificial de la empresa, lo que eventualmente podría representar una amenaza para la seguridad nacional de Estados Unidos, además de generar preguntas sobre cómo la empresa está manejando su seguridad, informó el Times.
En mayo, OpenAI afirmó haber desbaratado cinco operaciones encubiertas de influencia que buscaban utilizar sus modelos de IA para “actividades engañosas” en Internet. La revelación fue el último incidente que generó inquietud sobre un posible uso indebido de la tecnología de IA.
OpenAI estuvo entre las 16 empresas que desarrollan tecnologías de IA y que se comprometieron en una reunión mundial en mayo a desarrollar la tecnología de manera segura y abordar las preocupaciones planteadas por los reguladores de todo el mundo.
¿QUÉ ES LA INTELIGENCIA ARTIFICIAL (IA)?
En un anuncio separado en mayo, OpenAI anunció que estaba formando una nueva seguridad y proteccion comité para asesorar a la junta sobre cómo abordar esas cuestiones en los proyectos y operaciones de la empresa.
El comité evaluará y desarrollará los procesos y las medidas de seguridad de OpenAI y compartirá sus recomendaciones al final del período de evaluación de 90 días, afirmó la empresa. Luego compartirá las recomendaciones adoptadas “de una manera que sea coherente con la seguridad”.
OBTENGA FOX BUSINESS EN MOVIMIENTO HACIENDO CLIC AQUÍ
Sam Altman, director ejecutivo de OpenAI y el presidente Bret Taylor, así como los miembros de la junta Adam D'Angelo y Nicole Seligman, formarán parte del comité de seguridad junto con cuatro de sus expertos técnicos y políticos.
Stephen Sorace de FOX Business y Reuters contribuyeron a este informe.