OpenAI describe el enfoque de seguridad nacional

OpenAI redobló la importancia de que Estados Unidos mantenga el liderazgo en el desarrollo de inteligencia artificial en un nuevo esquema del enfoque de la compañía hacia la seguridad nacional.

El creador de ChatGPT, en una publicación de blog el jueves, Expuso cómo la compañía ve su papel en la seguridad nacional luego de los memorandos de seguridad nacional sobre IA de la administración Biden.

El memorando, firmado por el presidente Biden, marcó el primer memorando de seguridad nacional sobre IA. Alentó a las agencias gubernamentales a aprovechar los sistemas de inteligencia artificial para mantener una ventaja sobre los adversarios extranjeros e impulsar la seguridad nacional, al mismo tiempo que enfatizaba la importancia de un despliegue seguro.

OpenAI dijo que considera el memorando como un “importante paso adelante” para garantizar que la IA beneficie a “la mayor cantidad de personas posible” de una manera que “defienda los valores democráticos”.

“La IA es una tecnología transformadora que puede usarse para fortalecer los valores democráticos o socavarlos. Por eso creemos que las democracias deben seguir tomando la iniciativa en el desarrollo de la IA, guiadas por valores como la libertad, la justicia y el respeto por los derechos humanos”, afirmó. dijo la publicación.

“Y es por eso que creemos que los países que comparten estos valores deberían entender cómo, con las salvaguardias adecuadas, la IA puede ayudar a proteger a las personas, disuadir a los adversarios e incluso prevenir conflictos futuros”, continuó la compañía.

El desarrollador de IA señaló que hay casos de seguridad nacional que ya se alinean con su misión, señalando la colaboración de OpenAI con DARPA (o Agencia de Proyectos de Investigación Avanzada de Defensa) y los Laboratorios Nacionales de EE. UU.

La empresa evalúa posibles asociaciones de seguridad nacional con un marco específico que prioriza “los valores democráticos, la seguridad, la responsabilidad y la rendición de cuentas”.

Estos usos también conllevan la necesidad de barreras de seguridad, dijo OpenAI, haciendo referencia a las políticas de uso de la compañía que prohíben el uso de su tecnología “para dañar a las personas, destruir propiedades o desarrollar armas”.

A principios de este mes, el gigante tecnológico dijo que continúa Ver intentos de ciberdelincuentes de utilizar sus modelos de inteligencia artificial para contenido falso para interferir con las elecciones de este año.

“Creemos que el gobierno de los EE. UU. y las empresas estadounidenses como la nuestra tienen la oportunidad de tomar la iniciativa en el establecimiento de normas sobre cómo se utiliza la IA de manera segura y responsable en el contexto de la seguridad nacional, del mismo modo que lideramos el desarrollo de la tecnología en sí”, afirmó. escribió la empresa. “A medida que exploramos posibles asociaciones con el gobierno de Estados Unidos y sus aliados, queremos ayudar a establecer esas normas con transparencia y cuidado”.

La conversación sobre las barreras de seguridad para la IA se ha extendido por todo el gobierno en los últimos meses, incluido el Congreso, donde los legisladores han celebrado varias audiencias y reuniones con expertos para comprender los riesgos y beneficios de la tecnología.

Mientras OpenAI promociona su compromiso con la seguridad, los recientes cambios en el liderazgo y sus planes para reestructurarse como una empresa con fines de lucro. tiene algunos expertos cuestionando si la empresa potencialmente se apartará de estos valores.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here