La administración Biden insta a las agencias estadounidenses a “aprovechar” los sistemas de inteligencia artificial para la seguridad nacional

La administración Biden está alentando a las agencias gubernamentales a aprovechar los sistemas de inteligencia artificial más avanzados para mantener una ventaja sobre sus rivales e impulsar la seguridad nacional.

La nueva directiva forma parte del primer memorando de seguridad nacional (NSM) sobre IA, emitido por el presidente Biden el jueves por la mañana.

“La premisa fundamental del NSM es que los avances en la frontera de la IA tendrán implicaciones significativas para la seguridad nacional y la política exterior en el futuro cercano”, dijeron a los periodistas altos funcionarios de la administración.

Al señalar a los adversarios extranjeros, incluida China, un alto funcionario de la administración dijo que un “fracaso” de Estados Unidos a la hora de aprovechar la IA podría poner a la nación en riesgo de sufrir una “sorpresa estratégica”.

“Existen aplicaciones de seguridad nacional muy claras de la inteligencia artificial, incluso en áreas como ciberseguridad y contrainteligencia, sin mencionar la amplia gama de logística y otras actividades que apoyan las operaciones militares”, dijo el funcionario en una llamada previa al memorando.

“Debido a que países como China reconocen oportunidades similares para modernizar y revolucionar sus propias capacidades militares y de inteligencia utilizando inteligencia artificial, es particularmente imperativo que aceleremos la adopción y el uso de capacidades de IA de vanguardia por parte de nuestra comunidad de seguridad nacional para mantener nuestra ventaja competitiva”, agregaron. .

La nota sigue La amplia orden ejecutiva de Biden publicado el año pasado sobre la IA y la gestión de sus riesgos. parte de ese orden requirió la creación de un memorando para describir el uso de la IA en las agencias de seguridad nacional y cómo pueden abordar los riesgos y beneficios de la tecnología.

El memorando servirá como “marco” para el AI Safety Institute, que fue lanzadodentro del Departamento de Comercio como parte de la orden de Biden, dijeron altos funcionarios de la administración. El memorando designa formalmente al AI Safety Institute como el principal puerto de contacto del país en lo que respecta a la tecnología emergente.

La conversación sobre las barreras de seguridad para la IA ha permeado a todo el gobierno, incluido el Congreso, donde los legisladores han celebrado varias audiencias y reuniones con expertos para comprender los riesgos y beneficios de la tecnología.

Tres principios guiaron el memorando, dijo un funcionario, incluido el objetivo de que Estados Unidos lidere el desarrollo mundial de una IA segura y confiable y un marco posterior para su uso.

El memorando ordena al gobierno de EE. UU. que tome medidas para mejorar la seguridad y la diversidad de las cadenas de suministro de chips y proporcione a los desarrolladores de IA ciberseguridad y contrainteligencia para mantener seguros sus inventos.

“Otro principio es que Estados Unidos debe aprovechar los sistemas de IA más avanzados con salvaguardias apropiadas para lograr objetivos de seguridad nacional, y estamos ordenando que las agencias obtengan acceso a los sistemas de IA más poderosos y los pongan en uso, lo que a menudo implica esfuerzos sustanciales en adquisiciones”, dijo el funcionario.

El tercer principio es garantizar que el uso de la IA se alinee con los valores del gobierno, dijo el funcionario. Se publicó un documento complementario junto con el memorando para especificar cómo las agencias pueden y no pueden utilizar la IA.

Esto incluye orientación sobre cómo el ejército y otras agencias pueden evitar que la IA se utilice irresponsablemente para causar daño, agregaron los funcionarios, afirmando que hay numerosos usos prohibidos enumerados en el marco.

Estos usos incluyen aquellos que pretenden suprimir ilegalmente la libertad de expresión o eliminar la participación humana en ciertas decisiones sobre armas nucleares.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here