Home Tecnología Silicon Valley debate si se debería permitir que las armas de IA...

Silicon Valley debate si se debería permitir que las armas de IA decidan matar

0
5
Silicon Valley debate si se debería permitir que las armas de IA decidan matar

A finales de septiembre, el cofundador de Shield AI, Brandon Tseng, juró que las armas en Estados Unidos nunca serían completamente autónomas, lo que significa que un algoritmo de IA tomaría la decisión final de matar a alguien. “El Congreso no quiere eso”, afirmó. El fundador de tecnología de defensa dijo a TechCrunch.. “Nadie quiere eso”.

Pero Tseng habló demasiado pronto. Cinco días después, el cofundador de Anduril, Palmer Luckey, expresó su apertura a las armas autónomas, o al menos un gran escepticismo ante los argumentos en su contra. Los adversarios de Estados Unidos “usan frases que suenan muy bien en un fragmento: Bueno, ¿no están de acuerdo en que un robot nunca debería poder decidir quién vive y quién muere?” suerte dijo durante una charla a principios de este mes en la Universidad Pepperdine. “Y mi punto para ellos es: ¿dónde está la autoridad moral en una mina terrestre que no puede distinguir entre un autobús escolar lleno de niños y un tanque ruso?”

Cuando se le pidió más comentarios, Shannon Prior, portavoz de Anduril, dijo que Luckey no quería decir que los robots deberían programarse para matar personas por sí solos, solo que le preocupaba que “las personas malas usaran una IA mala”.

En el pasado, Silicon Valley ha pecado de cauteloso. Tómelo del cofundador de Luckey, Trae Stephens. “Creo que las tecnologías que estamos construyendo hacen posible que los humanos tomen las decisiones correctas sobre estas cosas”. le dijo a Kara Swisher el año pasado. “Para que haya una parte responsable y responsable de todas las decisiones que, obviamente, podrían implicar letalidad”.

El portavoz de Anduril negó cualquier disonancia entre las perspectivas de Luckey (en la foto de arriba) y Stephens, y dijo que Stephens no quiso decir que un ser humano siempre debería tomar la decisión, sino simplemente que alguien es responsable.

Para ser justos, la postura del propio gobierno estadounidense es igualmente ambigua. Actualmente, el ejército estadounidense no compra armas totalmente autónomas; pero no prohíbe a las empresas fabricarlos ni les prohíbe explícitamente vender tales cosas a países extranjeros. El año pasado, EE.UU. liberado pautas actualizadas para la seguridad de la IA en el ejército que han sido respaldadas por muchos aliados de EE. UU. y requieren que los altos funcionarios militares aprueben cualquier nueva arma autónoma; sin embargo, las directrices son voluntarias (Anduril dijo que está comprometido a seguir las directrices), y los funcionarios estadounidenses han dicho continuamente que es “no es el momento adecuado” considerar cualquier prohibición vinculante de las armas autónomas.

El mes pasado, el cofundador de Palantir e inversor de Anduril, Joe Lonsdale, también mostró su voluntad de considerar armas totalmente autónomas. En un evento organizado por el grupo de expertos Hudson Institute, Lonsdale expresó su frustración porque esta pregunta se plantea como un sí o un no. En cambio, presentó una situación hipotética en la que China ha adoptado armas de inteligencia artificial, pero Estados Unidos tiene que “presionar el botón cada vez que dispara”. Animó a los formuladores de políticas a adoptar un enfoque más flexible sobre cuánta IA hay en las armas.

“Muy rápidamente te das cuenta de que mis suposiciones estaban equivocadas si simplemente pusiera una estúpida regla de arriba hacia abajo, porque soy un miembro del personal que nunca antes había jugado este juego”, dijo. “Podría destruirnos en la batalla”.

Cuando TC le pidió a Lonsdale más comentarios, enfatizó que las empresas de tecnología de defensa no deberían ser las que establezcan la agenda sobre la IA letal. “El contexto clave de lo que estaba diciendo es que nuestras empresas no hacen la política, y no quieren hacer la política: es trabajo de los funcionarios electos hacer la política”, dijo. “Pero sí necesitan educarse sobre los matices para hacer un buen trabajo”.

También reiteró su voluntad de considerar una mayor autonomía en materia de armas. “No es un binario como usted sugiere: 'completamente autónomo o no' no es la pregunta política correcta. Hay un dial sofisticado a lo largo de algunas dimensiones diferentes para lo que podría hacer un soldado y lo que hace el sistema de armas”, dijo. “Antes de que los formuladores de políticas implementen estas reglas y decidan dónde deben ajustarse los diales y en qué circunstancias, necesitan aprender el juego y saber qué podrían estar haciendo los malos y qué es necesario para ganar con vidas estadounidenses en juego”.

Activistas y grupos de derechos humanos han intentado durante mucho tiempo, sin éxito, establecer prohibiciones internacionales sobre armas letales autónomas, prohibiciones que Estados Unidos ha se resistió a firmar. Pero la guerra en Ucrania puede haber cambiado el rumbo contra los activistas, proporcionando a la vez un tesoro de datos de combate y un campo de batalla para que los fundadores de tecnología de defensa prueben. Actualmente, las empresas integran la IA en los sistemas de armas, aunque todavía requieren que un humano tome la decisión final de matar.

Mientras tanto, los funcionarios ucranianos han presionado para lograr una mayor automatización en las armas, con la esperanza de que les dé una ventaja sobre Rusia. “Necesitamos la máxima automatización”, dijo Mykhailo Fedorov, Ministro de Transformación Digital de Ucrania, en una entrevista con The New York Times. “Estas tecnologías son fundamentales para nuestra victoria”.

Para muchos en Silicon Valley y DC, el mayor temor es que China o Rusia lancen primero armas totalmente autónomas, lo que obligaría a Estados Unidos a intervenir. En un debate de la ONU sobre armas de IA el año pasado, un diplomático ruso se mostró notablemente tímido. “Entendemos que para muchas delegaciones la prioridad es el control humano” dijo. “Para la Federación Rusa, las prioridades son algo diferentes”.

En el evento del Instituto Hudson, Lonsdale dijo que el sector tecnológico debe encargarse de “enseñar a la Marina, enseñar al Departamento de Defensa, enseñar al Congreso” sobre el potencial de la IA para “con suerte, adelantarnos a China”.

Las empresas afiliadas de Lonsdale y Luckey están trabajando para lograr que el Congreso las escuche. Anduril y Palantir han gastado en total más de 4 millones de dólares en lobby este año, según OpenSecrets.

Fuente

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here