Silicon Valley se toma en serio el AGI; Washington también debería hacerlo

Inteligencia artificial general(máquinas que pueden aprender y realizar cualquier tarea cognitiva que un ser humano pueda) ha sido relegada durante mucho tiempo al ámbito de la ciencia ficción. Pero desarrollos recientes demostrar que el AGI ya no es una especulación lejana; es una realidad inminente que exige nuestra atención inmediata.

El 17 de septiembre, durante una reunión del Subcomité Judicial del Senado audiencia Titulado “Supervisión de la IA: perspectivas internas”, los denunciantes de las principales empresas de IA dieron la alarma sobre el rápido avance hacia la AGI y la flagrante falta de supervisión. Helen Tónerex miembro de la junta directiva de OpenAI y director de estrategia del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown, testificó que “la mayor desconexión que veo entre las perspectivas internas de la IA y las percepciones públicas de las empresas de IA es cuando se trata de la idea de inteligencia artificial general”. Continuó diciendo que las empresas líderes en inteligencia artificial, como OpenAI, Google y Anthropic, están “tratando la construcción de AGI como un objetivo totalmente serio”.

El cotestigo de Toner, William Saunders, un ex investigador de OpenAI que renunció recientemente después de perder la fe en que OpenAI actúe de manera responsable, se hizo eco de sentimientos similares a Toner, testificando que “empresas como OpenAI están trabajando para construir inteligencia artificial general” y que “están recaudando miles de millones de dólares para lograr este objetivo”.

Leer más: ¿Cuándo podría la IA ser más astuta que nosotros? Depende de a quién le preguntes

Los tres principales laboratorios de IA (OpenAI, Anthropic y Google DeepMind) son más o menos explícitos acerca de sus objetivos de AGI. La misión de OpenAI establece: “Garantizar que la inteligencia artificial general, es decir, sistemas altamente autónomos que superan a los humanos en la mayoría de los trabajos económicamente valiosos, beneficie a toda la humanidad”. Anthropic se centra en “construir sistemas de IA fiables, interpretables y orientables”, con el objetivo de lograr una “AGI segura”. Google DeepMind aspira a “resolver la inteligencia” y luego utilizar los sistemas de IA resultantes “para resolver todo lo demás”, y el cofundador Shane Legg afirma inequívocamente que espera que “la IA a nivel humano se apruebe a mediados de la década de 2020”. Nuevos participantes en la carrera de la IA, como xAI de Elon Musk y Safe Superintelligence Inc. de Ilya Sutskever.se centran de manera similar en AGI.

Los formuladores de políticas en Washington en su mayoría han descartado AGI como una exageración de marketing o un vago recurso metafórico que no debe tomarse literalmente. Pero la audiencia del mes pasado podría haber tenido un impacto como el discurso anterior de AGI no lo hizo. El senador Josh Hawley (R-MO), miembro de alto rango del subcomité, comentó que los testigos son “personas que han estado dentro de empresas (de IA), que han trabajado en estas tecnologías, que las han visto de primera mano, y yo podría simplemente observar a don “No tengo el interés creado en pintar ese panorama color de rosa y animar de la misma manera que lo tienen los ejecutivos (de las empresas de IA)”.

El senador Richard Blumenthal (D-CT), presidente del subcomité, fue aún más directo. “La idea de que dentro de 10 o 20 años AGI pueda ser más inteligente o al menos tan inteligente como los seres humanos ya no está tan lejos en el futuro. Está muy lejos de la ciencia ficción. Está aquí y ahora: uno a tres años ha sido la última predicción”, dijo. No se anduvo con rodeos sobre dónde reside la responsabilidad: “Lo que deberíamos aprender de las redes sociales, esa experiencia, es no confiar en las grandes tecnologías”.

El aparente cambio en Washington refleja una opinión pública que ha estado más dispuesta a considerar la posibilidad de la inminencia de AGI. en un Encuesta de julio de 2023 Realizado por el AI Policy Institute, la mayoría de los estadounidenses dijeron que pensaban que AGI se desarrollaría “dentro de los próximos 5 años”. Alrededor del 82% de los encuestados también dijo que deberíamos “ir lenta y deliberadamente” en el desarrollo de la IA.

Esto se debe a que lo que está en juego es astronómico. Saunders detalló que AGI podría conducir a ciberataques o la creación de “nuevas armas biológicas”, y Toner advirtió que muchas figuras destacadas de la IA creen que, en el peor de los casos, AGI “podría conducir literalmente a la extinción humana”.

A pesar de lo que está en juego, Estados Unidos casi no ha instituido supervisión regulatoria sobre las empresas que corren hacia AGI. Entonces, ¿dónde nos deja esto?

Primero, Washington necesita empezar a tomar en serio el AGI. Los riesgos potenciales son demasiado grandes para ignorarlos. Incluso en un buen escenario, la AGI podría trastornar las economías y desplazar millones de empleoslo que exige que la sociedad se adapte. En un mal escenario, AGI podría volverse incontrolable.

En segundo lugar, debemos establecer barreras regulatorias para sistemas de IA potentes. La regulación debe implicar transparencia gubernamental en ¿Qué está pasando con los sistemas de IA más potentes? que están siendo creados por empresas de tecnología. La transparencia gubernamental reducirá las posibilidades de que la sociedad sea sorprendida por una empresa de tecnología que desarrolla AGI antes de lo que nadie espera. Y se necesitan medidas de seguridad obligatorias para evitar que los adversarios estadounidenses y otros malos actores roben sistemas AGI de empresas estadounidenses. Estas medidas ligeras serían sensatas incluso si el AGI no fuera una posibilidad, pero la perspectiva de un AGI aumenta su importancia.

Leer más: Cómo debería ser un enfoque estadounidense para la regulación de la IA

En una parte particularmente preocupante del testimonio de Saunders, dijo que durante su tiempo en OpenAI hubo largos períodos en los que él o cientos de otros empleados podrían “evitar los controles de acceso y robar los sistemas de inteligencia artificial más avanzados de la compañía, incluido GPT-4”. .” Esta actitud laxa hacia la seguridad es bastante mala para la competitividad estadounidense hoy en día, pero es una forma absolutamente inaceptable de tratar a los sistemas en el camino hacia la AGI. Los comentarios fueron otro poderoso recordatorio de que no se puede confiar en que las empresas de tecnología se autorregulan.

Por último, la participación pública es esencial. AGI no es sólo una cuestión técnica; es social. El público debe estar informado e involucrado en los debates sobre cómo la AGI podría afectar nuestras vidas.

Nadie sabe cuánto tiempo nos queda hasta el AGI (lo que el senador Blumenthal llamó “la cuestión de los 64 mil millones de dólares”), pero la ventana para la acción puede estar cerrándose rápidamente. Algunas figuras de IA, incluido Saunders, creen que puede estar en tan solo tres años.

Ignorar los desafíos potencialmente inminentes de AGI no los hará desaparecer. Es hora de que los responsables de las políticas empiecen a dejar de pensar en la nube.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here