¿Cómo saber cuándo la IA es lo suficientemente poderosa como para ser peligrosa? Los reguladores intentan hacer los cálculos

¿Cómo saber si un inteligencia artificial ¿El sistema es tan poderoso que representa un peligro para la seguridad y no debería utilizarse sin una supervisión cuidadosa?

Para los reguladores que intentan poner límites a la IA, lo importante es sobre todo la aritmética. En concreto, un modelo de IA entrenado en 10 operaciones de coma flotante por segundo a la 26ª debe ser informado al gobierno de Estados Unidos y pronto podría desencadenar incluso más operaciones de IA. Requisitos más estrictos en California.

¿Qué dices? Bueno, si estás contando los ceros, son 100.000.000.000.000.000.000.000.000, o 100 septillones de cálculos por segundo, utilizando una medida conocida como flops.

Lo que esto indica a algunos legisladores y defensores de la seguridad de la IA es un nivel de poder computacional que podría permitir que la tecnología de IA en rápido avance cree o prolifere armas de destrucción masiva o lleve a cabo ciberataques catastróficos.

Quienes han elaborado dichas regulaciones reconocen que son un punto de partida imperfecto para distinguir a las empresas con mejor desempeño de la actualidad. sistemas de IA generativos —fabricadas en gran parte por empresas con sede en California como Anthropic, Google, Meta Platforms y OpenAI, fabricante de ChatGPT— de la próxima generación que podrían ser incluso más poderosas.

Los críticos han tachado los umbrales de arbitrarios: un intento de los gobiernos de regular las matemáticas.

“Diez fracasos elevados a veintiséis”, dijo el capitalista de riesgo Ben Horowitz en un podcast este verano. “Bueno, ¿y si ese es el tamaño del modelo que necesitas para, por ejemplo, curar el cáncer?”

Se firmó una orden ejecutiva La ley de seguridad de la IA aprobada por el presidente Joe Biden el año pasado depende de ese umbral. Lo mismo ocurre con la legislación de seguridad de la IA aprobada recientemente en California, que el gobernador Gavin Newsom tiene hasta el 30 de septiembre para firmarla o vetarla. California agrega una segunda métrica a la ecuación: los modelos de IA regulados también deben costar al menos 100 millones de dólares para construirse.

Siguiendo los pasos de Biden, la La amplia Ley de Inteligencia Artificial de la Unión Europea También mide las operaciones de punto flotante por segundo, o flops, pero establece un estándar diez veces más bajo, de 10 a la 25.ª potencia. Esto cubre algunos sistemas de IA que ya están en funcionamiento. El gobierno de China también ha estudiado la posibilidad de medir la potencia de procesamiento para determinar qué sistemas de IA necesitan salvaguardas.

Ningún modelo disponible públicamente cumple con el umbral más alto de California, aunque es probable que algunas empresas ya hayan comenzado a construirlos. Si es así, se supone que deben compartir ciertos detalles y precauciones de seguridad con el gobierno de Estados Unidos. Biden empleó una ley de la época de la Guerra de Corea para obligar a las empresas tecnológicas a alertar al Departamento de Comercio de Estados Unidos si están construyendo esos modelos de IA.

Los investigadores de IA siguen debatiendo cuál es la mejor manera de evaluar las capacidades de la última tecnología de IA generativa y cómo se compara con la inteligencia humana. Hay pruebas que evalúan la capacidad de la IA para resolver acertijos, razonar de forma lógica o predecir con rapidez y precisión qué texto responderá a la consulta de un chatbot de una persona. Esas mediciones ayudan a evaluar la utilidad de una herramienta de IA para una tarea determinada, pero no hay una forma sencilla de saber cuál es tan capaz como para suponer un peligro para la humanidad.

“Este cálculo, esta cifra fallida, por consenso general es lo mejor que tenemos en ese sentido”, dijo el físico Anthony Aguirre, director ejecutivo del Future of Life Institute, que ha abogado por la aprobación del Proyecto de Ley 1047 del Senado de California y otras normas de seguridad de la IA en todo el mundo.

La aritmética de punto flotante puede sonar sofisticada, “pero en realidad son solo números que se suman o multiplican”, lo que la convierte en una de las formas más simples de evaluar la capacidad y el riesgo de un modelo de IA, dijo Aguirre.

“La mayor parte de lo que hacen estas cosas es simplemente multiplicar grandes tablas de números”, dijo. “Solo basta con pensar en escribir un par de números en la calculadora y sumarlos o multiplicarlos. Y eso es lo que hacen: diez billones de veces o cien billones de veces”.

Sin embargo, para algunos líderes tecnológicos, se trata de una métrica demasiado simple y demasiado rígida. “No hay un respaldo científico claro” para utilizar esas métricas como indicador del riesgo, argumentó la científica informática Sara Hooker, que dirige la división de investigación sin fines de lucro de la empresa de inteligencia artificial Cohere, en un artículo publicado en julio.

“Los umbrales de cálculo tal como se implementan actualmente son miopes y es probable que no logren mitigar el riesgo”, escribió.

El capitalista de riesgo Horowitz y su socio comercial Marc Andreessen, fundadores de la influyente firma de inversión de Silicon Valley Andreessen Horowitz, han atacado La administración Biden así como los legisladores de California a favor de regulaciones sobre IA que, según argumentan, podrían acabar con una industria emergente de empresas emergentes de IA.

Para Horowitz, poner límites a “cuánto cálculo se permite hacer” refleja una creencia errónea de que solo habrá un puñado de grandes empresas que fabriquen los modelos más capaces y a las que se les pueden poner “aros en llamas frente a ellos y los saltarán y estará bien”.

En respuesta a las críticas, el patrocinador de la legislación de California envió una carta a Andreessen Horowitz este verano defendiendo el proyecto de ley, incluidos sus umbrales regulatorios.

La regulación de más de 10 elevado a 26 es “una manera clara de excluir de los requisitos de pruebas de seguridad a muchos modelos que sabemos, según la evidencia actual, que carecen de la capacidad de causar daños críticos”, escribió el senador estatal Scott Wiener de San Francisco. Los modelos existentes publicados públicamente “han sido probados para capacidades altamente peligrosas y no estarían cubiertos por el proyecto de ley”, dijo Wiener.

Tanto Wiener como la orden ejecutiva de Biden tratan la métrica como algo temporal que podría ajustarse más adelante.

Yacine Jernite, que trabaja en investigación de políticas en la empresa de inteligencia artificial Hugging Face, dijo que la métrica de los fracasos surgió de “buena fe” antes de la orden de Biden del año pasado, pero que ya está empezando a volverse obsoleta. Los desarrolladores de inteligencia artificial están haciendo más con modelos más pequeños que requieren menos potencia informática, mientras que los posibles daños de los productos de inteligencia artificial más utilizados no desencadenarán el escrutinio propuesto por California.

“Algunos modelos tendrán un impacto drásticamente mayor en la sociedad, y deberían cumplir con un estándar más alto, mientras que otros son más exploratorios y podría no tener sentido tener el mismo tipo de proceso para certificarlos”, dijo Jernite.

Aguirre dijo que tiene sentido que los reguladores sean ágiles, pero caracteriza cierta oposición al umbral de fracasos como un intento de evitar cualquier regulación de los sistemas de IA a medida que se vuelven más capaces.

“Todo esto está sucediendo muy rápido”, dijo Aguirre. “Creo que hay una crítica legítima de que estos umbrales no están reflejando exactamente lo que queremos que reflejen. Pero creo que es un argumento pobre pasar de eso a decir: ‘Bueno, simplemente no deberíamos hacer nada y simplemente cruzar los dedos y esperar que todo salga bien’”.

Fuente