Los científicos de IA advierten que podría volverse incontrolable “en cualquier momento”

El líder mundial Científicos de IA Instan a los gobiernos del mundo a trabajar juntos para regular la tecnología antes de que sea demasiado tarde.

Tres ganadores del Premio Turing, básicamente el Premio Nobel de la informática, que ayudaron a encabezar la investigación y el desarrollo de la IA, se unieron a una docena de científicos destacados de todo el mundo para firmar un carta abierta que exigía crear mejores salvaguardias para avanzar la IA.

Los científicos afirmaron que, a medida que la tecnología de IA avanza rápidamente, cualquier error o mal uso podría traer graves consecuencias para la raza humana.

“La pérdida del control humano o el uso malintencionado de estos sistemas de IA podrían tener consecuencias catastróficas para toda la humanidad”, escribieron los científicos en la carta. También advirtieron que con la El rápido ritmo del desarrollo de la IAEstos “resultados catastróficos” podrían ocurrir cualquier día.

Los científicos describieron los siguientes pasos para comenzar a abordar de inmediato el riesgo del uso malintencionado de la IA:

Organismos gubernamentales de seguridad de la IA

Los gobiernos deben colaborar en materia de seguridad de la IA. Algunas de las ideas de los científicos incluían alentar a los países a crear autoridades específicas de IA que respondan a los “incidentes” y riesgos de IA dentro de sus fronteras. Lo ideal sería que esas autoridades cooperaran entre sí y, a largo plazo, se debería crear un nuevo organismo internacional para evitar el desarrollo de modelos de IA que planteen riesgos para el mundo.

“Este organismo garantizaría que los estados adopten e implementen un conjunto mínimo de medidas efectivas de preparación en materia de seguridad, incluidos el registro de modelos, la divulgación y los dispositivos de alerta”, se lee en la carta.

Compromisos de seguridad de los desarrolladores de IA

Otra idea es exigir a los desarrolladores que garanticen la seguridad de sus modelos y prometan que no cruzarán las líneas rojas. Los desarrolladores se comprometerían a no crear IA “que pueda replicarse de forma autónoma, mejorar, buscar poder o engañar a sus creadores, o que permitan construir armas de destrucción masiva y realizar ciberataques”, como se expuso en una declaración de los principales científicos durante una reunión en Pekín el año pasado.

Investigaciones independientes y comprobaciones tecnológicas sobre IA

Otra propuesta es crear una serie de fondos globales de seguridad y verificación de la IA, financiados por gobiernos, filántropos y corporaciones que patrocinarían investigaciones independientes para ayudar a desarrollar mejores controles tecnológicos sobre la IA.

Entre los expertos que imploraron a los gobiernos que actuaran en materia de seguridad de la IA se encontraban tres ganadores del premio Turing, entre ellos Andrés Yaoel mentor de algunos de los empresarios tecnológicos más exitosos de China, Yoshua Bengio, uno de los científicos informáticos más citados del mundo, y Geoffrey Hintonquien enseñó al cofundador y ex científico jefe de OpenAI Ilya Sutskever y que pasó una década trabajando en aprendizaje automático en Google.

Cooperación y ética de la IA

En la carta, los científicos elogiaron la cooperación internacional ya existente en materia de IA, como por ejemplo Reunión de mayo Entre los líderes de Estados Unidos y China se reunieron en Ginebra para analizar los riesgos de la inteligencia artificial. Sin embargo, dijeron que se necesita más cooperación.

Los científicos sostienen que el desarrollo de la IA debería ir acompañado de normas éticas para los ingenieros, similares a las que se aplican a los médicos o abogados. Los gobiernos deberían pensar en la IA menos como una nueva tecnología emocionante y más como un bien público global.

“Colectivamente, debemos prepararnos para evitar los riesgos catastróficos que podrían llegar en cualquier momento”, decía la carta.

Boletín recomendado
Ficha de datos: Manténgase al tanto del negocio de la tecnología con un análisis minucioso sobre los nombres más importantes de la industria.
Regístrate aquí.

Fuente