Home Economía El premio Nobel Geoffrey Hinton hace sonar la alarma sobre la IA

El premio Nobel Geoffrey Hinton hace sonar la alarma sobre la IA

0
6
El premio Nobel Geoffrey Hinton hace sonar la alarma sobre la IA

Geoffrey Hinton es una paradoja andante: un arquetipo de cierto tipo de científico brillante.

El renombre de Hinton se solidificó el martes cuando ganó el premio nobel en física, junto a al científico estadounidense John Hopfield, por descubrir las redes neuronales y las vías informáticas que condujeron a los avances modernos en IA. Sin embargo, en los últimos años se ha convertido en definido por una contradicción: el descubrimiento que llevó a su aclamación es ahora una fuente de preocupación incesante.

Durante el año pasado, Hinton, apodado “el padrino de la IA”, advirtió repetida y enfáticamente sobre los peligros que podría causar la tecnología desatada por su descubrimiento. En su papel de Prometeo y Casandra, Hinton, como muchos científicos legendarios, estaba atrapado entre el deseo humano de lograr logros y el impulso humanista de reflexionar sobre las consecuencias de sus acciones. J. Robert Oppenheimer y Albert Einstein lucharon tortuosamente con la destrucción que causó su investigación atómica. Alfred Nobel, el inventor de la dinamita, quedó tan angustiado por cuál podría ser su legado que fundó una fundación para otorgar el premio homónimo que ganó Hinton.

“No veo un camino que garantice la seguridad”, Hinton dijo 60 minutos en 2023. “Estamos entrando en un período de gran incertidumbre, en el que nos enfrentamos a cosas que nunca antes habíamos afrontado”.

Gran parte de la preocupación de Hinton surge de la creencia de que la humanidad sabe terriblemente poco acerca de la inteligencia artificial y que las máquinas pueden ser más astutas que los humanos. “Estas cosas podrían volverse más inteligentes que nosotros y decidir tomar el control, y ahora debemos preocuparnos de cómo evitar que eso suceda”, afirmó. dicho en una entrevista con NPR.

Originario de Inglaterra, Hinton pasó gran parte de su vida profesional en Estados Unidos y Canadá. Fue en la Universidad de Toronto donde logró un gran avance que se convertiría en la base intelectual de muchos usos contemporáneos de la IA. En 2012, Hinton y dos estudiantes de posgrado (uno de los cuales era Ilya Sutskever, el ex científico jefe en OpenAI) construyó una red neuronal que podía identificar objetos básicos en imágenes. Google eventualmente compró una empresa que Hinton había iniciado basándose en la tecnología por 44 millones de dólares. Luego, Hinton trabajó en Google durante 10 años antes de jubilarse en 2023 para liberarse de cualquier restricción corporativa que pudiera haber limitado su capacidad de advertir al público sobre la IA. (Hinton no respondió a una solicitud de comentarios).

Hinton temía más que cualquier otra cosa el ritmo de progreso de la IA. “Mira cómo era hace cinco años y cómo es ahora”, Hinton dijo el New York Times el año pasado. “Toma la diferencia y propágala hacia adelante. Eso da miedo”.

Lo que le preocupaba era el potencial de los modelos de IA para enseñarse entre sí nueva información que sólo un modelo podría haber aprendido, lo que podría hacerse con una eficiencia considerablemente mayor que los humanos, según Hinton.

“Siempre que un (modelo) aprende algo, todos los demás lo saben”, Hinton dicho en 2023. “La gente no puede hacer eso. Si aprendo un montón de cosas sobre la mecánica cuántica y quiero que tú sepas todo eso sobre la mecánica cuántica, lograr que lo entiendas es un proceso largo y doloroso”.

Una de las opiniones más controvertidas de Hinton es que la IA puede, de hecho, “comprender” las cosas que hace y dice. De ser cierto, este hecho podría destruir gran parte de la sabiduría convencional sobre la IA. El consenso es que los sistemas de IA no necesariamente saben por qué hacen lo que hacen, sino que están programados para producir ciertos resultados en función de las indicaciones que se les dan.

Hinton tiene cuidado de decir en declaraciones públicas que la IA no es consciente de sí misma, como lo somos los humanos. Más bien, los mecanismos mediante los cuales los sistemas de IA aprenden, mejoran y, en última instancia, producen ciertos resultados significan que deben comprender lo que están aprendiendo. El ímpetu para que Hinton hiciera sonar la alarma fue cuando le pidió a un chatbot que explicara con precisión por qué un chiste que había inventado era divertido. de acuerdo a a cableado. Que un chatbot pudiera comprender las sutilezas del humor y luego transmitirlas claramente en sus propias palabras fue revelador en opinión de Hinton.

Mientras la humanidad corre hacia una línea de meta que prácticamente nadie entiende, Hinton teme que el control de la IA se le escape de las manos. Él imagina un escenario en el que los sistemas de inteligencia artificial escribirán código para alterar sus propios protocolos de aprendizaje y esconderse de los humanos. En un giro shakesperiano, habrán aprendido a hacerlo precisamente a partir de nuestros propios defectos.

“Podrán manipular a la gente”, dijo Hinton. 60 minutos en octubre de 2023. “Serán muy buenos para convencer a la gente, porque habrán aprendido de todas las novelas que se hayan escrito, de todos los libros de Maquiavelo, de todas las connivencias políticas, sabrán todo eso”.

Boletín recomendado
Ficha de datos: Manténgase al tanto del negocio de la tecnología con análisis detallados de los nombres más importantes de la industria.
Regístrese aquí.

Fuente

NO COMMENTS

LEAVE A REPLY

Please enter your comment!
Please enter your name here