If incontrolado inteligencia artificial general—o IA “parecida a Dios”— se vislumbra en el horizonte, ahora estamos a mitad de camino. Cada día, el reloj se acerca más a un posible escenario apocalíptico.
Por eso presenté el Reloj de seguridad AI mes pasado. Mi objetivo es simple: quiero dejar claro que los peligros de una AGI descontrolada son reales y están presentes. La lectura actual del Reloj (faltan 29 minutos para la medianoche) es una medida de cuán cerca estamos del punto de inflexión crítico en el que la AGI descontrolada podría generar riesgos existenciales. Si bien todavía no se ha producido ningún daño catastrófico, la vertiginosa velocidad del desarrollo de la IA y las complejidades de la regulación significan que todas las partes interesadas deben mantenerse alerta y comprometidas.
Esto no es alarmismo; se basa en datos concretos. El AI Safety Clock rastrea tres factores esenciales: la creciente sofisticación de las tecnologías de IA, su creciente autonomía y su integración con los sistemas físicos.
Estamos viendo avances notables en estos tres factores. Los más importantes están sucediendo en el aprendizaje automático y las redes neuronales, donde la IA ahora supera a los humanos en áreas específicas como el reconocimiento de imágenes y voz y el dominio de juegos complejos. como ire incluso pasando pruebas como exámenes de la escuela de negocios y Entrevistas de codificación de Amazon.
Leer más: Nadie sabe cómo probar la seguridad de la IA
A pesar de estos avances, la mayoría de los sistemas de IA actuales todavía dependen de la dirección humana. como se señaló por el Instituto Stanford para la Inteligencia Artificial Centrada en el Humano. Están diseñados para realizar tareas estrictamente definidas, guiados por los datos y las instrucciones que proporcionamos.
Dicho esto, algunos sistemas de IA ya están mostrando signos de independencia limitada. Vehículos autónomos tomar decisiones en tiempo real sobre navegación y seguridad, mientras algoritmos de recomendación en plataformas como YouTube y Amazon sugieren contenidos y productos sin intervención humana. Pero no estamos en el punto de una autonomía total; todavía existen obstáculos importantes, desde garantizar la seguridad y la supervisión ética hasta lidiar con la imprevisibilidad de los sistemas de IA en entornos no estructurados.
En este momento, la IA permanece en gran medida bajo control humano. Todavía no se ha integrado completamente en los sistemas críticos que mantienen nuestro mundo en funcionamiento (redes energéticas, mercados financieros o armas militares) de una manera que le permita operar de forma autónoma. Pero no nos equivoquemos, vamos en esa dirección. Las tecnologías impulsadas por la IA ya están logrando avances, particularmente en el ejército con sistemas como drones autónomosy en sectores civiles, donde la IA ayuda a optimizar consumo de energía y ayuda con comercio financiero.
Una vez que la IA obtiene acceso a infraestructuras más críticas, los riesgos se multiplican. Imaginemos que la IA decide cortar el suministro eléctrico de una ciudad, manipular los mercados financieros o desplegar armas militares, todo ello sin supervisión humana alguna o limitada. Es un futuro que no podemos permitirnos que se materialice.
Pero no son sólo los escenarios apocalípticos los que debemos temer. El lado más oscuro de las capacidades de la IA ya se está dando a conocer. Las campañas de desinformación impulsadas por IA son distorsionar el discurso público y desestabilizar las democracias. Un ejemplo notorio son las elecciones presidenciales estadounidenses de 2016, durante las cuales la Agencia de Investigación de Internet de Rusia utilizó bots automatizados en plataformas de redes sociales difundir contenidos divisivos y engañosos.
Los deepfakes también se están convirtiendo en una problema grave. En 2022, vimos un ejemplo escalofriante cuando un video deepfake del presidente ucraniano Volodímir Zelenski surgió, retratándolo falsamente pidiendo la rendición durante la invasión rusa. El objetivo era claro: erosionar la moral y sembrar confusión. Estas amenazas no son teóricas: están ocurriendo ahora mismo y, si no actuamos, se volverán más sofisticadas y más difíciles de detener.
Si bien la IA avanza a la velocidad del rayo, la regulación se ha quedado atrás. Esto es especialmente cierto en los EE. UU., donde los esfuerzos para implementar leyes de seguridad de la IA han sido fragmentado en el mejor de los casos. La regulación a menudo se ha dejado en manos de los estados, lo que ha dado lugar a un mosaico de leyes con diferente eficacia. No existe un marco nacional cohesivo para regir el desarrollo y la implementación de la IA. La reciente decisión del gobernador de California, Gavin Newsom, de vetar un proyecto de ley de seguridad de la IApor temor a que obstaculice la innovación y empuje a las empresas tecnológicas a otra parte, solo resalta cuán atrasadas están las políticas.
Leer más: Regular la IA es más fácil de lo que cree
Necesitamos un enfoque global coordinado para la regulación de la IA: un organismo internacional para monitorear el desarrollo de la AGI, similar a la Agencia Internacional de Energía Atómica para la tecnología nuclear. La IA, al igual que la energía nuclear, es una tecnología sin fronteras. Si incluso un país desarrolla AGI sin las salvaguardias adecuadas, las consecuencias podrían extenderse a todo el mundo. No podemos permitir que las lagunas en la regulación expongan a todo el planeta a riesgos catastróficos. Aquí es donde la cooperación internacional se vuelve crucial. Sin acuerdos globales que establezcan límites claros y garanticen el desarrollo seguro de la IA, corremos el riesgo de sufrir una carrera de armamentos hacia el desastre.
Al mismo tiempo, no podemos hacer la vista gorda ante las responsabilidades de empresas como Google, Microsoft y OpenAI, empresas que están a la vanguardia del desarrollo de la IA. Cada vez más, existe la preocupación de que la carrera por el dominio de la IA, impulsada por intensa competencia y las presiones comerciales, podrían eclipsar los riesgos a largo plazo. OpenAI ha aparecido recientemente en los titulares al cambiar hacia una estructura con fines de lucro.
El pionero de la inteligencia artificial Geoffrey Hinton advertencia sobre la carrera entre Google y Microsoft fue claro: “No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo”.
Parte de la solución radica en construir mecanismos de seguridad en los sistemas de IA: “interruptores de apagado” o puertas traseras que permitirían a los humanos intervenir si un sistema de IA comienza a comportarse de manera impredecible. california Ley de seguridad de la IA incluía disposiciones para este tipo de salvaguardia. Estos mecanismos deben incorporarse a la IA desde el principio, no agregarse como una ocurrencia tardía.
No se puede negar el los riesgos son reales. Estamos a punto de compartir nuestro planeta con máquinas que podrían igualar o incluso superar la inteligencia humana, ya sea que eso suceda en un año o diez. Pero no estamos indefensos. La oportunidad de guiar el desarrollo de la IA en la dirección correcta todavía está a nuestro alcance. Podemos asegurar un futuro en el que la IA sea una fuerza para el bien.
Pero el tiempo corre.