La IA es el monstruo tecnológico más reciente que asusta a la gente sobre el futuro. Las preocupaciones legítimas sobre cosas como la capacitación ética, el impacto ambiental y las estafas que utilizan IA se transforman con demasiada facilidad en pesadillas de Skynet y Matrix. Con frecuencia se plantea la posibilidad de que la IA se vuelva sensible y derroque a la humanidad, pero, como señala el jefe de IA de Meta, Yann LeCun dijo El diario de Wall Streetla idea es una “completa tontería”. LeCun describió la IA como menos inteligente que un gato e incapaz de planear o incluso desear algo en absoluto, y mucho menos la caída de nuestra especie.
LeCun tiene razón en que la IA no planeará asesinar a la humanidad, pero eso no significa que no haya nada de qué preocuparse. Me preocupa mucho más que la gente dependa de la IA para ser más inteligente de lo que realmente es. La IA es sólo otra tecnología, lo que significa que no es buena ni mala. Pero la ley de las consecuencias no deseadas sugiere que confiar en la IA para tomar decisiones importantes que alteran la vida no es una buena idea.
Piense en los desastres y los cuasi desastres causados por confiar en la tecnología por encima de la toma de decisiones humana. El rápido comercio de acciones utilizando máquinas mucho más rápidas que los humanos ha causado más de un casi colapso de parte de la economía. Casi se produjo una fusión mucho más literal cuando un sistema de detección de misiles soviético falló y afirmó que se aproximaban ojivas nucleares. En ese caso, sólo un ser humano valiente a los mandos evitó el armagedón global.
Ahora imaginemos que la IA tal como la conocemos hoy continúa cotizando en el mercado de valores porque los humanos le dieron un control más completo. Luego imagine que la IA acepta la alerta de misil defectuoso y se le permite activar misiles sin intervención humana.
Se evitó el apocalpsis de la IA
Sí, suena descabellado que la gente confíe en una tecnología famosa por sus hechos alucinantes para estar a cargo de las armas nucleares, pero no está tan lejos de lo que ya ocurre. La voz de IA en el teléfono del servicio de atención al cliente podría haber decidido si recibe un reembolso antes de que tenga la oportunidad de explicar por qué se lo merece, y no hay ningún ser humano que lo escuche y pueda cambiar de opinión.
La IA solo hará aquello para lo que la entrenamos y utiliza datos proporcionados por humanos para hacerlo. Eso significa que refleja tanto nuestras mejores como nuestras peores cualidades. La faceta que se manifiesta depende de las circunstancias. Sin embargo, entregar demasiada toma de decisiones a la IA es un error en cualquier nivel. La IA puede ser de gran ayuda, pero no debería decidir si se contrata a alguien o si una póliza de seguro paga una operación. Deberíamos preocuparnos de que los humanos hagan un mal uso de la IA, accidental o no, reemplazando el juicio humano.
microsoftLa marca de los asistentes de IA como copilotos es excelente porque evoca a alguien que está ahí para ayudarte a lograr tus objetivos, pero que no los establece ni toma más iniciativa de la que tú permites. LeCun tiene razón en que la IA no es más inteligente que un gato, pero un gato con la capacidad de empujarte a ti, o a toda la humanidad, fuera de un mostrador metafórico no es algo que debamos fomentar.