Se deben hacer planes para el bienestar de la IA inteligente, argumentan los investigadores de la conciencia animal

Los científicos informáticos deben lidiar con la posibilidad de que accidentalmente creen inteligencia artificial (IA) sensible y planificar el bienestar de esos sistemas, sostiene un nuevo estudio.

El informe publicado el jueves proviene de un sector inusual: especialistas en el campo fronterizo de la conciencia animal, varios de los cuales fueron firmantes delDeclaración de Nueva York sobre Conciencia Animal.

Como informó The Hill en abril, esa declaraciónargumentóque era “irresponsable” que los científicos y el público ignoraran la creciente evidencia de una sensibilidad generalizada en todo el reino animal.

El informe sobre el bienestar de la IA se basa en un marco moral e intelectual similar al de la conciencia animal de abril: la idea de que los humanos tienden a percibir la sensibilidad sólo a su propia imagen, lo que crea riesgos tanto para los seres entre los que viven (o crean) como para sus seres queridos. ellos mismos.

Datos que sugieren sensibilidad en aves y mamíferos.y hasta cangrejos y camarones– supera con creces cualquier evidencia de autoconciencia en las máquinas-herramienta de vanguardia que los humanos están desarrollando, reconoció Jeff Sebo, bioético de la Universidad de Nueva York, quien coescribió tanto el informe sobre el bienestar de la IA como la declaración de conciencia animal.

Pero si bien la probabilidad de crear vida artificial consciente de sí misma durante la próxima década podría ser “objetivamente baja”, es lo suficientemente alta como para que los desarrolladores al menos deban pensar en ello, dijo Sebo.

Si bien generalmente se supone que la conciencia en los humanos (o, digamos, en los pulpos) surgió por accidente, los humanos están jugando activamente con la IA de una manera deliberadamente destinada a imitar las mismas características asociadas con la conciencia.

Entre ellas se incluyen “percepción, atención, aprendizaje, memoria, autoconciencia”, habilidades que pueden haber ido de la mano con la evolución de la conciencia en la vida orgánica.

La investigación de la conciencia es el lugar actual de un feroz debate sobre cuáles son realmente las condiciones previas de la conciencia; ya sea que requiera células blandas hechas de cadenas de moléculas de carbono o un cuerpo físico.

Pero Sebo dijo que actualmente entendemos poco sobre la conciencia que excluya la posibilidad de que los desarrolladores de IA puedan crear sistemas conscientes accidentalmente, en el proceso de intentar hacer otra cosa, o intencionalmente, porque “ven a la IA consciente como una IA más segura o más capaz. “

En algunos casos, el trabajo de desarrollar estos sistemas es un intento literal de imitar las estructuras de vida orgánica probablemente sensible. En hallazgos publicados en Nature en junio, Harvard y DeepMind de Googlecreó una rata virtualcon un cerebro simulado que era capaz de emular el “exquisito control de sus cuerpos” de los roedores de carne y hueso.

No hay ninguna razón particular para creer que la rata digital –a pesar de todas lasinformación que proporcionósobre cómo funcionan los cerebros de los vertebrados, era consciente de sí mismo, aunque el propio DeepMind tieneuna oferta de trabajopara un doctorado en informática capaz de investigar “cuestiones sociales de vanguardia en torno a la cognición (y) la conciencia de las máquinas”.

Y la sensibilidad, como lo entienden tanto los investigadores animales como los padres de bebés, es algo completamente separado de la inteligencia.

Pero en cierto sentido, éste es el problema que Sebo y sus coautores plantean en pocas palabras. Sostienen que los desarrolladores (y el público en general) tienen puntos ciegos evolutivos que los han preparado mal para enfrentar la era de la IA posiblemente inteligente.

“En realidad, no estamos diseñados por una evolución y un aprendizaje a lo largo de la vida para percibir o rastrear los mecanismos subyacentes”, dijo Rob Long, coautor del artículo del jueves y director ejecutivo de Eleos AI, un grupo de investigación que investiga la conciencia de la IA.

A lo largo de miles de millones de años, dijo Long, nuestro linaje evolucionó “para juzgar la presencia o ausencia de una mente basándose en un conjunto relativamente superficial de heurísticas aproximadas y listas sobre cómo algo se ve, se mueve y se comporta, y eso hizo un buen trabajo ayudándonos que no te coman”.

Pero dijo que la arquitectura del cerebro hace que sea fácil atribuir erróneamente la sensibilidad a lo que no corresponde. Irónicamente, señalaron Sebo y Long, eso hace que sea más fácil atribuir sensibilidad a aquellas máquinas con menos probabilidades de tenerla: los chatbots.

Sebo y Long argumentaron que esta paradoja está casi integrada en los chatbots, que imitan cada vez más las características definitorias de los seres humanos: la capacidad de hablar con fluidez en un idioma, una característica que empresas como OpenAI han reforzado con nuevos modelos que ríen, usan el sarcasmo e insertan “ums” y tics vocales.

En las próximas décadas, “habrá implementaciones cada vez más sofisticadas y a gran escala de sistemas de inteligencia artificial, enmarcados como compañeros y asistencia en una situación en la que tenemos desacuerdos e incertidumbre muy significativos sobre si realmente tienen pensamientos y sentimientos”, dijo Sebo.

Eso significa que los humanos tienen que “cultivar una especie de ambivalencia” hacia esos sistemas, dijo: una “incertidumbre sobre si se siente como algo ser ellos y si cualquier sentimiento que podamos tener hacia ellos es recíproco”.

Hay otro lado de esa ambivalencia, dijo Sebo: la posibilidad de que los humanos puedan crear deliberada o accidentalmente sistemas que sienten dolor, pueden sufrir o tener alguna forma de agencia moral (la capacidad de desear cosas y tratar de hacer que sucedan) que, según él, no encajan bien con las cosas que los científicos informáticos quieren que hagan esos sistemas.

En el caso de los animales, las consecuencias de no otorgar sensibilidad son claras, señaló Sebo. “Con los animales de granja y de laboratorio, ahora matamos cientos de miles de millones de animales de granja en cautiverio al año para alimentarnos, y billones de animales salvajes al año, no del todo, sino en parte, porque subestimamos su capacidad de conciencia y significado moral”.

Ese ejemplo, dijo, debería servir como una advertencia (mientras los humanos intentan “mejorar la situación con los animales”) sobre qué errores evitar repetir con la IA.

Sebo y Long agregaron que otro problema importante para los humanos que intentan navegar por el nuevo paisaje, aparte de una tendencia generalizada a ver sensibilidad en, pero sólo en, aquello que se parece a nosotros, es un paisaje de cultura pop que caracteriza tremendamente erróneamente lo que en realidad cómo se vería la IA inteligente.

En películas como Wall-E de Pixar y AI de Steven Spielberg, los robots sensibles tienen un parecido sorprendentemente humano, al menos en algunos aspectos clave: son inteligencias únicas y discretas con emociones reconociblemente humanas que viven dentro de un cuerpo y se mueven a través de un mundo físico.

Luego está Skynet, la inteligencia artificial de la serie Terminator, que sirve como imán para las conversaciones sobre seguridad de la IA y, por lo tanto, constantemente atrae el discurso popular sobre las tecnologías informáticas emergentes hacia las convenciones narrativas de una película de acción de los años 80.

Nada de esto, argumentó Sebo, es particularmente útil. “Con la IA y el bienestar, la verdad podría ser más extraña que la ficción, y deberíamos estar preparados para esa posibilidad”, afirmó.

Por un lado, las mentes digitales podrían no estar separadas entre sí como lo están las mentes humanas y animales, dijo Sebo. “Podrían terminar estando muy conectados entre sí de una manera que los nuestros no lo están. Podrían tener neuronas repartidas en diferentes ubicaciones y estar muy íntimamente conectadas entre sí”.

Esa forma de conciencia es potencialmente más parecida a la de un pulpo, que tiene un cerebro central en la cabeza y ocho cerebros más pequeños y semiindependientes en los brazos.

La IA, dijo Sebo, podría traer “una explosión de posibilidades en esa dirección, con mentes altamente interconectadas, y preguntas que surgen sobre la naturaleza del yo, la identidad y la individualidad y dónde termina un individuo y dónde comienza el siguiente”.

No importa qué forma pueda tomar en última instancia la posible conciencia de la IA (y si es posible en absoluto), Sebo, Long y sus coautores argumentaron que corresponde a los desarrolladores de IA comenzar a reconocer estos problemas potenciales, evaluando cómo encajan en las herramientas que están construyendo. y prepararse para un posible futuro en el que esas herramientas sean algo sensibles.

Una posible idea de cómo podría ser esto la ha ofrecido el filósofo Eric Schwitzgebel, de la Universidad de California en Riverside, quien ha abogado por una política de “alineamiento emocional” en la que el grado de sensibilidad que presenta un programa de IA debería estar directamente relacionado con el grado de sensibilidad que presente. es probable que lo sea.

Si algún día los humanos diseñamos IA sensibles, ha escrito Schwitzgebel, “deberíamos diseñarlas de manera que los usuarios comunes reaccionen emocionalmente ante ellas de una manera que sea apropiada a su estatus moral. No diseñes una IA de nivel humano capaz de causar dolor y sufrimiento real, con objetivos, racionalidad y pensamientos de futuro similares a los humanos, y colócala en una caja insulsa que la gente estaría dispuesta a reformatear casualmente”.

Y, por el contrario, “si la IA justifica un nivel intermedio de preocupación (similar, por ejemplo, a un gato), entonces bríndele una interfaz que anime a los usuarios a darle esa cantidad de preocupación y nada más”.

Sebo reconoció que esa es una política que obligaría a la industria de los chatbots y de los grandes modelos lingüísticos a dar un giro de 180 grados.

En general, dijo, él y los otros coautores del nuevo artículo lo escribieron para forzar la conversación sobre un tema que debe ser enfrentado antes de que se convierta en un problema. “Y creemos que sería bueno que las personas que construyen estos sistemas complejos y extremadamente capaces reconocieran que se trata de un tema importante y difícil al que deberían prestar atención”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here