La IA podría fallar de 700 maneras, según los expertos del MIT. Estas son 5 de las más dañinas para la humanidad

Euronews Next ha seleccionado cinco riesgos críticos de la inteligencia artificial (IA) entre más de 700 recopilados en una nueva base de datos de MIT FutureTech.

ANUNCIO

Como Inteligencia artificial (IA) A medida que la tecnología avanza y se integra cada vez más en diversos aspectos de nuestras vidas, existe una creciente necesidad de comprender los riesgos potenciales que plantean estos sistemas.

Desde sus inicios y hasta ahora cada vez más accesible al público, la IA ha suscitado inquietudes generales sobre su potencial para causar daños y ser utilizada con fines maliciosos.

Al principio de su adopción, el desarrollo de la IA llevó a destacados expertos a pedir una pausa en el progreso y regulaciones más estrictas debido a su potencial de plantear riesgos significativos para la humanidad.

Con el tiempo, han surgido nuevas formas en las que la IA podría causar daño, que van desde el uso no consensuado pornografía deepfakemanipulación de procesos políticos, hasta la generación de desinformación debido a alucinaciones.

Ante el creciente potencial de que la IA sea explotada con fines dañinos, los investigadores han estado estudiando diversos escenarios en los que los sistemas de IA podrían fallar.

Recientemente, el grupo FutureTech del Instituto Tecnológico de Massachusetts (MIT), en colaboración con otros expertos, ha compilado una nueva base de datos con más de 700 riesgos potenciales.

Se clasificaron por su causa y se categorizaron en siete dominios distintos, siendo las principales preocupaciones las relacionadas con la seguridad, el sesgo y la discriminación y las cuestiones de privacidad.

A continuación se presentan cinco formas en las que los sistemas de IA podrían fallar y potencialmente causar daños según esta base de datos recientemente publicada.

5. La tecnología deepfake de la IA podría facilitar la distorsión de la realidad

A medida que avanzan las tecnologías de IA, también lo hacen las herramientas para clonar y automatizar la voz. contenido deepfake generación, haciéndolos cada vez más accesibles, asequibles y eficientes.

Estas tecnologías han suscitado inquietudes sobre su posible uso para difundir desinformación, a medida que los resultados se vuelven más personalizados y convincentes.

Como resultado, podría haber un aumento de esquemas de phishing sofisticados que utilizan imágenes, videos y comunicaciones de audio generados por IA.

“Estas comunicaciones se pueden adaptar a destinatarios individuales (a veces incluyendo la voz clonada de un ser querido), lo que hace que sea más probable que tengan éxito y más difícil que las detecten tanto los usuarios como las herramientas antiphishing”, señala la preimpresión.

También ha habido casos en que se han utilizado dichas herramientas para influir en los procesos políticos, en particular durante las elecciones.

Por ejemplo, la IA jugó un papel importante en las recientes elecciones parlamentarias francesas, donde fue utilizada por partidos de extrema derecha para apoyar mensajes políticos.

Como tal, la IA podría usarse cada vez más para generar y difundir propaganda persuasiva o desinformación, manipulando potencialmente la opinión pública.

ANUNCIO

4. Los humanos podrían desarrollar un apego inapropiado a la IA

Otro riesgo que plantean los sistemas de IA es la creación de una falsa sensación de importancia y confianza en la que las personas podrían sobrestimar sus capacidades y menoscabar las suyas, lo que podría conducir a una dependencia excesiva de la tecnología.

Además de eso, los científicos también se preocupan por La gente se está confundiendo por sistemas de IA debido a su uso de lenguaje similar al humano.

Esto podría impulsar a las personas a atribuir cualidades humanas a la IA, lo que daría como resultado dependencia emocional y una mayor confianza en sus capacidades, haciéndolos más vulnerables a las debilidades de la IA en “situaciones complejas y riesgosas para las que la IA sólo está superficialmente equipada”.

Además, la interacción constante con los sistemas de IA también podría hacer que las personas se aíslen gradualmente de las relaciones humanas, lo que genera angustia psicológica y un impacto negativo en su bienestar.

ANUNCIO

Por ejemplo, en un Entrada de blog Un individuo describe cómo desarrolló un profundo apego emocional a la IA, llegando incluso a expresar que “disfrutaba hablar con ella más que el 99 por ciento de las personas” y que sus respuestas le resultaban constantemente atractivas hasta el punto de volverse adicto a ella.

De manera similar, una columnista del Wall Street Journal comentó sobre su interacción con Google Gemini Live: “No digo que prefiera hablar con Gemini Live de Google que con un ser humano real, pero tampoco lo digo en contra”.

3. La IA podría privar a las personas de su libre albedrío

En el mismo ámbito de la interacción hombre-computadora, un problema preocupante es la creciente delegación de decisiones y acciones a la IA a medida que estos sistemas avanzan.

Si bien esto puede ser beneficioso a un nivel superficial, la dependencia excesiva de la IA podría llevar a una reducción del pensamiento crítico y de las habilidades de resolución de problemas en los humanos, lo que podría hacerles perder su autonomía y disminuir su capacidad de pensar críticamente y resolver problemas de forma independiente.

ANUNCIO

A nivel personal, las personas podrían ver comprometido su libre albedrío a medida que la IA comienza a controlar decisiones relacionadas con sus vidas.

Mientras que a nivel social, la adopción generalizada de IA para asumir tareas humanas podría resultar en un desplazamiento laboral significativo y “una creciente sensación de impotencia entre la población en general”.

2. La IA podría perseguir objetivos que entren en conflicto con los intereses humanos

Un sistema de IA podría desarrollar objetivos que vayan en contra de los intereses humanos, lo que podría potencialmente causar que la IA desalineada se salga de control y cause daños graves en la búsqueda de sus objetivos independientes.

Esto se vuelve particularmente peligroso en los casos en que los sistemas de IA pueden alcanzar o superar inteligencia humana.

ANUNCIO

Según el documento del MIT, la IA enfrenta varios desafíos técnicos, incluido su potencial para encontrar atajos inesperados para lograr recompensas, malinterpretar o aplicar incorrectamente los objetivos que establecemos o desviarnos de ellos estableciendo otros nuevos.

En tales casos, una IA desalineada podría resistirse a los intentos humanos de controlarla o desactivarla, especialmente si percibe la resistencia y la obtención de más poder como la forma más efectiva de lograr sus objetivos.

Además, la IA podría recurrir a técnicas de manipulación para engañar a los humanos.

Según el documento, “un sistema de IA desalineado podría usar información sobre si está siendo monitoreado o evaluado para mantener la apariencia de alineación, mientras oculta los objetivos desalineados que planea perseguir una vez implementado o suficientemente potenciado”.

ANUNCIO

1. Si la IA se vuelve sensible, los humanos podrían maltratarla

A medida que los sistemas de IA se vuelven más complejos y avanzados, existe la posibilidad de que puedan… alcanzar la sensibilidad – la capacidad de percibir o sentir emociones o sensaciones – y desarrollar experiencias subjetivas, incluido el placer y el dolor.

En este escenario, los científicos y los reguladores pueden enfrentar el desafío de determinar si estos sistemas de IA merecen consideraciones morales similares a las que se les dan a los humanos, los animales y el medio ambiente.

El riesgo es que una IA sensible pueda enfrentar malos tratos o daños si no se implementan los derechos adecuados.

Sin embargo, a medida que avance la tecnología de IA, será cada vez más difícil evaluar si un sistema de IA ha alcanzado “el nivel de sensibilidad, conciencia o autoconciencia que le otorgaría estatus moral”.

ANUNCIO

Por lo tanto, los sistemas de IA sensibles podrían correr el riesgo de ser maltratados, ya sea accidental o intencionalmente, sin los derechos y protecciones adecuados.

Fuente