Los líderes de IA debaten sobre responsabilidad y regulación

ohEl martes, luminarias en el campo de la IA se reunieron en Serpentine North, una antigua tienda de pólvora convertida en espacio de exhibición, para la cena inaugural de impacto TIME100 en Londres. Siguiendo un evento similar Celebrada en San Francisco el mes pasado, la cena convocó a influyentes líderes, expertos y homenajeados de los premios 2023 y 2024 de TIME. 100 personas influyentes en la IA listas, todos los cuales están desempeñando un papel en la configuración del futuro de la tecnología.

Tras una conversación entre la directora ejecutiva de TIME, Jessica Sibley, y los ejecutivos de los patrocinadores del evento (Rosanne Kincaid-Smith, directora de operaciones del grupo Northern Data Group, y Jaap Zuiderveld, vicepresidente de Nvidia para Europa, Medio Oriente y África), y después del plato principal. había sido atendido, la atención se centró en una mesa redonda.

El panel contó con los homenajeados de TIME 100 AI Jade LeeCTO del Instituto de Seguridad de IA del Reino Unido, una institución establecida el año pasado evaluar las capacidades de los modelos de IA de vanguardia; Victor Riparbellidirector ejecutivo y cofundador de la empresa de comunicaciones por vídeo de IA Synthesia, con sede en el Reino Unido; y Abeba Birhanecientífico cognitivo y profesor asistente adjunto en la Facultad de Ciencias de la Computación y Estadística del Trinity College Dublin, cuya investigación se centra en auditar modelos de IA para descubrir daños empíricos. Moderada por la editora senior de TIME, Ayesha Javed, la discusión se centró en el estado actual de la IA y sus desafíos asociados, la cuestión de quién es responsable de los impactos de la IA y el potencial de los videos generados por IA para transformar la forma en que nos comunicamos.

Las opiniones de los panelistas sobre los riesgos que plantea la IA reflejaron sus diversas áreas de enfoque. Para Leung, cuyo trabajo consiste en evaluar si los modelos de IA de vanguardia podrían utilizarse para facilitar la cibernética, ataques biológicos o químicosy evaluar modelos para cualquier otro capacidades dañinas En términos más generales, la atención se centró en la necesidad de “entender los datos empíricos que nos dirán mucho más sobre lo que se avecina y qué tipo de riesgos están asociados con ello”.

Birhane, por su parte, enfatizó lo que ella considera un “enorme revuelo” en torno a las capacidades y el potencial de la IA para plantear riesgo existencial. “Estos modelos en realidad no están a la altura de sus afirmaciones”. Birhane argumentó que “la IA no son sólo cálculos computacionales. Es todo el proceso lo que hace posible construir y mantener sistemas”, citando la importancia de prestar atención al origen de los datos, los impactos ambientales de los sistemas de IA (particularmente en relación con su uso de energía y agua) y los salarios mal pagados. mano de obra de etiquetas de datos como ejemplos. “Tiene que haber un incentivo tanto para las grandes empresas como para las nuevas empresas para que realicen evaluaciones exhaustivas no sólo de los modelos en sí, sino de todo el proceso de IA”, dijo. Riparbelli sugirió que tanto “solucionar los problemas que ya existen en la sociedad actual” como pensar en “escenarios estilo Terminator” son importantes y vale la pena prestarles atención.

Los panelistas coincidieron en la importancia vital de las evaluaciones de los sistemas de IA, tanto para comprender sus capacidades como para discernir sus deficiencias cuando se trata de cuestiones como la perpetuación de prejuicios. Debido a la complejidad de la tecnología y la velocidad a la que se mueve el campo, “las mejores prácticas sobre cómo abordar los diferentes desafíos de seguridad cambian muy rápidamente”, dijo Leung, señalando una “gran asimetría entre lo que los académicos conocen públicamente y lo que saben públicamente”. a la sociedad civil y lo que se sabe dentro de estas propias empresas”.

Los panelistas coincidieron además en que tanto las empresas como los gobiernos tienen un papel que desempeñar para minimizar los riesgos que plantea la IA. “Las empresas tienen la enorme responsabilidad de seguir innovando en prácticas de seguridad”, afirmó Leung. Riparbelli estuvo de acuerdo y sugirió que las empresas pueden tener un “imperativo moral” de garantizar que sus sistemas sean seguros. Al mismo tiempo, “los gobiernos tienen que desempeñar un papel aquí. Eso es completamente no negociable”, afirmó Leung.

Del mismo modo, Birhane fue claro en que una “regulación efectiva” basada en “evidencia empírica“Es necesario. “Muchos gobiernos y formuladores de políticas ven la IA como una oportunidad, una forma de desarrollar la economía para obtener ganancias financieras”, dijo, señalando las tensiones entre los incentivos económicos y los intereses de los grupos desfavorecidos. “Los gobiernos deben ver las evaluaciones y la regulación como un mecanismo para crear mejores sistemas de inteligencia artificial, en beneficio del público en general y de las personas que se encuentran en la base de la sociedad”.

Cuando se trata de gobernanza global, Leung enfatizó la necesidad de tener claridad sobre qué tipos de barreras de seguridad serían las más deseables, tanto desde una perspectiva técnica como política. “¿Cuáles son las mejores prácticas, estándares y protocolos que queremos armonizar en todas las jurisdicciones?” preguntó ella. “No es una pregunta que tenga los recursos suficientes”. Aun así, Leung destacó el hecho de que China fue parte en la cumbre del año pasado. Cumbre de seguridad de IA organizado por el Reino Unido es motivo de optimismo. “Es muy importante asegurarse de que estén alrededor de la mesa”, dijo.

Un área concreta donde podemos observar el avance de las capacidades de IA en tiempo real es el vídeo generado por IA. En un vídeo sintético creado por la tecnología de su empresa, la IA de Riparbelli declaró por partida doble que “el texto como tecnología es, en última instancia, transitorio y se convertirá en una reliquia del pasado”. Ampliando esta idea, el verdadero Riparbelli dijo: “Siempre nos hemos esforzado por lograr formas de comunicación más intuitivas y directas. El texto era la forma original en que podíamos almacenar y codificar información y compartir tiempo y espacio. Ahora vivimos en un mundo donde, al menos para la mayoría de los consumidores, prefieren ver y escuchar su contenido”.

Él imagina un mundo donde la IA cierra la brecha entre el texto, que es rápido de crear, y el video, que requiere más trabajo pero también es más atractivo. La IA “permitirá a cualquiera crear una película de Hollywood desde su dormitorio sin necesitar más que su imaginación”, afirmó. Esta tecnología plantea desafíos obvios en términos de su capacidad de ser abusada, por ejemplo creando deepfakes o difundiendo información errónea, pero Riparbelli enfatiza que su empresa toma medidas para evitarlo, señalando que “cada vídeo, antes de generarse, pasa por un proceso de contenido. proceso de moderación donde nos aseguramos de que se ajuste a nuestras políticas de contenido “.

Riparbelli sugiere que, en lugar de un enfoque “centrado en la tecnología” para la regulación de la IA, la atención debería centrarse en diseñar políticas que reduzcan los resultados perjudiciales. “Centrémonos en las cosas que no queremos que sucedan y regulémoslas en torno a ellas”.

La cena de impacto TIME100 Londres: Líderes dando forma al futuro de la IA fue presentada por Northern Data Group y Nvidia Europe.

Fuente