Oprah acaba de tener un especial de IA con Sam Altman y Bill Gates: estos son los aspectos más destacados

El jueves por la noche, Oprah Winfrey emitió un especial sobre IA, apropiadamente titulado “IA y nuestro futuro”. Entre los invitados se encontraban el director ejecutivo de OpenAI, Sam Altman, el influencer tecnológico Marques Brownlee y el actual director del FBI, Christopher Wray.

El tono dominante fue el de escepticismo y cautela.

Oprah señaló en comentarios preparados que el genio de la IA ha salido de la botella, para bien o para mal, y que la humanidad tendrá que aprender a vivir con las consecuencias.

“La IA todavía está fuera de nuestro control y, en gran medida… de nuestra comprensión”, afirmó. “Pero está aquí, y vamos a vivir con una tecnología que puede ser tanto nuestra aliada como nuestra rival… Somos las criaturas más adaptables de este planeta. Nos adaptaremos de nuevo. Pero no perdamos de vista lo que es real. Lo que está en juego no podría ser más importante”.

Sam Altman promete demasiado

Altman, en la primera entrevista de la noche con Oprah, planteó el cuestionable argumento de que la IA actual está aprendiendo conceptos dentro de los datos con los que está entrenada.

“Le mostramos al sistema mil palabras en secuencia y le pedimos que prediga lo que viene a continuación”, le dijo a Oprah. “El sistema aprende a predecir y, a partir de ahí, aprende los conceptos subyacentes”.

Muchos expertos no estarían de acuerdo.

Sistemas de IA como ChatGPT y o1, que OpenAI presentó el juevesde hecho predicen las palabras más probables que aparecerán a continuación en una oración, pero son simplemente máquinas estadísticas: aprenden qué probabilidad hay de que se produzcan los datos basándose en patrones. No tienen intencionalidad; solo hacen una suposición informada.

Si bien Altman posiblemente exageró las capacidades de los sistemas de IA actuales, subrayó la importancia de descubrir cómo probar la seguridad de dichos sistemas.

“Una de las primeras cosas que tenemos que hacer, y ya está sucediendo, es conseguir que el gobierno empiece a pensar cómo realizar pruebas de seguridad de estos sistemas, como hacemos con los aviones o con los medicamentos nuevos”, afirmó. “Yo personalmente, probablemente tenga una conversación con alguien del gobierno cada pocos días”.

La presión de Altman para que se regule puede ser egoísta. OpenAI se ha opuesto al proyecto de ley de seguridad de la IA de California, conocido como SB 1047, alegando que “reprimirá la innovación”. Sin embargo, antiguos empleados de OpenAI y expertos en IA como Geoffrey Hinton han apoyado el proyecto de ley, argumentando que impondría salvaguardas necesarias al desarrollo de la IA.

Oprah también insistió en que Altman era el líder de OpenAI y le preguntó por qué la gente debería confiar en él, pero él evadió la pregunta y dijo que su empresa está tratando de generar confianza con el tiempo.

Anteriormente, Altman dijo muy directamente que la gente no debería confiar en él ni en ninguna otra persona para asegurarse de que la IA beneficie al mundo.

El director ejecutivo de OpenAI dijo más tarde que le había resultado extraño oír a Oprah preguntar si él era “el hombre más poderoso y peligroso del mundo”, como sugería un titular de noticias. No estaba de acuerdo, pero dijo que sentía la responsabilidad de impulsar a la IA en una dirección positiva para la humanidad.

Oprah y los deepfakes

Sin embargo, las predicciones y conjeturas pueden llevarnos bastante lejos, como lo demuestran los generadores de video impulsados ​​por IA como Sora de OpenAI.

En un momento del especial, Brownlee le mostró a Oprah una muestra de las imágenes de Sora. “Ahora, todavía se pueden ver fragmentos de esto y darse cuenta de que algo no está del todo bien”, dijo.

“No, no puedo”, respondió Oprah.

La presentación sirvió como transición a una entrevista con Wray, quien contó el momento en el que se familiarizó por primera vez con la tecnología deepfake de inteligencia artificial.

“Estaba en una sala de conferencias y un grupo de gente (del FBI) ​​se reunió para mostrarme cómo se pueden crear deepfakes mejorados con inteligencia artificial”, dijo Wray. “Y habían creado un video mío diciendo cosas que nunca había dicho antes y que nunca diría”.

Wray habló sobre la creciente prevalencia de la sextorsión impulsada por IA. De acuerdo a Según la empresa de ciberseguridad ESET, hubo un aumento del 178% en los casos de sextorsión entre 2022 y 2023, impulsado en parte por la tecnología de inteligencia artificial.

“Alguien se hace pasar por un compañero y ataca a un adolescente”, dijo Wray, y luego usa imágenes comprometedoras generadas por inteligencia artificial para convencer al chico de que le envíe fotos reales a cambio. De hecho, es un tipo detrás de un teclado en Nigeria, y una vez que tienen las imágenes, amenazan con chantajear al chico y le dicen: “Si no pagas, vamos a compartir estas imágenes que arruinarán tu vida”.

Wray también se refirió a la desinformación en torno a las próximas elecciones presidenciales de Estados Unidos. Si bien afirmó que “no es momento de entrar en pánico”, enfatizó que le corresponde a “todos en Estados Unidos” “intensificar el sentido de atención y precaución sobre el uso de la IA” y cómo la IA “puede ser utilizada por los malos contra todos nosotros”.

“Con demasiada frecuencia descubrimos que algo en las redes sociales que parece ser Bill de Topeka o Mary de Dayton es en realidad algún oficial de inteligencia ruso o chino en las afueras de Beijing o Moscú”, dijo Wray.

De hecho, un estadista encuesta descubrió que más de un tercio de los encuestados estadounidenses vieron información engañosa, o que sospechaban que era desinformación, sobre temas clave hacia fines de 2023. Este año, imágenes engañosas generadas por IA de los candidatos a la vicepresidencia Kamala Harris y al expresidente Donald Trump han obtenido millones de visitas en redes sociales, incluida X.

Bill Gates y la disrupción de la IA

Para un cambio de ritmo tecno-optimista, Oprah entrevistó al fundador de Microsoft, Bill Gates, quien expresó su esperanza de que la IA potencie los campos de la educación y la medicina.

“La IA es como una tercera persona que se sienta en (una cita médica) y hace una transcripción y sugiere una receta”, dijo Gates. “Y así, en lugar de que el médico esté frente a una pantalla de computadora, interactúa con usted y el software se asegura de que haya una transcripción realmente buena”.

Sin embargo, Gates ignoró el potencial sesgo que puede derivar de una capacitación deficiente.

Uno reciente estudiar demostró que los sistemas de reconocimiento de voz de las principales empresas tecnológicas tenían el doble de probabilidades de transcribir incorrectamente el audio de hablantes negros en comparación con los de hablantes blancos. investigación Ha demostrado que los sistemas de IA refuerzan creencias falsas y arraigadas de que existen diferencias biológicas entre las personas negras y blancas, falsedades que llevan a los médicos a diagnosticar erróneamente problemas de salud.

En el aula, dijo Gates, la IA puede estar “siempre disponible” y “entender cómo motivarte… sea cual sea tu nivel de conocimiento”.

No es exactamente así como lo ven muchas aulas.

El verano pasado, las escuelas y universidades apresurado prohibir ChatGPT por temor a plagio y desinformación. Desde entonces, algunos han invertido sus prohibiciones. Pero no todos están convencidos del potencial de GenAI para el bien, señalando encuestas como el Centro de Internet Más Segura del Reino Unido, que descubrió que más de la mitad de los niños (53%) informan haber visto a personas de su edad usar GenAI de manera negativa, por ejemplo, creando información falsa creíble o imágenes utilizadas para molestar a alguien.

La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) a finales del año pasado empujado para que los gobiernos regulen el uso de GenAI en la educación, incluida la implementación de límites de edad para los usuarios y medidas de protección de datos y privacidad del usuario.



Fuente