En un panel celebrado en noviembre pasado, Sam Altman, cofundador de OpenAI, predijo que en 2024 se produciría un gran avance en materia de inteligencia artificial que nadie esperaba. El ejecutivo de Google, James Manyika, estuvo de acuerdo: “Un punto más para eso”.
¿El año pasado estuvo a la altura de las expectativas? La liquidación de las acciones tecnológicas en el verano reflejó la sensación de que la adopción de la IA llevaría más tiempo del previsto.
Manyika destaca lo que se ha logrado. Transformers: la tecnología que sustenta modelos de lenguaje de gran tamaño — han permitido que Google Translate duplique la cantidad de idiomas que admite hasta 243. El chatbot Gemini de Google puede cambiar sin problemas (al menos en ciertos contextos) entre texto, fotos y videos. También permite a los usuarios ingresar consultas cada vez más complejas.
Por ejemplo, mientras viajaba de San Francisco a Silicon Valley, Manyika esperaba poder escuchar un resumen de una investigación reciente en su campo: quería poner 100 artículos técnicos en Gemini y luego escuchar dos voces de IA discutiéndolos. “Ahora puedo hacer eso. Ese es un ejemplo de un gran avance”.
Pero muchos usuarios consideran que los LLM como Gemini son curiosidades inteligentes, no tecnología crítica para el negocio. ¿De verdad Manyika pasa su viaje al trabajo escuchando voces de IA que discuten artículos técnicos? La respuesta parece ser que todavía prefiere los podcasts humanos.
Como vicepresidente sénior de investigación, tecnología y sociedad de Google, Manyika debe hacer un ejercicio de equilibrio: explicar el potencial transformador de la IA y, al mismo tiempo, convencer a los responsables políticos y al público de que Google no la está aplicando de manera imprudente.
El año pasado, el “padrino de la IA”, Geoffrey Hinton renunció a Googlecitando los riesgos no gestionados de la tecnología. Poco después, Manyika prometió que la empresa sería “responsable desde el principio”. Nacido y educado en Zimbabue, antes de obtener un doctorado en robótica en Oxford, es un portavoz de los beneficios de la tecnología que llega al mundo en desarrollo.
Manyika, de 59 años, pasó su carrera en McKinsey, antes de unirse a Google en 2022. Me interesa saber cómo ve la aplicación en el mundo real de las herramientas de IA.
“En este momento, todos, desde mis antiguos colegas del McKinsey Global Institute hasta Goldman Sachs, están publicando estas extraordinarias cifras de potencial económico —de billones de dólares— (pero) va a requerir un montón de acciones, innovaciones, inversiones e incluso políticas facilitadoras… Las ganancias de productividad no están garantizadas. Requerirán mucho trabajo”.
En 1987, el economista Robert Solow señaló que la era informática era visible en todas partes, excepto en las estadísticas de productividad. “Podríamos tener una versión de eso, donde vemos esta tecnología en todas partes, en nuestros teléfonos, en todos estos chatbots, pero no ha hecho nada para transformar la economía de esa manera realmente fundamental”.
El uso de la IA generativa para redactar códigos de software no es suficiente. “En Estados Unidos, el sector tecnológico representa aproximadamente el 4 por ciento de la fuerza laboral. Incluso si todo el sector tecnológico la adoptara al 100 por ciento, no importaría desde el punto de vista de la productividad laboral”. En cambio, la respuesta está en “sectores muy grandes” como la atención médica y el comercio minorista.
El ex primer ministro británico Sir Tony Blair ha dicho que la gente “tendrá una enfermera de IA, probablemente un médico de IA, de la misma manera que tendrá un tutor de IA”. Manyika es menos dramática: “En la mayoría de esos casos, esas profesiones serán asistidas por IA. No creo que ninguna de esas ocupaciones vaya a ser reemplazada por IA, al menos en un futuro concebible”.
Los antecedentes no son muy buenos. Mientras estaba en McKinsey, Manyika predijo que la pandemia permitiría a las empresas emprender la transformación digital: admite que muchas lo hicieron “en una dirección de reducción de costos”. Ahora Manyika está de acuerdo Los ejecutivos tienen incentivos para reemplazar a los trabajadores con IA, en lugar de implementar la tecnología para ayudarlos.
¿Cómo podrían los modelos de lenguaje de gran tamaño transformar su antigua industria de consultoría de gestión? Manyika destaca el potencial de los modelos como Gemini para elaborar borradores y resumir. “En mi función, tengo equipos que trabajan en muchos proyectos: puedo decir: 'Dame una actualización del estado del proyecto Y' y me dará resúmenes de todos los documentos que están en mi correo electrónico y de las conversaciones que estamos teniendo”.
Resumir y redactar son tareas que, por ejemplo, realizan los abogados jóvenes. ¿Se transformarán profundamente los despachos de abogados, ya que ya no se necesitarán jóvenes? “Sí, pero…”, dice Manyika, enfatizando que su visión es que las firmas utilicen la IA para aumentar sus ingresos, no solo para reducir costos.
“No se gana reduciendo costos, sino creando productos más valiosos. Por eso espero que esos bufetes de abogados piensen: “Bien, ahora que tenemos esta nueva capacidad productiva, ¿qué actividades adicionales de valor agregado necesitamos realizar para aprovechar lo que ahora es posible?”. Esos serán los bufetes ganadores”.
El motor de búsqueda de Google domina la web, según un juez estadounidense el mes pasado encontró Se trataba de un monopolio ilegal, pero a muchos editores les preocupa que la IA pueda empeorar las cosas.
Google ahora responde a algunas consultas de búsqueda con resúmenes de IA. Los chatbots proporcionan una fuente alternativa de información. En ambos casos, los usuarios de Internet pueden encontrar lo que necesitan sin hacer clic en ningún enlace, cortando así el flujo de ingresos publicitarios a los editores que generaron la información.
Antes de conocer a Manyika en julio, le pregunté a Gemini: “¿Cuáles son las noticias más importantes del Financial Times hoy?”. Gemini respondió: “El Financial Times de hoy (28 de noviembre de 2024) publica varias noticias importantes”. La respuesta incluía cinco titulares, la mayoría de los cuales parecen datar de diciembre de 2023.
“Pero también te envía al sitio. Todavía proporcionamos enlaces en Gemini, ¿no?”, dice Manyika. De hecho, aunque Gemini mencionó el sitio web del FT en su respuesta, solo proporcionó dos enlaces: a sitios web de noticias rivales.
Manyika señala una opción en la respuesta de Gemini llamada “mostrar borradores”. Este es el intento de Google de mostrar que el chatbot no produce una “respuesta única y definitiva”: ejecutar la misma consulta dos veces dará resultados diferentes. Ni siquiera noté esa opción y dudo que los usuarios realmente crean que compensará la falta de confiabilidad del chatbot.
Disuadir a los usuarios de hacer clic en los enlaces sería “un terrible contragolpe”, dado el modelo de negocio de Google, que depende de la publicidad, sostiene Manyika. Compara la preocupación de los editores por el tráfico con el temor, cuando la búsqueda pasó de los ordenadores a los teléfonos inteligentes, de que sólo un enlace fuera visible y el resto se ignorara. “La gente seguía accediendo a todo lo demás, con mucho detalle”.
(Después de la entrevista, un publicista de Google me envía una captura de pantalla de una respuesta de Gemini, que contiene un enlace al sitio web del FT. Lo intenté nuevamente, pero todavía no pude replicarlo).
La pregunta más amplia es si Google se ha visto obligado a lanzar productos de IA más rápido de lo que le gustaría para no quedarse atrás de OpenAI y otros. Los resúmenes de IA de Google han advertido a los usuarios que, por ejemplo, es saludable comer piedras
Según Google, solo uno de cada siete millones de resúmenes de IA tiene una infracción de la política de contenido, como sugerir a los usuarios que coman piedras. Manyika confiesa que le encanta la cultura de debate interno de Google: “La mitad del tiempo, la gente piensa que no deberíamos publicar nada. La otra mitad, piensa que somos demasiado lentos.
“No siempre haremos bien esas cosas, creo que está bien”. Google “ha tenido muchas cosas que ha dejado de lado. Cuando me incorporé a la empresa, se decidió no lanzar la tecnología de reconocimiento facial”. Cortésmente no menciona que, en cambio, Altman de OpenAI ha invertido en escaneo del globo ocular.
El robo-drafting conlleva otros riesgos. Obtenemos pistas sobre la personalidad y la competencia de alguien a partir de su estilo de escritura. Si los chatbots se imponen, tal vez no podamos hacerlo. Manyika sostiene que estoy romantizando el presente: “Cuando te escribo una carta, tal vez mi asistente la haya redactado”.
Pongo otro ejemplo: ¿no resulta inútil que, debido al uso de chatbots por parte de los alumnos, muchos profesores ya no puedan asignar tareas escritas? “¿Cuántas veces crees que un profesor que corrige 100 ensayos lee cada uno de principio a fin?”, responde. No es precisamente esa la cuestión.
Manyika es amiga del cantante will.i.am, quien “abrió una escuela en Compton, un barrio pobre de Los Ángeles. A esos niños se les ha prometido durante décadas que alguien aparecerá y les enseñará a programar. Esa persona nunca apareció. Ahora, cuando usan un LLM para redactar código, ¿eso es algo bueno o malo?”
La aparente paradoja es que, en la misma época en que Google ha difundido brillantemente la información mundial, el mundo parece más susceptible a la desinformación. “No sé si culparía a Google de eso”, dice Manyika. Tal vez no, pero cambiar radicalmente la forma en que obtenemos y procesamos la información puede tener consecuencias graves e imprevistas.
Manyika cambia el tema de conversación y se centra en la computación cuántica. “En realidad, creemos que la computación cuántica nos permitirá desarrollar una IA diferente. Permanezcan atentos: este año habrá noticias importantes que marcarán un hito. Lo que aún no ha sucedido… es que nadie ha demostrado un cálculo que, en principio, ni siquiera se puede hacer con un ordenador clásico”. La fortaleza de los defensores de la tecnología es producir un nuevo truco mientras el mundo todavía está luchando por evaluar el último.