Tras semanas de especulaciones sobre un nuevo y más potente producto de inteligencia artificial en desarrollo, OpenAI anunció hoy su primer “modelo de razonamiento”. El programa, conocido como o1, puede ser en muchos aspectos la oferta de inteligencia artificial más potente de OpenAI hasta el momento, con capacidades de resolución de problemas que se asemejan a las de la mente humana más que cualquier otro software anterior. O, al menos, así es como lo vende la empresa.
Al igual que con la mayoría de las investigaciones y anuncios de productos de OpenAI, o1 es, por ahora, algo así como un fastidiarLa start-up afirma que el modelo es mucho mejor en tareas complejas, pero ha publicado muy pocos detalles sobre el entrenamiento del modelo. Y o1 está disponible actualmente solo como una vista previa limitada para los usuarios pagos de ChatGPT y programadores selectos. Todo lo que el público en general tiene que hacer es un gran pronunciamiento: OpenAI cree que ha descubierto cómo crear un software tan potente que pronto pensará “de manera similar a los estudiantes de doctorado” en tareas de física, química y biología. El avance es supuestamente tan significativo que la empresa dice que está empezando de nuevo desde el modelo GPT-4 actual, “volviendo a poner el contador a 1” e incluso renunciando a la marca familiar “GPT” que hasta ahora ha definido a su chatbot, si no a todo el auge de la IA generativa.
Las publicaciones de investigación y blog que OpenAI publicó hoy están repletas de ejemplos realmente impresionantes del “razonamiento” del chatbot a través de tareas difíciles: problemas avanzados de matemáticas y codificación; descifrado de un código complejo; preguntas complejas sobre genética, economía y física cuántica de expertos en esos campos. Numerosos gráficos muestran que, durante las evaluaciones internas, o1 ha saltó el modelo de lenguaje más avanzado de la compañía, GPT-4o, sobre problemas de codificación, matemáticas y diversos campos científicos.
La clave de estos avances es una lección que se enseña a la mayoría de los niños: pensar antes de hablar. OpenAI diseñó o1 para que tardara más tiempo en “pensar en los problemas antes de responder, de forma similar a como lo haría una persona”. de acuerdo a al anuncio de hoy. La empresa ha denominado esa deliberación interna una “cadena de pensamiento”, una término de larga duración Los investigadores de IA utilizan esta palabra para describir programas que dividen los problemas en pasos intermedios. Esa cadena de pensamiento, a su vez, permite que el modelo resuelva tareas más pequeñas, se corrija a sí mismo y refine su enfoque. Cuando hice las preguntas de vista previa de o1 hoy, mostró la palabra “Pensando” después de que le envié varias indicaciones, y luego mostró mensajes relacionados con los pasos de su razonamiento: “Rastreando cambios históricos” o “Reuniendo evidencias”, por ejemplo. Luego, señaló que “Pensó durante 9 segundos”, o un período breve similar, antes de proporcionar una respuesta final.
La “cadena de pensamiento” completa que utiliza o1 para llegar a una respuesta determinada se oculta a los usuarios, lo que sacrifica la transparencia en aras de una experiencia más clara: de todos modos, no tendrá una visión detallada de cómo el modelo determina la respuesta que finalmente muestra. Esto también sirve para mantener el funcionamiento interno del modelo alejado de los competidores. OpenAI no ha dicho casi nada sobre cómo se creó o1. narración El borde Solo que fue entrenado con un “algoritmo de optimización completamente nuevo y un nuevo conjunto de datos de entrenamiento”. Un portavoz de OpenAI no respondió de inmediato a una solicitud de comentarios esta tarde.
A pesar de la publicidad de OpenAI, no está claro que o1 proporcione una experiencia enormemente nueva en ChatGPT, ni siquiera una mejora incremental con respecto a los modelos anteriores. Pero, según la investigación presentada por la empresa y mis propias pruebas limitadas, parece que los resultados son al menos un poco más exhaustivos y razonados que antes, lo que refleja la apuesta de OpenAI por la escala: que los programas de IA más grandes, alimentados con más datos y construidos y ejecutados con más potencia informática, serán mejores. Cuanto más tiempo utilizó la empresa para entrenar a o1, y cuanto más tiempo se le dio a o1 para responder una pregunta, mejor se desempeñó.
Un resultado de esta larga reflexión es el costo. OpenAI permite a los programadores pagar para usar su tecnología en sus herramientas, y cada palabra que genera la vista previa de o1 es aproximadamente cuatro veces más cara que la de la versión anterior. más caro que para GPT-4o. Los chips informáticos avanzados, la electricidad y los sistemas de refrigeración que alimentan la IA generativa son increíblemente caros. La tecnología va camino de requerir billones de dólares de inversión de las grandes empresas tecnológicas, las compañías energéticas y otras industrias, un auge del gasto que ha preocupado a algunos de que la IA pueda ser una burbuja similar a la de las criptomonedas o la era de las puntocom. La IA generativa, expresamente diseñada para requerir más tiempo, necesariamente consume más recursos, lo que a su vez aumenta las apuestas sobre cuán pronto la IA generativa puede ser rentable, si es que alguna vez lo es.
Tal vez la consecuencia más importante de estos tiempos de procesamiento más largos no sean tanto los costos técnicos o financieros como una cuestión de marca. Los modelos de “razonamiento” con “cadenas de pensamiento” que necesitan “más tiempo” no suenan como algo propio de laboratorios de informática, a diferencia del lenguaje esotérico de “transformadores” y “difusión” utilizado anteriormente para los modelos de texto e imagen. En cambio, OpenAI está comunicando, de manera clara y contundente, una afirmación de haber creado un software que se aproxima más a nuestras mentes. Muchos rivales también han adoptado esta táctica. La start-up Anthropic ha descrito su modelo líder, Claude, como “personaje” y un “mente” Google promociona su IA “razonamiento” capacidades; la empresa emergente de búsqueda de inteligencia artificial Perplexity dice que su producto “te entiende.” Según los blogs de OpenAI, o1 resuelve problemas “de manera similar a cómo puede pensar un humano”, funciona “Como un verdadero ingeniero de software”, y razona “de manera muy similar a una persona”. El líder de investigación de la startup dijo El borde que “hay formas en las que se siente más humano que los modelos anteriores”, pero también insistió en que OpenAI no cree en equiparar sus productos a nuestros cerebros.
El lenguaje de la humanidad podría ser especialmente útil para una industria que no puede precisar exactamente lo que está vendiendo. La inteligencia es amplia y notoriamente mal definida, y el valor de un modelo de “lenguaje” es, en el mejor de los casos, confuso. El nombre “GPT” en realidad no comunica nada en absoluto, y aunque Bob McGrew, el director de investigación de la empresa, dijo El borde que o1 es un “primer paso hacia nombres más nuevos y más sensatos que transmitan mejor lo que estamos haciendo”, la distinción entre un acrónimo en mayúscula y una letra y un número en minúscula se perderá para muchos.
Pero vender el razonamiento humano (una herramienta que piensa como tú, junto a ti) es diferente, es algo que se puede hacer en la literatura en lugar de en un laboratorio. El lenguaje, por supuesto, no es más claro que cualquier otra terminología de IA, y si acaso es menos preciso: cada cerebro y la mente que sustenta son completamente diferentes, y comparar en líneas generales la IA con un ser humano puede evidenciar una falta de comprensión del humanismo. Tal vez esa indeterminación sea el atractivo: decir que un modelo de IA “piensa” como una persona crea un vacío que todos podemos llenar, una invitación a imaginar una computadora que opera como una persona. a mí. Quizás el truco para vender IA generativa consiste en dejar que los clientes potenciales creen toda la magia por sí mismos.