Estamos entrando en un territorio inexplorado para las matemáticas

Terence Tao, profesor de matemáticas en UCLA, es una superinteligencia de la vida real. El “Mozart de las matemáticas”, como a veces se le llama, es ampliamente considerado el matemático vivo más grande del mundo. Ha ganado numerosos premios, incluido el equivalente a un Premio Nobel de matemáticas, por sus avances y pruebas. En este momento, la IA no está ni cerca de su nivel.

Pero las empresas de tecnología están intentando lograrlo. Las generaciones recientes y llamativas de IA (incluso el todopoderoso ChatGPT) no fueron diseñadas para manejar el razonamiento matemático. En cambio, se centraban en el lenguaje: cuando se le pedía a un programa de este tipo que respondiera una pregunta básica, no entendía ni ejecutaba una ecuación ni formulaba una prueba, sino que presentaba una respuesta basada en las palabras que probablemente aparecieran en secuencia. Por ejemplo, el ChatGPT original no puede sumar ni multiplicar, pero ha visto suficientes ejemplos de álgebra para resolver x + 2 = 4: “Para resolver la ecuación incógnita + 2 = 4, resta 2 de ambos lados…” Ahora, sin embargo, OpenAI está comercializando explícitamente una nueva línea de “modelos de razonamiento”, conocida colectivamente como la serie o1, por su capacidad para resolver problemas “como una persona” y resolver problemas complejos. matemático y tareas y consultas científicas. Si estos modelos tienen éxito, podrían representar un cambio radical en el trabajo lento y solitario que realizan Tao y sus pares.

Después de ver a Tao correo Sus impresiones sobre o1 online (lo comparó con un estudiante de posgrado “mediocre, pero no completamente incompetente”) quería entender más sobre sus puntos de vista sobre el potencial de la tecnología. En una llamada de Zoom la semana pasada, describió un tipo de “matemáticas a escala industrial” habilitadas por la IA que nunca antes había sido posible: una en la que la IA, al menos en el futuro cercano, no es un colaborador creativo por derecho propio. tanto como un lubricante para las hipótesis y enfoques de los matemáticos. Este nuevo tipo de matemática, que podría desbloquear la terra incognitae del conocimiento, seguirá siendo humana en su esencia, y abarcará cómo las personas y las máquinas tienen fortalezas muy diferentes que deberían considerarse complementarias en lugar de competitivas.

Esta conversación ha sido editada para mayor extensión y claridad.


Mateo Wong: ¿Cuál fue tu primera experiencia con ChatGPT?

Terence Tao: Jugué con él prácticamente tan pronto como salió. Planteé algunos problemas matemáticos difíciles y obtuve resultados bastante tontos. Era un inglés coherente, mencionaba las palabras correctas, pero había muy poca profundidad. Algo realmente avanzado, los primeros GPT no eran nada impresionantes. Eran buenos para cosas divertidas, como si quisieras explicar algún tema matemático en forma de poema o cuento para niños. Son bastante impresionantes.

Wong: OpenAI dice que o1 puede “razonar”, pero tú comparado el modelo a un estudiante de posgrado “mediocre, pero no completamente incompetente”.

Tao: Esa redacción inicial se volvió viral, pero fue malinterpretada. No estaba diciendo que esta herramienta sea equivalente a un estudiante de posgrado en todos los aspectos de los estudios de posgrado. Estaba interesado en utilizar estas herramientas como asistentes de investigación. Un proyecto de investigación tiene muchos pasos tediosos: es posible que tengas una idea y quieras desarrollar los cálculos, pero tienes que hacerlo a mano y resolverlo todo.

Wong: Entonces es un asistente de investigación mediocre o incompetente.

Tao: Bien, es el equivalente, en términos de servir como ese tipo de asistente. Pero sí imagino un futuro en el que se investiga a través de una conversación con un chatbot. Digamos que tienes una idea y el chatbot la siguió y completó todos los detalles.

Ya está sucediendo en algunas otras áreas. La IA conquistó el ajedrez hace años, pero el ajedrez sigue prosperando hoy en día, porque ahora es posible para un jugador de ajedrez razonablemente bueno especular qué movimientos son buenos en qué situaciones, y puede usar los motores de ajedrez para comprobar 20 movimientos por delante. Puedo ver que este tipo de cosas suceden eventualmente en matemáticas: tienes un proyecto y preguntas: “¿Qué pasa si pruebo este enfoque?”. Y en lugar de pasar horas y horas intentando que funcione, usted guía a un GPT para que lo haga por usted.

Con o1, puedes hacer algo así. Le planteé un problema que sabía resolver y traté de guiar el modelo. Primero le di una pista, pero la ignoró e hizo algo más, que no funcionó. Cuando le expliqué esto, se disculpó y dijo: “Está bien, lo haré a tu manera”. Y luego cumplió mis instrucciones razonablemente bien, y luego se atascó nuevamente y tuve que corregirlo nuevamente. La modelo nunca descubrió los pasos más inteligentes. Podía hacer todas las cosas rutinarias, pero carecía de imaginación.

Una diferencia clave entre los estudiantes de posgrado y la IA es que los estudiantes de posgrado aprenden. Le dices a una IA que su enfoque no funciona, se disculpa, tal vez corrija temporalmente su curso, pero a veces simplemente vuelve a lo que intentó antes. Y si comienzas una nueva sesión con IA, vuelves al punto de partida. Soy mucho más paciente con los estudiantes de posgrado porque sé que incluso si un estudiante de posgrado falla por completo en resolver una tarea, tiene potencial para aprender y autocorregirse.

Wong: Tal como lo describe OpenAI, o1 puede reconocer sus errores, pero usted dice que eso no es lo mismo que el aprendizaje sostenido, que es lo que realmente hace que los errores sean útiles para los humanos.

Tao: Sí, los humanos tienen crecimiento. Estos modelos son estáticos: la retroalimentación que le doy a GPT-4 podría usarse como el 0,00001 por ciento de los datos de entrenamiento para GPT-5. Pero eso no es realmente lo mismo que con un estudiante.

La IA y los humanos tienen modelos muy diferentes sobre cómo aprenden y resuelven problemas; creo que es mejor pensar en la IA como una forma complementaria de realizar tareas. Para muchas tareas, lo más prometedor será tener tanto a IA como a humanos haciendo cosas diferentes.

Wong: También ha dicho anteriormente que los programas informáticos podrían transformar las matemáticas y facilitar la colaboración entre los humanos. ¿Cómo es eso? ¿Y la IA generativa tiene algo que aportar aquí?

Tao: Técnicamente no están clasificados como IA, pero los asistentes de prueba son herramientas informáticas útiles que comprueban si un argumento matemático es correcto o no. Permiten una colaboración a gran escala en matemáticas. Ese es un advenimiento muy reciente.

Las matemáticas pueden ser muy frágiles: si un paso de una demostración es incorrecto, todo el argumento puede colapsar. Si haces un proyecto colaborativo con 100 personas, divides tu prueba en 100 partes y todos contribuyen con una. Pero si no se coordinan entre sí, es posible que las piezas no encajen correctamente. Debido a esto, es muy raro ver a más de cinco personas en un solo proyecto.

Con los asistentes de prueba, no necesita confiar en las personas con las que está trabajando, porque el programa le ofrece esta garantía del 100 por ciento. Entonces se pueden hacer matemáticas a escala industrial, del tipo producción en fábrica, que en realidad no existen en este momento. Una persona se centra simplemente en demostrar ciertos tipos de resultados, como una cadena de suministro moderna.

El problema es que estos programas son muy complicados. Tienes que escribir tu argumento en un lenguaje especializado; no puedes escribirlo simplemente en inglés. La IA puede ser capaz de realizar alguna traducción del lenguaje humano a los programas. Traducir un idioma a otro es casi exactamente para lo que están diseñados los grandes modelos lingüísticos. El sueño es que simplemente tengas una conversación con un chatbot explicando tu prueba, y el chatbot la convertirá en un lenguaje de sistema de prueba a medida que avanzas.

Wong: Entonces, el chatbot no es una fuente de conocimiento o ideas, sino una forma de interactuar.

Tao: Sí, podría ser un pegamento realmente útil.

Wong: ¿Cuáles son los tipos de problemas que esto podría ayudar a resolver?

Tao: La idea clásica de las matemáticas es que eliges un problema realmente difícil y luego tienes a una o dos personas encerradas en el ático durante siete años simplemente resolviendolo. Los tipos de problemas que desea atacar con la IA son los opuestos. La forma ingenua en que usarías la IA es alimentarla con el problema más difícil que tenemos en matemáticas. No creo que vaya a tener mucho éxito y, además, ya tenemos humanos que están trabajando en esos problemas.

El tipo de matemática que más me interesa es la matemática que realmente no existe. El proyecto que lancé hace apenas unos días trata sobre un área de las matemáticas llamada álgebra universal, que trata sobre si ciertas afirmaciones o ecuaciones matemáticas implican que otras afirmaciones son verdaderas. La forma en que la gente ha estudiado esto en el pasado es que eligen una o dos ecuaciones y las estudian hasta el fondo, como cuando un artesano solía hacer un juguete a la vez y luego trabajaba en el siguiente. Ahora tenemos fábricas; Podemos producir miles de juguetes a la vez. En mi proyecto, hay una colección de alrededor de 4.000 ecuaciones y la tarea es encontrar conexiones entre ellas. Cada uno es relativamente fácil, pero hay un millón de implicaciones. Hay como 10 puntos de luz, 10 ecuaciones entre estas miles que han sido estudiadas razonablemente bien, y luego está toda esta terra incógnita.

Hay otros campos donde se ha producido esta transición, como en la genética. Solía ​​ser que si querías secuenciar el genoma de un organismo, esto requería un doctorado completo. tesis. Ahora tenemos estas máquinas de secuenciación de genes, por lo que los genetistas están secuenciando poblaciones enteras. Puedes hacer diferentes tipos de genética de esa manera. En lugar de matemáticas estrechas y profundas, donde un humano experto trabaja muy duro en un ámbito limitado de problemas, se podrían tener problemas amplios y colaborativos con mucha asistencia de IA que tal vez sean menos profundos, pero a una escala mucho mayor. Y podría ser una forma muy complementaria de adquirir conocimientos matemáticos.

Wong: Me recuerda cómo un programa de inteligencia artificial creado por Google Deepmind, llamado AlphaFold, descubrió cómo predecir la estructura tridimensional de las proteínas, algo que durante mucho tiempo debía hacerse una proteína a la vez.

Tao: Correcto, pero eso no significa que la ciencia de las proteínas esté obsoleta. Tienes que cambiar los problemas que estudias. Hace ciento cincuenta años, la principal utilidad de los matemáticos era resolver ecuaciones diferenciales parciales. Actualmente existen paquetes informáticos que hacen esto automáticamente. Hace seiscientos años, los matemáticos construían tablas de senos y cosenos, que eran necesarias para la navegación, pero ahora las computadoras pueden generarlas en segundos.

No estoy muy interesado en duplicar las cosas en las que los humanos ya somos buenos. Parece ineficiente. Creo que en la frontera siempre necesitaremos humanos e inteligencia artificial. Tienen fortalezas complementarias. La IA es muy buena para convertir miles de millones de datos en una buena respuesta. Los humanos son buenos para realizar 10 observaciones y hacer conjeturas realmente inspiradas.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here