Esta semana en IA: los gigantes tecnológicos adoptan los datos sintéticos

Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres esto en tu bandeja de entrada todos los miércoles, regístrate aquí.

Esta semana en IA, los datos sintéticos cobraron importancia.

OpenAI presentó el jueves pasado Canvas, una nueva forma de interactuar con ChatGPTsu plataforma de chatbot impulsada por IA. Lienzo abre una ventana con un espacio de trabajo para escribir y codificar proyectos. Los usuarios pueden generar texto o código en Canvas y luego, si es necesario, resaltar secciones para editar usando ChatGPT.

Desde la perspectiva del usuario, Canvas supone una gran mejora en la calidad de vida. Pero que es mayoría Lo interesante de esta característica, para nosotros, es el modelo ajustado que la impulsa. OpenAI dice que adaptó su GPT-4o modelo que utiliza datos sintéticos para “permitir nuevas interacciones de usuarios” en Canvas.

“Utilizamos técnicas novedosas de generación de datos sintéticos, como la destilación de resultados de OpenAI o1-vista previapara ajustar el GPT-4o para abrir el lienzo, realizar ediciones específicas y dejar comentarios de alta calidad en línea”, escribió el jefe de producto de ChatGPT, Nick Turley, en un publicar en X. “Este enfoque nos permitió mejorar rápidamente el modelo y permitir nuevas interacciones de usuarios, todo sin depender de datos generados por humanos”.

OpenAI no es la única gran empresa tecnológica que depende cada vez más de datos sintéticos para entrenar sus modelos.

en desarrollo Generación de películasun conjunto de herramientas impulsadas por inteligencia artificial para crear y editar videoclips, Meta se basó parcialmente en subtítulos sintéticos generados por una rama de su Llama 3 modelos. La empresa reclutó un equipo de anotadores humanos para corregir errores y agregar más detalles a estos subtítulos, pero la mayor parte del trabajo preliminar fue en gran medida automatizado.

El director ejecutivo de OpenAI, Sam Altman, ha argumentado que la IA algún día producir datos sintéticos lo suficientemente buenos como para entrenarse a sí mismo de manera efectiva. Eso sería ventajoso para empresas como OpenAI, que gasta una fortuna en anotadores humanos y licencias de datos.

Meta ha perfeccionado los propios modelos de Llama 3 usando datos sintéticos. Y se dice que OpenAI está obteniendo datos de entrenamiento sintéticos de o1 para su modelo de próxima generación, cuyo nombre en código es Orion.

Pero adoptar un enfoque que priorice los datos sintéticos conlleva riesgos. Como me señaló recientemente un investigador, los modelos utilizados para generar datos sintéticos inevitablemente alucinan (es decir, inventan cosas) y contienen sesgos y limitaciones. Estos defectos se manifiestan en los datos generados por los modelos.

Por lo tanto, el uso seguro de datos sintéticos requiere curarlos y filtrarlos minuciosamente, como es la práctica estándar con los datos generados por humanos. No hacerlo podría conducir al colapso del modelodonde un modelo se vuelve menos “creativo” (y más sesgado) en sus resultados, lo que eventualmente compromete seriamente su funcionalidad.

Esta no es una tarea fácil a escala. Pero a medida que los datos de entrenamiento del mundo real se vuelven cada vez más mas costoso (sin mencionar el desafío de obtener), los proveedores de IA pueden ver los datos sintéticos como el único camino viable a seguir. Esperemos que actúen con cautela al adoptarlo.

Noticias

Anuncios en descripciones generales de IA: Google dice que pronto comenzará a mostrar anuncios en Resúmenes de IAlos resúmenes generados por IA que proporciona para determinadas consultas de Búsqueda de Google.

Google Lens, ahora con vídeo: Lens, la aplicación de búsqueda visual de Google, se ha actualizado con la capacidad de responder preguntas casi en tiempo real sobre su entorno. Puede capturar un vídeo a través de Lens y hacer preguntas sobre objetos de interés en el vídeo. (Probablemente también aparezcan anuncios sobre esto).

De Sora a DeepMind: Tim Brooks, uno de los líderes del generador de video de OpenAI, sorase fue al rival Google DeepMind. Brooks anunció en una publicación en X que trabajará en tecnologías de generación de video y “simuladores mundiales”.

Fluyéndolo: Black Forest Labs, la startup respaldada por Andreessen Horowitz detrás del componente de generación de imágenes de xAI Grok asistente, lanzó una API en versión beta y lanzó un nuevo modelo.

No tan transparente: El proyecto de ley AB-2013 recientemente aprobado en California exige que las empresas que desarrollan sistemas de IA generativa publiquen un resumen de alto nivel de los datos que utilizaron para entrenar sus sistemas. Hasta ahora, pocas empresas están dispuestas a decir si cumplirán. La ley les da hasta enero de 2026.

Trabajo de investigación de la semana.

Los investigadores de Apple han estado trabajando arduamente en fotografía computacional durante años, y un aspecto importante de ese proceso es el mapeo de profundidad. Originalmente, esto se hacía con estereoscopía o un sensor de profundidad dedicado como una unidad lidar, pero tienden a ser costosos, complejos y ocupan valioso espacio interno. Es preferible hacerlo estrictamente en software en muchos sentidos. De eso se trata este artículo, Depth Pro.

Aleksei Bochkovskii et al. compartir un método para una estimación de profundidad monocular de disparo cero con gran detalle, lo que significa que utiliza una sola cámara, no necesita entrenamiento en cosas específicas (como funciona en un camello a pesar de nunca haber visto uno) y captura incluso aspectos difíciles como mechones de pelo. . Es casi seguro que esté en uso en iPhones en este momento (aunque probablemente sea una versión mejorada y personalizada), pero puedes intentarlo si quieres hacer una pequeña estimación de profundidad usando el código en esta página de GitHub.

modelo de la semana

Google ha lanzado un nuevo modelo de su familia Gemini, Gemini 1.5 Flash-8B, que, según afirma, se encuentra entre los de mayor rendimiento.

Una versión “destilada” de Géminis 1.5 Flashque ya estaba optimizado para velocidad y eficiencia, Gemini 1.5 Flash-8B cuesta un 50 % menos de uso, tiene una latencia más baja y viene con límites de velocidad 2 veces más altos en Estudio de IAel entorno de desarrollo de Google centrado en la IA.

“Flash-8B casi iguala el rendimiento del modelo 1.5 Flash lanzado en mayo en muchos puntos de referencia”, escribe Google en un publicación de blog. “Nuestros modelos (continúan) basándose en los comentarios de los desarrolladores y nuestras propias pruebas de lo que es posible”.

Gemini 1.5 Flash-8B es muy adecuado para chatear, transcribir y traducir, dice Google, o cualquier otra tarea que sea “simple” y “de gran volumen”. Además de AI Studio, el modelo también está disponible de forma gratuita a través de la API Gemini de Google, con una velocidad limitada a 4000 solicitudes por minuto.

bolsa de agarre

Hablando de IA barata, Anthropic ha lanzado una nueva función, Message Batches API, que permite a los desarrolladores procesar grandes cantidades de consultas de modelos de IA de forma asincrónica por menos dinero.

De manera similar a las solicitudes por lotes de Google para la API Gemini, los desarrolladores que utilizan la API Message Batches de Anthropic pueden enviar lotes de hasta un cierto tamaño (10,000 consultas) por lote. Cada lote se procesa en un período de 24 horas y cuesta un 50% menos que las llamadas API estándar.

Anthropic dice que la API Message Batches es ideal para tareas de “gran escala” como análisis de conjuntos de datos, clasificación de grandes conjuntos de datos y evaluaciones de modelos. “Por ejemplo”, escribe la empresa en un correo“analizar repositorios completos de documentos corporativos, que podrían involucrar millones de archivos, se vuelve más viable económicamente al aprovechar (este) descuento por lotes”.

La API Message Batches está disponible en versión beta pública con soporte para Anthropic Soneto de Claude 3.5, Claude 3 Opusy Claude 3 Haiku modelos.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here