Esta semana en IA: OpenAI se está estirando

Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres esto en tu bandeja de entrada todos los miércoles, regístrate aquí.

Después de una breve pausa, volvemos con algunas notas del programa sobre Día de desarrollo de OpenAI.

El discurso de apertura de ayer por la mañana en San Francisco fue notable por su tono tenue, en contraste con el rah-rah, hypebeast-y DIRECCIÓN del director ejecutivo Sam Altman el año pasado. Este DevDay, Altman no subió al escenario para presentar nuevos y brillantes proyectos. Ni siquiera hizo acto de presencia; jefe de producto de plataforma, Olivier Godement, maestro de ceremonias.

en el orden del día Para este primero de varios OpenAI DevDays (el próximo se realizará en Londres este mes, seguido del último en Singapur en noviembre) se lograron mejoras en la calidad de vida. OpenAI lanzó una API de voz en tiempo real, así como un ajuste de visión, que permite a los desarrolladores personalizar su modelo GPT-4o mediante imágenes. Y la compañía lanzó la destilación de modelos, que toma un modelo de IA grande como GPT-4o y lo utiliza para ajustar un modelo más pequeño.

El enfoque limitado del evento no fue inesperado. Abierto AI templado expectativas este verano, diciendo que DevDay se centraría en educar a los desarrolladores, no en exhibir productos. Sin embargo, lo que se omitió en la estrecha conferencia magistral de 60 minutos del martes generó dudas sobre el progreso (y el estado) de los innumerables esfuerzos de IA de OpenAI.

No hemos oído hablar de lo que podría suceder al generador de imágenes de casi un año de OpenAI, DALL-E 3ni recibimos una actualización sobre la vista previa limitada para Motor de vozla herramienta de clonación de voz de la empresa. Aún no hay un cronograma de lanzamiento para el generador de video de OpenAI. soray mamá es la palabra en Media Manager, la aplicación que la compañía dice que está desarrollando para permitir a los creadores controlar cómo se utiliza su contenido en el entrenamiento de modelos.

Cuando se le contactó para hacer comentarios, un portavoz de OpenAI le dijo a TechCrunch que OpenAI está “lanzando lentamente la vista previa (de Voice Engine) a socios más confiables” y que Media Manager está “todavía en desarrollo”.

Pero parece claro que OpenAI está al límite, y lo ha estado durante algún tiempo.

Según recientes informar Según The Wall Street Journal, los equipos de la compañía que trabajan en GPT-4o solo tuvieron nueve días para realizar evaluaciones de seguridad. Fortuna informes que muchos miembros del personal de OpenAI pensaron que o1el primer modelo de “razonamiento” de la empresa, no estaba listo para ser presentado.

Mientras se lanza hacia un ronda de financiación que podría generar hasta 6.500 millones de dólares, OpenAI tiene sus dedos en muchos pasteles mal horneados. DALL-3 tiene un rendimiento inferior a los generadores de imágenes como Flujo en muchas pruebas cualitativas; Sora es según se informa tan lento para generar imágenes que OpenAI está renovando el modelo; y OpenAI continúa retrasando el lanzamiento del programa de reparto de ingresos para su mercado de bots, el Tienda GPTque inicialmente fijó para el primer trimestre de este año.

No me sorprende que OpenAI se encuentre ahora acosado por agotamiento del personal y ejecutivo Salidas. Cuando intentas ser un experto en todo, terminas siendo un maestro de nada y no agradando a nadie.

Noticias

Proyecto de ley de IA vetado: El gobernador de California, Gavin Newsom, vetó la SB 1047, un proyecto de ley de alto perfil que habría regulado el desarrollo de la IA en el estado. En una declaración, Newsom calificó el proyecto de ley como “bien intencionado” pero “(no) el mejor enfoque” para proteger al público de los peligros de la IA.

Se aprobaron proyectos de ley de IA: Newsom promulgó otras regulaciones sobre IA, incluidos proyectos de ley relacionados con la divulgación de datos de entrenamiento de IA, desnudos falsos y más.

Y Combinator criticó: La aceleradora de startups Y Combinator está siendo criticada después de que respaldó una empresa de inteligencia artificial, PearAI, cuyos fundadores admitieron que básicamente clonaron un proyecto de código abierto llamado Continuar.

El copiloto se actualiza: El asistente Copilot de Microsoft, impulsado por inteligencia artificial, se renovó el martes. Ahora puede leer tu pantalla, pensar profundamente y hablarte en voz alta, entre otros trucos.

El cofundador de OpenAI se une a Anthropic: Durk Kingma, uno de los cofundadores menos conocidos de OpenAI, esta semana anunciado se unirá a Anthropic. Sin embargo, no está claro en qué estará trabajando.

Entrenamiento de IA en las fotos de los clientes: Los Ray-Ban de Meta con tecnología de inteligencia artificial tienen una cámara en el frente para varias funciones de AR. Pero podría convertirse en un problema de privacidad: la compañía no dirá si planea entrenar modelos con imágenes de los usuarios.

Cámara AI de Raspberry Pi: Raspberry Pi, la empresa que vende computadoras pequeñas y económicas de placa única, lanzó la cámara Raspberry Pi AI, un complemento con procesamiento de inteligencia artificial integrado.

Trabajo de investigación de la semana.

Las plataformas de codificación de IA han atraído a millones de usuarios y han atraído cientos de millones de dolares de los capitalistas de riesgo. Pero, ¿están cumpliendo sus promesas de aumentar la productividad?

Quizás no, según un nuevo análisis de Uplevel, una empresa de análisis de ingeniería. Uplevel comparó datos de alrededor de 800 de sus clientes desarrolladores, algunos de los cuales informaron haber utilizado la herramienta de codificación de inteligencia artificial de GitHub, Copilot, y otros no. Uplevel descubrió que los desarrolladores que confiaban en Copilot introdujeron un 41% más de errores y no eran menos susceptibles al agotamiento que aquellos que no usaron la herramienta.

Los desarrolladores han mostrado entusiasmo por las herramientas de codificación asistida impulsadas por IA a pesar de las preocupaciones relacionadas no solo con la seguridad sino también infracción de derechos de autor y privacidad. El gran mayoría de los desarrolladores que respondieron a la última encuesta de GitHub dijeron que habían adoptado herramientas de inteligencia artificial de alguna forma. Las empresas también son optimistas: Microsoft informó en abril que Copilot había más de 50.000 clientes empresariales.

modelo de la semana

IA líquidauna empresa derivada del MIT, anunció esta semana su primera serie de modelos de IA generativa: Liquid Foundation Models, o LFM para abreviar.

“¿Así que lo que?” podrías preguntar. Los modelos son una mercancía: prácticamente todos los días se lanzan nuevos. Bueno, los LFM utilizan una arquitectura de modelo novedosa y obtienen puntuaciones competitivas en una variedad de puntos de referencia de la industria.

La mayoría de los modelos son lo que se conoce como transformador. Propuesto por un equipo de investigadores de Google en 2017, el transformador se ha convertido en la arquitectura del modelo de IA generativa dominante. con mucho. Los transformadores apuntalan sora y el versión más reciente de Difusión Estableasí como modelos de generación de texto como el de Anthropic claudio y de google Géminis.

Pero los transformadores tienen limitaciones. En particular, no son muy eficientes a la hora de procesar y analizar grandes cantidades de datos.

Liquid afirma que sus LFM tienen una huella de memoria reducida en comparación con las arquitecturas de transformadores, lo que les permite recibir mayores cantidades de datos en el mismo hardware. “Al comprimir eficientemente las entradas, los LFM pueden procesar secuencias (de datos) más largas”, escribió la compañía en un publicación de blog.

Los LFM de Liquid están disponibles en varias plataformas en la nube y el equipo planea continuar perfeccionando la arquitectura con lanzamientos futuros.

bolsa de agarre

Si parpadeaste, probablemente te lo perdiste: una empresa de inteligencia artificial presentó su solicitud para cotizar en bolsa esta semana.

Llamada Cerebras, la startup con sede en San Francisco desarrolla hardware para ejecutar y entrenar modelos de IA y compite directamente con Nvidia.

Entonces, ¿cómo espera Cerebras competir contra el gigante de los chips, que ordenó ¿entre el 70% y el 95% del segmento de chips de IA en julio? Sobre el rendimiento, dice Cerebras. La compañía afirma que su chip insignia de IA, que vende directamente y ofrece como servicio a través de su nube, puede superar al hardware de Nvidia.

Pero Cerebras aún tiene que traducir esta supuesta ventaja de rendimiento en ganancias. La empresa tuvo una pérdida neta de 66,6 millones de dólares en el primer semestre de 2024. por presentaciones ante la SEC. Y durante el año pasado, Cerebras informó una pérdida neta de 127,2 millones de dólares sobre unos ingresos de 78,7 millones de dólares.

Cerebras podría intentar recaudar hasta mil millones de dólares a través de la IPO, de acuerdo a a Bloomberg. Hasta la fecha, la empresa ha recaudado 715 millones de dólares en capital de riesgo y hace tres años estaba valorada en más de 4 mil millones de dólares.

Fuente