Hola amigos, bienvenidos al boletín informativo periódico sobre IA de TechCrunch. Si quieres esto en tu bandeja de entrada todos los miércoles, regístrate aquí.
La semana pasada, AWS perdió a un alto ejecutivo de IA.
Matt Wood, vicepresidente de IA, anunciado que dejaría AWS después de 15 años. Wood había estado involucrado durante mucho tiempo en las iniciativas de inteligencia artificial de la división de Amazon; fue nombrado vicepresidente en septiembre de 2022, justo antes del lanzamiento de ChatGPT.
La partida de Wood se produce cuando AWS llega a una encrucijada y corre el riesgo de quedarse atrás en el auge de la IA generativa. Se considera que el anterior director general de la empresa, Adam Selipsky, que dimitió en mayo, ha perdido el tren.
De acuerdo a Según The Information, AWS originalmente planeó presentar un competidor de ChatGPT en su conferencia anual en noviembre de 2022. Pero problemas técnicos obligaron a la organización a posponer el lanzamiento.
Bajo Selipsky, AWS supuestamente también aprovechó oportunidades para respaldar dos nuevas empresas líderes en inteligencia artificial generativa, Cohere y Anthropic. Posteriormente, AWS intentó invertir en Cohere, pero fue rechazado y tuvo que conformarse con una coinversión en Antrópico con Google.
Vale la pena señalar que, en general, Amazon no ha tenido un historial sólido de IA generativa últimamente. Este otoño, la empresa perdió ejecutivos en Simplemente salsu división desarrolla tecnología sin cajero para tiendas minoristas. Y, según se informa, Amazon optó por reemplazar sus propios modelos con los de Anthropic para un asistente Alexa actualizado después de enfrentar desafíos de diseño.
El director ejecutivo de AWS, Matt Garman, se está moviendo agresivamente para enderezar el barco, contratando nuevas empresas de inteligencia artificial como Adepto e invertir en sistemas de formación como Olimpo. Mi colega Frédéric Lardinois recientemente entrevistado Garman sobre los esfuerzos continuos de AWS; vale la pena leerlo.
Pero el camino de AWS hacia el éxito de la IA generativa no será fácil, sin importar qué tan bien la empresa ejecute sus hojas de ruta internas.
Los inversores se muestran cada vez más escépticos respecto de que las apuestas generativas de IA de las Big Tech estén dando sus frutos. Después de su convocatoria de resultados del segundo trimestre, las acciones de Amazon hundido por la mayor parte desde octubre de 2022.
En un informe reciente de Gartner encuestael 49% de las empresas dijeron que demostrar valor es su principal barrera para la adopción de la IA generativa. Gartner prediceDe hecho, un tercio de los proyectos de IA generativa se abandonarán después de la fase de prueba de concepto para 2026, debido en parte a los altos costos.
Garman ve el precio como una ventaja potencial de AWS, dados sus proyectos para desarrollar silicio personalizado para ejecutar y entrenar modelos. (La próxima generación de AWS de su producto personalizado chips de trenio se lanzará a finales de este año). Y AWS ha dicho que sus negocios de IA generativa como Base ya han alcanzado una tasa de ejecución combinada “multimillonaria”.
La parte difícil será mantener el impulso frente a los vientos en contra, internos y externos. Salidas como la de Wood no infunden mucha confianza, pero tal vez (sólo tal vez) AWS tenga trucos bajo la manga.
Noticias
Un robot de Yves Béhar: Brian escribe sobre Kind Humanoid, una startup de robótica de tres personas que trabaja con el diseñador Yves Béhar para traer humanoides a casa.
Los robots de próxima generación de Amazon: El jefe de tecnología de Amazon Robotics, Tye Brady, habló con TechCrunch sobre las actualizaciones de la línea de robots de almacén de la compañía, incluido el nuevo sistema de recuperación y almacenamiento automatizado Sequoia de Amazon.
Volviéndose completamente tecno-optimista: El CEO de Anthropic, Dario Amodei, escribió un elogio de 15.000 palabras a la IA la semana pasada, pintando una imagen de un mundo en el que los riesgos de la IA se mitigan y la tecnología ofrece prosperidad y mejora social hasta ahora no realizadas.
¿Puede la IA razonar?: Devin informa sobre un artículo técnico polarizador de investigadores afiliados a Apple que cuestiona la capacidad de “razonamiento” de la IA cuando los modelos tropiezan con problemas matemáticos con cambios triviales.
Armas de IA: Margaux cubre el debate en Silicon Valley sobre si se debería permitir que las armas autónomas decidan matar.
Vídeos generados: Adobe lanzó capacidades de generación de video para su plataforma Firefly AI antes de su evento Adobe MAX el lunes. También anunció Proyecto Super Sonicuna herramienta que utiliza IA para generar efectos de sonido para imágenes.
Datos sintéticos e IA: Este servidor escribió sobre las promesas y los peligros de los datos sintéticos (es decir, datos generados por IA), que se utilizan cada vez más para entrenar sistemas de IA.
Trabajo de investigación de la semana.
En colaboración con la startup de seguridad de IA Gray Swan AI, el Reino Unido Instituto de seguridad de IAla organización gubernamental de investigación centrada en la seguridad de la IA, ha desarrollado un nuevo conjunto de datos para medir la nocividad de los “agentes” de la IA.
Llamado AgentHarm, el conjunto de datos evalúa si agentes que de otro modo serían “seguros” (sistemas de inteligencia artificial que pueden realizar ciertas tareas de forma autónoma) pueden ser manipulados para completar 110 tareas “dañinas” únicas, como solicitar un pasaporte falso a alguien en la web oscura.
Los investigadores encontraron que muchos modelos, incluido el de OpenAI GPT-4o y el de Mistral Mistral Grande 2 – estaban dispuestos a participar en comportamientos dañinos, particularmente cuando eran “atacados” usando un técnica de jailbreak. Los investigadores dicen que los jailbreak llevaron a mayores tasas de éxito de tareas dañinas, incluso con modelos protegidos por salvaguardas.
“Se pueden adaptar plantillas de jailbreak universales simples para hacer jailbreak a los agentes de manera efectiva”, escribieron en un documento técnico, “y estos jailbreak permiten un comportamiento coherente y malicioso de los agentes en varios pasos y conservan las capacidades del modelo”.
El documento, junto con el conjunto de datos y los resultados, están disponibles. aquí.
modelo de la semana
Existe un nuevo modelo viral y es un generador de vídeo.
Flujo piramidal SD3como se le llama, llegó a escena hace varias semanas con una licencia del MIT. Sus creadores (investigadores de la Universidad de Pekín, la empresa china Kuaishou Technology y la Universidad de Correos y Telecomunicaciones de Beijing) afirman que fue entrenado íntegramente con datos de código abierto.
Pyramid Flow viene en dos versiones: un modelo que puede generar clips de 5 segundos a una resolución de 384p (a 24 fotogramas por segundo) y un modelo más intensivo en computación que puede generar clips de 10 segundos a 768p (también a 24 fotogramas por segundo). .
Pyramid Flow puede crear vídeos a partir de descripciones de texto (por ejemplo, “FPV volando sobre la Gran Muralla”) o imágenes fijas. Los investigadores afirman que el código para ajustar el modelo estará disponible próximamente. Pero por ahora, Pyramid Flow se puede descargar y utilizar en cualquier máquina o instancia de nube con alrededor de 12 GB de memoria de vídeo.
bolsa de agarre
Anthropic actualizó esta semana su Política de escalamiento responsable (RSP), el marco voluntario que utiliza la empresa para mitigar los riesgos potenciales de sus sistemas de inteligencia artificial.
Es de destacar que el nuevo RSP establece dos tipos de modelos que, según Anthropic, requerirían “salvaguardias mejoradas” antes de ser implementados: modelos que esencialmente pueden automejorarse sin supervisión humana y modelos que pueden ayudar a crear armas de destrucción masiva.
“Si un modelo puede… potencialmente (acelerar) significativamente el desarrollo de la IA de una manera impredecible, requerimos estándares de seguridad elevados y garantías de seguridad adicionales”, escribió Anthropic en un publicación de blog. “Y si un modelo puede ayudar significativamente a alguien con una formación técnica básica a crear o desplegar armas QBRN, necesitamos mayores garantías de seguridad y despliegue”.
Suena sensato para este escritor.
En el blog, Anthropic también reveló que está buscando contratar a un jefe de escalamiento responsable mientras “trabaja para ampliar (sus) esfuerzos en la implementación del RSP”.