VESSL AI obtiene 12 millones de dólares para su plataforma MLOps que tiene como objetivo reducir los costos de GPU hasta en un 80%

A medida que las empresas integran cada vez más la inteligencia artificial en sus flujos de trabajo y productos, Hay una demanda creciente de herramientas y plataformas. que facilitan la creación, prueba e implementación de modelos de aprendizaje automático. Esta categoría de plataformas, conocida popularmente como operaciones de aprendizaje automático o MLOps, ya está un poco concurrida, con empresas emergentes como Infundir IA, Cometa, Arrikto, Arize, galileo, tectóny Avión de buceosin mencionar las ofertas de empresas tradicionales como Google Cloud, Azure y AWS.

Ahora, una plataforma MLOps de Corea del Sur llamada BUQUE AI está tratando de hacerse un hueco centrándose en optimizar los gastos de GPU utilizando una infraestructura híbrida que combina entornos locales y en la nube. Y la startup ahora ha recaudado $ 12 millones en una ronda de financiación Serie A para acelerar el desarrollo de su infraestructura, dirigida a empresas que desean desarrollar modelos de lenguaje grande (LLM) personalizados y agentes verticales de IA.

La compañía ya cuenta con 50 clientes empresariales, que incluyen algunos nombres importantes como Hyundai; LIG Nex1, un fabricante de armas y aeroespacial de Corea del Sur; Movilidad TMAPuna empresa conjunta de movilidad como servicio entre Uber y la empresa de telecomunicaciones coreana SK Telecom; así como las nuevas empresas tecnológicas Yanolja, Upstage, ScatterLab y Wrtn.ai. La compañía también se ha asociado estratégicamente con Oráculo y Nube de Google En los EE. UU. Tiene más de 2.000 usuarios, dijo a TechCrunch el cofundador y director ejecutivo Jaeman Kuss An.

An fundó la startup en 2020 con Jihwan Jay Chun (CTO), Intae Ryoo (CPO) y Yongseon Sean Lee (líder tecnológico); los fundadores anteriormente trabajaron en Google, la empresa de juegos móviles PUBG y algunas startups de inteligencia artificial, para resolver un problema. Un problema particular con el que tuvo que lidiar al desarrollar modelos de aprendizaje automático en una startup de tecnología médica anterior: la inmensa cantidad de trabajo involucrado en el desarrollo y la utilización de herramientas de aprendizaje automático.

El equipo descubrió que podían hacer que el proceso fuera más eficiente (y, sobre todo, más económico) aprovechando un modelo de infraestructura híbrida. La plataforma MLOps de la compañía utiliza esencialmente una estrategia de múltiples nubes e instancias puntuales para reducir los gastos de GPU hasta en un 80%, señaló An, y agregó que este enfoque también aborda la escasez de GPU y agiliza la capacitación, implementación y operación de modelos de IA, incluidos LLM a gran escala.

“La estrategia de múltiples nubes de VESSL AI permite el uso de GPU de una variedad de proveedores de servicios en la nube como AWS, Google Cloud y Lambda”, dijo An. “Este sistema selecciona automáticamente los recursos más rentables y eficientes, reduciendo significativamente los costos para el cliente”.

La plataforma de VESSL ofrece cuatro características principales: VESSL Run, que automatiza el entrenamiento de modelos de IA; VESSL Serve, que admite implementación en tiempo real; VESSL Pipelines, que integra entrenamiento de modelos y preprocesamiento de datos para optimizar los flujos de trabajo; y VESSL Cluster, que optimiza el uso de recursos de GPU en un entorno de clúster.

Los inversores de la ronda Serie A, que eleva el total recaudado por la compañía a 16,8 millones de dólares, incluyen A Ventures, Ubiquitous Investment, Mirae Asset Securities, Sirius Investment, SJ Investment Partners, Woori Venture Investment y Shinhan Venture Investment. La startup cuenta con 35 empleados en Corea del Sur y en una oficina de San Mateo en EE. UU.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here