En marzo de 2024, informamos cómo era la startup británica de inteligencia artificial Literal Labs. trabajando para hacer obsoleto el entrenamiento basado en GPU con su Tseltin Machine, un modelo de aprendizaje automático que utiliza el aprendizaje basado en la lógica para clasificar datos.
Opera a través de autómatas Tsetlin, que establecen conexiones lógicas entre las características de los datos de entrada y las reglas de clasificación. En función de si las decisiones son correctas o incorrectas, la máquina ajusta estas conexiones mediante recompensas o sanciones.
Desarrollado por el matemático soviético Mikhail Tsetlin en la década de 1960, este enfoque contrasta con las redes neuronales al centrarse en autómatas de aprendizaje, en lugar de modelar neuronas biológicas, para realizar tareas como clasificación y reconocimiento de patrones.
Diseño energéticamente eficiente
Ahora, Literal Labs, respaldado por Brazoha desarrollado un modelo utilizando máquinas Tsetlin que, a pesar de su tamaño compacto de solo 7,29 KB, ofrece alta precisión y mejora drásticamente las tareas de detección de anomalías para implementaciones de IA e IoT de vanguardia.
Literal Labs comparó el modelo utilizando MLPerf Inference: Tiny suite y lo probó con un precio de $30. Placa de desarrollo NUCLEO-H7A3ZI-Qque cuenta con un procesador ARM Cortex-M7 de 280 MHz y no incluye un acelerador de IA. Los resultados muestran que el modelo de Literal Labs logra velocidades de inferencia 54 veces más rápidas que las redes neuronales tradicionales y consume 52 veces menos energía.
En comparación con los modelos de mejor rendimiento de la industria, el modelo de Literal Labs demuestra mejoras en la latencia y un diseño energéticamente eficiente, lo que lo hace adecuado para dispositivos de bajo consumo como sensores. Su rendimiento lo hace viable para aplicaciones en IoT industrial, mantenimiento predictivo y diagnóstico de salud, donde la detección de anomalías con rapidez y precisión es crucial.
El uso de un modelo tan compacto y de bajo consumo energético podría ayudar a escalar la implementación de la IA en varios sectores, reduciendo los costos y aumentando la accesibilidad a la tecnología de la IA.
Literal Labs afirma: “Los modelos más pequeños son particularmente ventajosos en este tipo de implementaciones, ya que requieren menos memoria y potencia de procesamiento, lo que les permite ejecutarse en hardware más asequible y con especificaciones más bajas. Esto no sólo reduce los costos, sino que también amplía la gama de dispositivos capaces de admitir funciones avanzadas de IA, lo que hace posible implementar soluciones de IA a escala en entornos con recursos limitados”.