¿Deberían las organizaciones considerar MLSecOps en su estrategia de ciberseguridad?

A medida que más y más organizaciones adoptan Inteligencia artificial (IA) y el aprendizaje automático (ML) para optimizar sus operaciones y obtener una ventaja competitiva, existe una creciente atención en la mejor manera de mantener segura esta poderosa tecnología. En el centro de esto se encuentra la datos Se utiliza para entrenar modelos de ML, lo que tiene un impacto fundamental en su comportamiento y rendimiento a lo largo del tiempo. Por ello, las organizaciones deben prestar mucha atención a lo que se introduce en sus modelos y estar constantemente alertas a cualquier señal de algo extraño, como la corrupción de datos.

Lamentablemente, a medida que la popularidad de los modelos de ML ha aumentado, también lo ha hecho el riesgo de ataques maliciosos de puerta trasera en los que los delincuentes utilizan técnicas de envenenamiento de datos para alimentar los modelos de ML con datos comprometidos, lo que hace que se comporten de manera imprevista o dañina cuando se activan con comandos específicos. Si bien estos ataques pueden tardar mucho tiempo en ejecutarse (a menudo requieren grandes cantidades de datos envenenados durante muchos meses), pueden ser increíblemente dañinos cuando tienen éxito. Por este motivo, es algo contra lo que las organizaciones deben protegerse, en particular en la etapa fundacional de cualquier nuevo modelo de ML.

Fuente