Según el Foro Económico Mundial, la desinformación y la desinformación generadas por la IA serán los mayores riesgos globales a corto plazo del año. Dado que la mitad de la población mundial participa en las elecciones de este año, la desinformación en forma de deepfakes plantea un peligro particular para la democracia. Antes de las elecciones generales del Reino Unido, se advirtió a los candidatos que circularía información errónea generada por IA, y que se utilizarían vídeos, audios e imágenes ultrafalsos para trollear a los oponentes y falsificar respaldos.
En los últimos años, la tecnología de audio deepfake de bajo costo se ha vuelto ampliamente disponible y mucho más convincente. Alguno herramientas de inteligencia artificial puede generar imitaciones realistas de la voz de una persona utilizando sólo unos minutos de audio, que se obtiene fácilmente de figuras públicas, lo que permite a los estafadores crear grabaciones manipuladas de casi cualquier persona.
Pero, ¿qué tan cierta ha resultado ser esta amenaza? ¿Se ha demostrado que la amenaza deepfake está sobrevalorada o pasa desapercibida?
Deepfakes y desinformación
Los deepfakes han generado preocupación durante mucho tiempo en redes socialesla política y el sector público. Pero ahora que los avances tecnológicos hacen que la voz y las imágenes habilitadas por IA sean más reales que nunca, los malos actores armados con herramientas de IA para crear deepfakes están llegando a las empresas.
En un ejemplo reciente dirigido al grupo de publicidad WPP, los piratas informáticos utilizaron una combinación de videos falsos y clonación de voz en un intento de engañar a los ejecutivos de la empresa haciéndoles creer que estaban discutiendo una empresa comercial con sus pares con el objetivo final de extraer dinero e información confidencial. Si bien no tuvo éxito, el sofisticado ciberataque muestra la vulnerabilidad de personas de alto perfil cuyos detalles están fácilmente disponibles en línea.
Esto se hace eco del temor de que el gran volumen de contenido generado por IA pueda hacer que a los consumidores les resulte difícil distinguir entre información auténtica y manipulada: el 60% admite haber encontrado un deepfake durante el último año y el 72% se preocupa diariamente por ser engañado por un deepfake para que entregue información confidencial o dinero, según una investigación de Jumio. Esto exige un discurso transparente para afrontar este desafío y empoderar a las empresas y a sus usuarios finales con las herramientas para discernir y denunciar los deepfakes.
Luchando contra la IA con IA
La educación sobre cómo detectar un deepfake por sí sola no es suficiente, y los departamentos de TI están luchando por implementar mejores políticas y sistemas para prevenir los deepfake. Esto se debe a que los estafadores ahora utilizan una variedad de técnicas sofisticadas, como rostros ultrafalsos, transformación de rostros e intercambio de rostros para hacerse pasar por empleados y clientes, lo que hace muy difícil detectar que la persona no es quien usted cree que es.
Aunque los ciberdelincuentes ahora consideran que el fraude es más fructífero, la IA avanzada también puede ser la clave no solo para defenderse, sino para contrarrestar activamente las amenazas cibernéticas ultrafalsas. Para las empresas, garantizar la autenticidad de las personas que acceden a las cuentas es crucial para prevenir actividades fraudulentas, como apropiaciones de cuentas y transacciones no autorizadas. Los sistemas de verificación biométricos cambian las reglas del juego a la hora de eliminar los intentos de deepfake. El uso de características biológicas únicas, como huellas dactilares y reconocimiento facial, para verificar las identidades de los consumidores durante los inicios de sesión hace que sea mucho más difícil para los estafadores lograr suplantar su acceso a las cuentas. La combinación de estos sistemas de verificación mediante múltiples marcadores biométricos crea un sistema de seguridad de cuentas extremadamente difícil de superar.
Pero eso no es todo. La IA puede mejorar aún más el juego al detectar actividades fraudulentas en tiempo real mediante el uso de métodos predictivos. analítica. Imagine algoritmos de aprendizaje automático examinando montañas de datos, seleccionando patrones inusuales que podrían indicar fraude. Estos sistemas de inteligencia artificial son como perros guardianes, con la capacidad de aprender constantemente cómo se comportan los estafadores en comparación con cómo actúan los usuarios legítimos típicos. Por ejemplo, la IA puede analizar los patrones de uso típicos de miles de millones de dispositivos y números de teléfono utilizados para iniciar sesión en cuentas críticas donde se almacena información personal, como correo electrónico o cuentas bancarias, para detectar comportamientos inusuales.
Por ejemplo, cuando un nuevo usuario configura una cuenta en su empresa, ya no es suficiente verificar su identificación y permitirle cargar una foto de su selfie. Debe poder detectar falsificaciones tanto de la identificación como del selfie mediante medidas de verificación de identidad en tiempo real. Esto implica el uso de verificación avanzada de selfies y detección de vida tanto pasiva como activa que puede detectar ataques de suplantación de identidad.
Para prevenir realmente los deepfakes, la solución debe controlar el proceso de selfie y tomar una serie de imágenes para determinar si la persona está físicamente presente y despierta. Luego, la tecnología biométrica puede comparar rasgos faciales específicos de la selfie, como la distancia entre los ojos, la nariz y las orejas, con los de la foto de identificación, asegurando que sean la misma persona. El paso de verificación de selfies también debería ofrecer otras comprobaciones biométricas, como la estimación de la edad, para marcar selfies que no parecen coincidir con los datos de la identificación.
El futuro de los deepfakes
Durante el resto de 2024 y más allá, no se puede subestimar el potencial del contenido generado por IA que impulsa la desinformación para perturbar los procesos democráticos, empañar la reputación e incitar a la incertidumbre pública.
En última instancia, no existe un enfoque exacto para mitigar eficazmente la amenaza de los deepfakes. La lección clave que las empresas deberían aprender del aumento del fraude infundido por la IA es no descuidar su propio uso de la IA para reforzar las defensas.
Luchar contra la IA con IA ofrece a las empresas la mejor oportunidad de manejar el volumen y la sofisticación de las amenazas en constante aumento.
Hemos enumerado el mejor software de gestión de identidad..
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde presentamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no son necesariamente las de TechRadarPro o Future plc. Si estás interesado en contribuir, descubre más aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro