AbiertoAIla compañía detrás de la famosa solución de Inteligencia Artificial (IA) generativa Chat-GPT, dice que recientemente ha bloqueado múltiples campañas maliciosas que abusan de sus servicios.
En un informela compañía dijo que ha bloqueado más de 20 operaciones y redes engañosas en todo el mundo en lo que va de 2024.
Estas operaciones variaron en naturaleza, tamaño y objetivos. A veces, los delincuentes lo usaban para depurar malwarey, a veces, lo usaban para escribir contenido (artículos de sitios web, biografías falsas para cuentas de redes sociales, imágenes de perfil falsas, etc.).
Interrumpiendo a los disruptores
Si bien esto suena siniestro y peligroso, OpenAI dice que los actores de amenazas no lograron ganar ningún impulso significativo con estas campañas:
“Los actores de amenazas continúan evolucionando y experimentando con nuestros modelos, pero no hemos visto evidencia de que esto conduzca a avances significativos en su capacidad para crear malware sustancialmente nuevo o construir audiencias virales”, dijo.
Pero 2024 es el año de las elecciones, no sólo en Estados Unidos, sino en otras partes del mundo, y OpenAI ha visto ChatGPT abusados por actores de amenazas que intentan influir en las campañas preelectorales. Mencionó varios grupos, incluido uno llamado “Zero Zeno”. Esta empresa comercial con sede en Israel generó “brevemente” comentarios en las redes sociales sobre las elecciones en la India, una campaña que fue interrumpida “menos de 24 horas después de su inicio”.
La empresa añadió en junio de 2024, justo antes de las elecciones al Parlamento Europeo, que interrumpió una operación denominada “A2Z”, que se centraba en Azerbaiyán y sus vecinos. Otras menciones notables incluyeron generar comentarios sobre las elecciones al Parlamento Europeo en Francia y la política en Italia, Polonia, Alemania y Estados Unidos.
Afortunadamente, ninguna de estas campañas logró avances significativos y, una vez que OpenAI las prohibió, se detuvieron por completo:
“La mayoría de las publicaciones en las redes sociales que identificamos como generadas a partir de nuestros modelos recibieron pocos o ningún me gusta, acciones o comentarios, aunque identificamos algunas ocasiones en las que personas reales respondieron a sus publicaciones”, concluyó OpenAI. “Después de que bloqueamos su acceso a nuestros modelos, las cuentas de redes sociales de esta operación que habíamos identificado dejaron de publicar durante los períodos electorales en la UE, el Reino Unido y Francia”.