Un experto en ciberseguridad advierte contra el intercambio excesivo con chatbots de IA

Este ensayo tal como lo contó se basa en una conversación con Sebastian Gierlinger, vicepresidente de ingeniería de Storyblok, una empresa de sistemas de gestión de contenidos con 240 empleados con sede en Austria. Ha sido editado para mayor extensión y claridad.

Soy un experto en seguridad y vicepresidente de ingeniería en una empresa de sistemas de gestión de contenidos que tiene a Netflix, Tesla y Adidas entre sus clientes.

Creo que la inteligencia artificial y sus desarrollos más recientes son una bendición para los procesos de trabajo, pero la capacidades más nuevas de estos chatbots generativos de IA también requieren más cuidado y conciencia.

Aquí hay cuatro cosas que tendría en cuenta al interactuar con chatbots de IA como ChatGPT de OpenAIGemini de Google, Claude de Anthropic o Perplexity AI.

Compárelo con el uso de las redes sociales.

Una cosa importante que debes recordar al usar estos chatbots es que la conversación no es solo entre tú y la IA.

Utilizo ChatGPT y modelos de lenguaje grandes similares para sugerencias de vacaciones y escriba mensajes como: “Oye, ¿cuáles son los mejores lugares soleados en mayo con playas decentes y al menos 25 grados?”.

Pero pueden surgir problemas si soy demasiado específico. La empresa puede utilizar estos detalles para entrenar el siguiente modelo y alguien podría preguntarle al nuevo sistema detalles sobre mí y partes de mi vida se podrán buscar.

Lo mismo se aplica al compartir detalles sobre sus finanzas o patrimonio neto con estos LLM. Si bien no hemos visto ningún caso en el que esto haya sucedido, el peor resultado sería introducir datos personales en el sistema y luego revelarlos en las búsquedas.

Es posible que ya existan modelos en los que puedan calcular su patrimonio neto en función de dónde vive, en qué industria se encuentra y detalles adicionales sobre sus padres y su estilo de vida. Probablemente eso sea suficiente para calcular su patrimonio neto y si es un objetivo viable o no para estafas, por ejemplo.

Si tienes dudas sobre qué detalles compartir, pregúntate si lo publicarías en Facebook. Si su respuesta es no, no lo cargue en el LLM.

Siga las pautas de IA de la empresa

como usar IA en el lugar de trabajo se vuelve común para tareas como codificación o análisis, es crucial seguir la política de IA de su empresa.

Por ejemplo, mi empresa tiene una lista de elementos confidenciales que no podemos cargar en ningún chatbot o LLM. Esto incluye información como salarios, información sobre empleados y desempeño financiero.

Hacemos esto porque no queremos que alguien escriba mensajes como “¿Cuál es la estrategia comercial de Storyblok” y ChatGPT proceda a escupir “Story Block está trabajando actualmente en 10 nuevas oportunidades, que son la empresa 1, 2, 3, 4, y esperan unos ingresos de X, Y, Z dólares en el próximo trimestre”. Eso sería un gran problema para nosotros.

Para la codificación, tenemos una política que le gusta a la IA. El copiloto de Microsoft no se hace responsable de ningún código. Todo el código producido por IA debe ser verificado por un desarrollador humano antes de almacenarlo en nuestro repositorio.

Usar los LLM con precaución en el trabajo

En realidad, alrededor del 75% de las empresas no tener una política de IA todavía. Muchos empleadores tampoco se han suscrito a suscripciones corporativas de IA y acaban de decirles a sus empleados: “Oigan, no pueden usar IA en el trabajo”.

Pero la gente recurre al uso de la IA con sus cuentas privadas porque las personas son personas.

Aquí es cuando se vuelve importante tener cuidado con lo que ingresa en un LLM.

En el pasado, no existía ninguna razón real para cargar datos de la empresa en un sitio web aleatorio. Pero ahora, los empleados de finanzas o consultoría que quieran analizar un presupuesto, por ejemplo, pueden cargar fácilmente los números de la empresa o del cliente en ChatGPT u otra plataforma y hazle preguntas. Estarían revelando datos confidenciales sin siquiera darse cuenta.

Diferenciar entre chatbots

También es importante diferenciar entre los chatbots de IA, ya que no todos están diseñados de la misma manera.

Cuando uso ChatGPT, confío en que OpenAI y todos los involucrados en su cadena de suministro hagan todo lo posible para garantizar la ciberseguridad y que mis datos no se filtren a malos actores. Confío en OpenAI en este momento.

En mi opinión, los chatbots de IA más peligrosos son los de cosecha propia. Se encuentran en aerolínea o sitios web de médicos y es posible que no estén invirtiendo en todas las actualizaciones de seguridad.

Por ejemplo, un médico puede incluir un chatbot en su sitio web para realizar una clasificación inicial, y el usuario puede comenzar a insertar datos de salud muy personales que podrían informar a otros sobre sus enfermedades si se violan los datos.

A medida que los chatbots de IA se vuelven más humanos, nos inclinamos a compartir más y abrirnos a temas que antes no tendríamos. Como regla general, insto a las personas a no utilizar ciegamente todos los chatbots con los que se encuentren y a evitar ser demasiado específicos, independientemente del LLM con el que estén hablando.

¿Trabaja en tecnología o ciberseguridad y tiene una historia que compartir sobre su experiencia con la IA? Póngase en contacto con este reportero: shubhangigoel@insider.com.

Fuente