USTED debe tener mucho cuidado al hablar con chatbots en línea como ChatGPT, y una regla simple podría mantenerlo a salvo.
No se arriesgue a que le roben su identidad o le roben sus cuentas bancarias porque cometió un error común.
The Sun habló con un importante experto en seguridad que dijo inteligencia artificial Los chatbots deben utilizarse con precaución.
Los robots de IA están en todas partes, incluso integrados aplicaciones como WhatsApp y Facebook Messenger: por eso es importante saber qué debes y qué no debes decirles.
“Piensa en ChatGPT y herramientas de inteligencia artificial similares, como un extraño que encuentras en la calle”, advirtió el profesional de ciberseguridad Stuart Green.
“Es posible que se sienta cómodo preguntándoles direcciones o cuándo próximo Llega el autobús, pero no compartes datos personales ni la dirección de tu casa.
“Los sistemas de IA a menudo tienen una interfaz similar a la humana, por lo que es importante tratarlos como a una persona, sólo que uno en quien no confías plenamente y sospechas que podría compartir tus secretos con la siguiente persona con la que se encuentre”.
Hay tipos específicos de información que no debes enviar a un chatbot.
Stuart, que trabaja como arquitecto de seguridad en la nube en Check Point Software, dijo a The Sun que es “crucial evitar” compartir algo llamado “PII”.
REGLA DE TRES LETRAS
Este término poco conocido de tres letras significa “información de identificación personal”.
“Esto incluye su nombre completo, domicilio, dirección de correo electrónico, número de teléfono o cualquier forma de identificación, como los datos del pasaporte”, nos dijo Stuart.
“Compartir PII puede aumentar el riesgo de robo de identidad, doxxing o acceso no autorizado a sus cuentas personales.
“Incluso si la plataforma anonimiza sus datos, siempre existe la posibilidad de que se produzca una filtración de datos”.
Por supuesto, la lista de información que no deberías enviar a ningún chatbot de IA va mucho más allá de la PII.
CUESTIONES DE DINERO
También es importante evitar entregar información financiera.
Los chatbots son parecidos a los humanos y pueden ser muy convincentes, por lo que es fácil dejarse engañar por una IA, especialmente una que ha sido creada o comprometido por un criminal.
Si se filtra este tipo de datos, podría dar lugar a violaciones de la privacidad, discriminación o uso indebido por parte de actores malintencionados.
Estuardo verde
“Los números de tarjetas de crédito, los detalles de las cuentas bancarias y las contraseñas también deben mantenerse privados”, dijo Stuart a The Sun.
“Compartir datos financieros en línea lo expone al riesgo de fraude, robo o estafa si alguna vez queda expuesto.
“Es igualmente importante no compartir sus credenciales de inicio de sesión, como nombres de usuario, contraseñas o códigos de autenticación de dos factores.
“Hacerlo puede dar lugar a apropiaciones de cuentas, robo de datos o transacciones no autorizadas.
¡NO TENGA MIEDO, TENGA CUIDADO!
Aquí el consejo del experto en tecnología de The Sun Sean Keach…
La IA puede ser tu amiga. Un colega de confianza. Un asistente de atención al cliente.
De hecho, puede ser casi cualquier cosa. Los chatbots de IA ahora son muy humanos y muy convincentes.
Pero es más importante que nunca recordar que no son humanos. Ciertamente no son tus amigos.
Son líneas de código que pretenden ser un humano, por lo que debes tratarlas como mensajes de un completo desconocido.
No proporciones información personal, ni siquiera tu nombre real completo.
Nadie puede garantizar la seguridad total de sus mensajes, incluso si utiliza herramientas de empresas tecnológicas masivas y respetadas.
Hay muchas formas en que los delincuentes podrían acceder a los mensajes de su chatbot, incluido comprometer su dispositivo o incluso las propias aplicaciones de inteligencia artificial.
Así que siéntete seguro al usar chatbots para ayudarte a hacer las cosas, pero ten en cuenta que no sabes exactamente dónde podrían terminar esos mensajes.
Todavía estamos en las primeras etapas de este salvaje viaje de la IA, por lo que es mejor prevenir que curar.
Recuerda: si estás a punto de enviar un mensaje a AI, pregúntate si te sentirías cómodo enviando ese mismo mensaje de texto a un completo desconocido.
Si la respuesta es no, no lo envíes.
“Del mismo modo, sensible salud o los datos médicos deben mantenerse privados, incluida su información médica historiaprescripciones, diagnósticos o salud mental información.
“Si se filtra este tipo de datos, podría dar lugar a violaciones de la privacidad, discriminación o uso indebido por parte de actores malintencionados”.