Un error fácil de la IA que parece “inofensivo” corre el riesgo de que los humanos “perdan el control” como expertos ante el costoso peligro de vaciar los bancos

La inteligencia ARTIFICIAL puede crear una imagen inquietantemente precisa de tu vida y de quién eres.

Ahora los expertos en seguridad han advertido a los lectores de The Sun que no revelen demasiada información cuando hablan con chatbots, incluso si parece “inofensiva”.

2

Tenga mucho cuidado al hablar con chatbots de IA: ¿a dónde va su información?Crédito: Getty

El problema con los chatbots impulsados ​​por IA es que pueden parecer casi humanos.

Están diseñados de esa manera para ser más útiles y accesibles, pero también puede significar que bajes la guardia.

“Nos sentimos muy cómodos hablando con herramientas de inteligencia artificial como ChatGPT que a menudo olvidamos algo importante”, dijo el profesional de ciberseguridad Akhil Mittal, hablando con The Sun.

“Seguimos compartiendo datos, y esos datos ayudan a estos sistemas a aprender más sobre nosotros”.

Podría pensar que es lo suficientemente sensato como para no revelar información financiera confidencial.

Pero el tipo de información con la que no deberías compartir inteligencia artificial bots va mucho más allá de su inicio de sesión bancario.

“La mayoría de la gente sabe que no deben compartir contraseñas ni números de tarjetas de crédito”, dijo Akhil, gerente senior de consultoría de seguridad de Black Duck Software.

“La verdadera preocupación son los pequeños detalles cotidianos.

“Podrías mencionar tus próximos planes de viaje, un proyecto de trabajo o incluso tu saludpensando que es inofensivo.

“Pero estos pequeños fragmentos de información pueden acumularse con el tiempo, creando una imagen de tu vida que nunca quisiste compartir.

El principal jefe de realidad virtual de Meta predice un futuro impulsado por la IA sin teléfonos, hornos controlados por el cerebro y televisores virtuales que solo cuestan 1 dólar

“Estás revelando más de lo que crees”.

Hay varias razones por las que no querrías que una IA sepa demasiado sobre ti.

En primer lugar, es posible que estés hablando con un chatbot poco fiable creado por ciberdelincuentes específicamente para extraer información suya.

En segundo lugar, incluso si el chatbot en sí no es malicioso, tu cuenta podría ser pirateada, filtrando toda tu información a quien entre.

Los piratas informáticos podrían explotar esa información para obtener beneficios económicos.

Chris HaukExperto en ciberseguridad en Pixel Privacy

Y en tercer lugar, tienes muy poco control sobre dónde termina tu información una vez que ha sido “ingerida” por la máquina de IA.

“Piense en ello como enviar un mensaje de texto: sólo porque se sienta privado no significa que otros no puedan compartirlo o incluso verlo”, advirtió Akhil.

“La cuestión es que los sistemas de IA aprenden de lo que les dices.

“Incluso si no almacenan todo, procesan esa información para mejorar las respuestas.

“Por lo tanto, es importante tratar sus conversaciones con la misma precaución que las redes sociales.

“Una vez que está ahí fuera, está fuera de tu control”.

¡NO COMPARTAS!

Cada vez será más difícil evitar los chatbots en el futuro.

Por eso, los expertos dicen que es importante estar extremadamente atentos a lo que se envía a una IA, o podría resultar muy costoso.

CÓMO INTERACTUAR CON CHATBOTS

Aquí hay algunos consejos del experto en tecnología de The Sun Sean Keach

La mejor manera de interactuar con los chatbots es tratarlos como a un completo extraño.

(Con suerte) no revelarías detalles confidenciales sobre tu vida a una persona cualquiera en Internet.

Los chatbots no son diferentes: hablan como humanos y no sabes dónde terminará la información que compartes.

No se deje engañar por el hecho de que pueda parecer un amigo o colega de confianza.

De hecho, y lamento decirlo, los chatbots no se preocupan por ti en absoluto. Así que no se preocupan por sus mejores intereses. ¡No tienen corazón!

Son solo líneas de código que simulan a un ser humano, así que recuerda eso si estás tentado a abrir tu corazón a lo que es poco más que una aplicación inteligente.

Los chatbots pueden ser inmensamente poderosos y ayudarte con problemas difíciles (incluso personales), pero mantienen todo en el anonimato.

No compartas detalles específicos sobre tu vida e intenta registrarte en chatbots con información que no revele exactamente quién eres.

Es especialmente importante no compartir información sobre tu trabajo con un chatbot, ya que no querrás meterte en problemas profesionalmente.

Pero no permita que los chatbots creen una imagen de quién es usted, porque eventualmente podría usarse en su contra.

Si entrega suficiente información, los piratas informáticos podrían incluso robar su identidad o acceder a su cuenta bancaria.

En declaraciones a The Sun, el experto en seguridad Chris Hauk dijo que se debe intentar evitar el uso de un chatbot como terapeuta o guía de vida.

“Nunca debes compartir información financiera ni tus pensamientos más profundos”, dijo Chris, defensor de la privacidad del consumidor en Pixel Privacy.

“Algunas personas pueden sentirse inclinadas a compartir sus problemas con los chatbots, usándolos como una especie de terapeuta.

Incluso debes tener cuidado cuando hables con chatbots respetados y de buena reputación como ChatGPT de OpenAI.

2

Incluso debes tener cuidado cuando hables con chatbots respetados y de buena reputación como ChatGPT de OpenAI.Crédito: Getty

“Esta no es una buena idea, ya que hacerlo supone un grave problema de privacidad, ya que ambos tipos de información serían utilizados por malos actores para causarle problemas en el futuro.

“Además, nunca comparta información confidencial del lugar de trabajo, lo que podría resultar en la exposición involuntaria de información sobre su empleador.

“Nunca proporcione información de inicio de sesión para sus cuentas en conversaciones de chatbot. Los piratas informáticos podrían explotar esa información para obtener ganancias financieras”.

Fuente

LEAVE A REPLY

Please enter your comment!
Please enter your name here