Durante mucho tiempo, las estafas de phishing por correo electrónico han sido a menudo una petición desesperada, mal redactada y plagada de errores tipográficos para obtener fondos que, por supuesto, se devolverán diez veces más. Bueno, ahora que bajamos la guardia, la IA está aquí para asegurarse de que no nos sintamos demasiado cómodos.
Una nueva estafa hiperrealista está afectando a los usuarios de Gmail, y los engaños impulsados por IA son capaces de engañar incluso a los más conocedores de la tecnología. En esta nueva ola de fraude, el clásico ataque de phishing de 'recuperación de cuenta de Gmail' se combina con una llamada de voz ultrarrealista para hacer que los usuarios entren en pánico.
En un reciente publicación de blog, microsoft El consultor de soluciones, Sam Mitrovic, explicó cómo casi fue víctima de la elaborada estafa y relata una notificación de recuperación de cuenta seguida de una llamada telefónica que sonaba muy real de 'Google Asistente'.
No te dejes atrapar
Mitrovic reveló que se enviaron repetidos correos electrónicos y llamadas desde direcciones y números aparentemente legítimos, y que la forma en que se dio cuenta de la estafa fue verificando manualmente su actividad reciente en Gmail.
Esto es parte de una preocupante tendencia más amplia de los 'deepfakes', que son ya apuntando a empresas y los consumidores más que nunca. Los delincuentes pueden utilizar secuencias de vídeo o audio ultrarrealistas para engañar a usuarios desprevenidos para que transfieran fondos o información.
Casi la mitad de las empresas han informado haber encontrado fraudes deepfake ya en 2024, y parece que la tendencia continuará.
La clave para mantenerse a salvo de este tipo de estafa es mantenerse alerta y tomarse su tiempo: los delincuentes casi siempre intentarán apresurarlo para que tome una decisión o para que entregue dinero o detalles, pero si da un paso atrás para evaluar, puede obtener perspectiva e incluso una evaluación externa de alguien en quien pueda confiar.
A través de Forbes