BIDV cảnh báo khẩn đến toàn bộ khách hàng
Trước làn sóng tấn công mạng sử dụng trí tuệ nhân tạo (AI) ngày càng tinh vi, Ngân hàng TMCP Đầu tư và Phát triển Việt Nam (BIDV) vừa phát đi thông báo khẩn khuyến cáo khách hàng cần đặc biệt cảnh giác trước những thủ đoạn lừa đảo "thế hệ mới".
Theo cảnh báo mới nhất từ BIDV, sự bùng nổ của AI tạo sinh (Gen AI) đang bị tội phạm mạng triệt để lợi dụng để "nâng cấp" các chiêu trò lừa đảo cũ trở nên khó lường hơn bao giờ hết. Đáng lo ngại nhất là sự xuất hiện của các email và tin nhắn giả mạo với độ hoàn thiện gần như tuyệt đối. Không còn những lỗi chính tả ngớ ngẩn hay văn phong gượng gạo thường thấy trước đây, công nghệ AI giúp kẻ gian bắt chước chính xác giọng điệu, cấu trúc văn bản của ngân hàng hoặc các đối tác uy tín, tạo ra những thông báo giả mạo hoàn hảo khiến ngay cả những người dùng am hiểu công nghệ cũng dễ dàng mắc bẫy.
Dưới đây là 4 thủ đoạn lừa đảo bằng cách lợi dụng AI tinh vi nhất.

Cuộc gọi lừa đảo, tin nhắn lừa đảo hay thậm chí là tạo một kịch bản hoàn hảo để lừa đảo bằng cách lợi dụng AI (Ảnh minh họa)
Thủ đoạn 1: Email giả mạo hoàn hảo
Hình thức đầu tiên và phổ biến nhất hiện nay là việc kẻ gian sử dụng AI tạo sinh để soạn thảo các email lừa đảo (phishing) với độ chính xác tuyệt đối. Trước đây, người dùng thường được khuyên tìm kiếm các lỗi chính tả, ngữ pháp ngô nghê để nhận diện thư rác. Tuy nhiên, với sự hỗ trợ của các công cụ ngôn ngữ AI tiên tiến, những email giả mạo giờ đây không còn bất kỳ một lỗi ngữ pháp nào. Thậm chí, chúng còn bắt chước được chính xác giọng điệu, văn phong hành chính của ngân hàng hay các đối tác lớn, khiến ngay cả những khách hàng kỹ tính nhất cũng khó lòng phân biệt thật giả và vô tình cung cấp thông tin mật.
Thủ đoạn 2: Kịch bản lừa đảo được "cá nhân hóa" sâu sắc
Nguy hiểm hơn cả email đại trà là hình thức lừa đảo "cá nhân hóa". Thay vì rải thảm tin nhắn ngẫu nhiên, tội phạm mạng sử dụng AI để thu thập và phân tích dữ liệu công khai của người dùng trên các mạng xã hội. Chúng nắm rõ bạn là ai, làm việc ở đâu, vừa đi du lịch chốn nào hay đang quan tâm đến lĩnh vực gì. Từ dữ liệu này, AI sẽ dựng lên một kịch bản lừa đảo "đo ni đóng giày" riêng cho bạn. Ví dụ, nếu bạn vừa đăng ảnh đi du lịch, bạn có thể nhận được một email giả mạo từ hãng hàng không hoặc khách sạn với thông tin cực kỳ khớp, khiến bạn mất đi sự đề phòng và dễ dàng sập bẫy.
Thủ đoạn 3: Đánh cắp và nhân bản giọng nói người thân nhằm vay tiền hoặc tống tiền
Công nghệ AI hiện nay đã đạt đến trình độ có thể sao chép giọng nói (Voice Cloning) chỉ từ một đoạn ghi âm ngắn vài giây trên mạng xã hội. Kẻ gian sử dụng kỹ thuật này để giả mạo giọng nói của người thân, bạn bè nạn nhân để gọi điện vay tiền hoặc thông báo tình huống khẩn cấp như tai nạn, cấp cứu. Thủ đoạn này đánh trực tiếp vào tâm lý hoảng loạn và lòng tin của con người. Khi nghe thấy giọng nói quen thuộc của con, của vợ/chồng mình ở đầu dây bên kia đang cầu cứu, rất ít người đủ bình tĩnh để kiểm chứng mà thường chuyển tiền ngay lập tức.
Thủ đoạn 4: Video call deepfake giả mạo sếp, người quen để tạo lòng tin
Cấp độ tinh vi cao nhất được BIDV cảnh báo là công nghệ Deepfake trong các cuộc gọi video. Kẻ lừa đảo không chỉ giả giọng nói mà còn tạo ra khuôn mặt, cử chỉ của người quen (sếp, đồng nghiệp, người thân) để thực hiện cuộc gọi video nhằm tạo lòng tin tuyệt đối. Hình ảnh trong video có thể hơi mờ hoặc giật lag (do kẻ gian cố tình tạo nhiễu để che giấu khuyết điểm của AI), nhưng vẫn đủ để nạn nhân tin rằng mình đang nói chuyện với người thật. Đây là thủ đoạn nguy hiểm nhất hiện nay vì nó phá vỡ rào cản đề phòng cuối cùng của con người là "trăm nghe không bằng một thấy".
Trước 4 thủ đoạn tinh vi kể trên, BIDV khuyến nghị khách hàng cần thiết lập thói quen phòng vệ mới. Nguyên tắc cốt lõi là "chậm lại và xác minh". Người dùng cần kiểm tra kỹ địa chỉ email người gửi thay vì chỉ nhìn tên hiển thị, cảnh giác cao độ với các lời mời đầu tư hấp dẫn từ người lạ. Đặc biệt, các gia đình nên thống nhất một "mật mã" hoặc cơ chế xác minh riêng. Khi nhận được cuộc gọi video hay giọng nói yêu cầu chuyển tiền, hãy hỏi những câu hỏi mà chỉ người thật mới biết, hoặc chủ động tắt máy và gọi lại vào số điện thoại chính chủ để xác thực thông tin.