TechNews VN • Chuyên sâu • Bảo mật Công nghệ
Bên trong 'mạng lưới' lừa đảo Deepfake: Tăng trưởng 1.530% trong năm qua và giải pháp phòng vệ bằng công nghệ Blockchain
Sự bùng nổ của trí tuệ nhân tạo tạo sinh (Generative AI) đã mở ra một kỷ nguyên mới cho tội phạm mạng. Theo các báo cáo bảo mật mới nhất, các vụ lừa đảo sử dụng Deepfake đã tăng vọt 1.530% chỉ trong vòng 12 tháng qua, biến đây trở thành mối đe dọa hàng đầu đối với an ninh tài chính và định danh cá nhân. Trước thực trạng này, Blockchain đang nổi lên như một "tấm khiên" kỹ thuật số đầy hứa hẹn để xác thực sự thật.
Sự trỗi dậy khủng khiếp của "Deepfake-as-a-Service"
Nếu như vài năm trước, việc tạo ra một video Deepfake chân thực đòi hỏi hệ thống máy tính cực mạnh và kỹ năng đồ họa bậc cao, thì nay, các công cụ AI công khai đã biến nó thành một dịch vụ "trọn gói". Các báo cáo từ các hãng bảo mật danh tiếng chỉ ra rằng số lượng vụ lừa đảo định danh qua video và âm thanh giả mạo đã tăng trưởng ở mức không tưởng: 1.530% trên toàn cầu.
Tại Việt Nam, các hình thức "cuộc gọi video giả mạo người thân" để vay tiền đã không còn xa lạ. Tuy nhiên, mức độ tinh vi đang được nâng cấp. Những kẻ lừa đảo hiện không chỉ sử dụng hình ảnh tĩnh mà đã có thể giả mạo cả giọng nói (Voice Cloning) với sắc thái cảm xúc gần như hoàn hảo, khiến nạn nhân mất cảnh giác hoàn toàn.
"Chúng ta đang đối mặt với một cuộc khủng hoảng niềm tin kỹ thuật số. Khi mắt thấy tai nghe không còn là bằng chứng cho sự thật, các rào cản bảo mật truyền thống sẽ sụp đổ," TS. Nguyễn Minh Đức, chuyên gia cao cấp tại Viện Chiến lược An ninh mạng (Giả định), nhận định.
Cách thức vận hành của các mạng lưới lừa đảo
Không đơn thuần là những cá nhân nhỏ lẻ, lừa đảo Deepfake hiện nay vận hành theo mô hình doanh nghiệp ngầm. Các "xưởng" Deepfake tại Đông Nam Á và Đông Âu đang cung cấp dịch vụ cho thuê mã nguồn giả mạo với giá chỉ từ vài trăm USD.
- Thu thập dữ liệu: Sử dụng bot để quét hình ảnh, video và giọng nói của mục tiêu từ mạng xã hội (Facebook, TikTok, LinkedIn).
- Huấn luyện mô hình: Đưa dữ liệu vào các thuật toán GAN (Generative Adversarial Networks) để tạo ra bản sao kỹ thuật số.
- Tấn công đa kênh: Thực hiện các cuộc gọi lừa đảo qua ứng dụng nhắn tin OTT nhằm vượt qua sự kiểm soát của nhà mạng truyền thống.
Blockchain: "Dấu vân tay" bất biến cho nội dung số
Trong khi AI tạo ra vấn đề, thì Blockchain – với đặc tính phi tập trung và tính minh bạch tuyệt đối – đang được xem là giải pháp khả thi nhất để đối phó. Các nhà phát triển đang xây dựng các giao thức "Chữ ký số cho nội dung" dựa trên sổ cái Blockchain.
Cụ thể, mỗi khi một video hoặc hình ảnh được tạo ra từ một nguồn tin cậy (như cơ quan báo chí hoặc thiết bị di động cá nhân), một mã băm (hash) duy nhất sẽ được ghi lại trên Blockchain. Khi nội dung này được chia sẻ, hệ thống kiểm chứng sẽ đối chiếu mã băm. Nếu video đã bị chỉnh sửa bởi AI, mã băm sẽ không khớp, ngay lập tức cảnh báo người dùng về tính giả mạo.
Định danh phi tập trung (DID)
Giải pháp thứ hai là Định danh phi tập trung (Decentralized Identity - DID). Thay vì dựa vào mật khẩu hay mã OTP dễ bị đánh cắp, người dùng sẽ sở hữu một danh tính số được xác thực trên chuỗi khối. Các cuộc gọi video trong tương lai có thể tích hợp lớp xác thực này: nếu luồng dữ liệu video không đi kèm chứng chỉ DID hợp lệ, ứng dụng sẽ tự động gắn nhãn "Nguồn tin không xác định".
Thách thức và Tương lai của phòng vệ số
Dù Blockchain mang lại tiềm năng lớn, việc triển khai rộng rãi vẫn đối mặt với rào cản về tốc độ xử lý và sự đồng bộ giữa các nền tảng công nghệ. Tuy nhiên, các ông lớn công nghệ như Adobe, Microsoft và Intel đã bắt đầu tham gia vào Liên minh Nội dung Xác thực (C2PA) để đặt nền móng cho các tiêu chuẩn này.
Theo dự báo của TechNews VN, trong giai đoạn 2024-2025, chúng ta sẽ chứng kiến một cuộc đua vũ trang giữa "AI tạo giả" và "Blockchain xác thực". Người dùng cá nhân cần nâng cao cảnh giác, áp dụng nguyên tắc "Zero Trust" (Không tin tưởng bất kỳ ai khi chưa được xác minh đa lớp) ngay cả với những hình ảnh tưởng chừng như thân thuộc nhất.
Lời khuyên từ chuyên gia bảo mật:
- Thiết lập "mật mã gia đình": Một từ khóa bí mật chỉ người thân biết để xác minh trong các tình huống khẩn cấp qua video call.
- Luôn kiểm tra các dấu hiệu vật lý của Deepfake: Ánh mắt thiếu tự nhiên, cử động môi không khớp với âm thanh hoặc vùng da xung quanh mặt bị nhòe.
- Sử dụng các ứng dụng liên lạc có hỗ trợ mã hóa đầu cuối và các tính năng xác thực mạnh.