Báo cáo an ninh mạng 2024: 90% các vụ tấn công Deepfake hiện nay nhắm vào lừa đảo giao dịch tài chính
Bài chuyên sâu

Báo cáo an ninh mạng 2024: 90% các vụ tấn công Deepfake hiện nay nhắm vào lừa đảo giao dịch tài chính

Bài chuyên sâu từ TechNews VN về hiểm họa Deepfake AI. Tìm hiểu phương thức tội phạm mạng giả mạo danh tính để chiếm đoạt tài sản và các giải pháp phòng vệ công nghệ mới nhất.

TechNews VN • Bài chuyên sâu

Báo cáo an ninh mạng 2024: 90% các vụ tấn công Deepfake hiện nay nhắm vào lừa đảo giao dịch tài chính

Đăng bởi: Ban Biên tập TechNews VN | Ngày 24/05/2024 | Thời gian đọc: 8 phút

Sự bùng nổ của trí tuệ nhân tạo tạo sinh (Generative AI) đã vô tình cung cấp cho tội phạm mạng những công cụ tinh vi hơn bao giờ hết. Theo báo cáo mới nhất về "Bức tranh An ninh mạng 2024", công nghệ Deepfake không còn là trò đùa giải trí mà đã trở thành vũ khí sắc bén trong các vụ lừa đảo tài chính, với tỉ lệ mục tiêu lên tới 90%.

An ninh mạng và Deepfake

Sự chuyển dịch mục tiêu của tội phạm công nghệ cao

Trong hai năm qua, thế giới đã chứng kiến sự chuyển dịch rõ rệt trong mục đích sử dụng Deepfake. Nếu như giai đoạn 2021-2022, phần lớn các vụ giả mạo hình ảnh, âm thanh thường liên quan đến bôi nhọ danh dự hoặc mục đích chính trị, thì đến năm 2024, lợi nhuận kinh tế đã trở thành động lực chính.

Báo cáo từ Liên minh Chống lừa đảo Toàn cầu (GASA) phối hợp cùng các hãng bảo mật lớn cho thấy, cứ 10 vụ tấn công sử dụng Deepfake thì có đến 9 vụ trực tiếp liên quan đến yêu cầu chuyển khoản hoặc truy cập ví điện tử. Tội phạm sử dụng AI để giả mạo khuôn mặt và giọng nói của người thân, cấp trên hoặc nhân viên ngân hàng trong các cuộc gọi video trực tuyến, khiến nạn nhân mất cảnh giác hoàn toàn.

Số liệu đáng chú ý:
  • Số lượng cuộc gọi Deepfake lừa đảo tăng 300% so với cùng kỳ năm 2023.
  • Thiệt hại trung bình cho mỗi vụ lừa đảo doanh nghiệp (BEC) sử dụng Deepfake lên tới 150.000 USD.
  • 90% các vụ tấn công tập trung vào giao dịch tài chính, thanh toán xuyên biên giới.

Kỹ thuật tinh vi: Vượt qua các rào cản sinh trắc học

Không chỉ dừng lại ở việc lừa người dùng cuối, Deepfake 2024 còn có khả năng qua mặt các hệ thống định danh điện tử (eKYC). Các thuật toán Deep Learning hiện nay có thể tạo ra các chuyển động cơ mặt và chớp mắt giả thời gian thực, đánh lừa các lớp bảo mật sinh trắc học vốn được coi là an toàn nhất.

Ông Trần Thế Hiển, Giám đốc Công nghệ tại Viện Nghiên cứu An ninh số CyberGuard (Giả định), nhận định: "Chúng ta đang đối mặt với một kỷ nguyên 'thấy chưa hẳn là thật'. Trước đây, Deepfake thường có những dấu vết như bóng mờ xung quanh khuôn mặt hoặc cử động môi không khớp, nhưng hiện tại, AI có thể xử lý ánh sáng và đổ bóng hoàn hảo theo môi trường thực, khiến mắt thường gần như không thể phân biệt trong một cuộc gọi video chất lượng thấp."

Bảo mật sinh trắc học và AI

Kịch bản phổ biến: Lừa đảo "Sếp giả mạo"

Một hình thức phổ biến nhất hiện nay là giả danh lãnh đạo cao cấp của doanh nghiệp. Tội phạm mạng thu thập các video họp báo hoặc phát biểu công khai của các CEO để huấn luyện mô hình AI. Sau đó, chúng thực hiện cuộc gọi video cho nhân viên kế toán, ra lệnh thực hiện một giao dịch "khẩn cấp và tuyệt mật". Với tâm lý nể sợ cấp trên và hình ảnh hiển thị quá chân thực, nhiều nhân viên đã nhanh chóng thực hiện lệnh chuyển tiền mà không tuân thủ quy trình kiểm soát nội bộ.

Thách thức cho các tổ chức tài chính tại Việt Nam

Tại Việt Nam, xu hướng này đang phát triển mạnh mẽ do tỷ lệ người dùng sử dụng mạng xã hội cao và thói quen chia sẻ hình ảnh cá nhân công khai. Các chuyên gia an ninh mạng cảnh báo rằng hệ thống ngân hàng cần nâng cấp hạ tầng phát hiện Deepfake bằng cách tích hợp các giải pháp AI đối kháng.

Thay vì chỉ dựa vào hình ảnh tĩnh, các ngân hàng được khuyến nghị áp dụng xác thực đa yếu tố (MFA) kết hợp với phân tích hành vi người dùng. Chẳng hạn, khi phát hiện một giao dịch lớn bất thường từ một thiết bị mới sau một cuộc gọi video, hệ thống phải tự động treo giao dịch để kiểm tra thủ công.

Bảo mật ngân hàng
"Công nghệ lừa đảo luôn đi trước một bước so với nhận thức của đại chúng. Giải pháp duy nhất không chỉ nằm ở công nghệ, mà là sự thay đổi trong tư duy: Luôn luôn xác thực lại qua một kênh độc lập thứ hai trước khi thực hiện bất kỳ giao dịch tài chính nào dựa trên tín hiệu từ màn hình điện thoại."
— TS. Nguyễn Văn Minh, Chuyên gia cao cấp về AI và An ninh mạng.

Kết luận và Xu hướng tương lai

Báo cáo an ninh mạng 2024 dự báo rằng trong giai đoạn 2025-2026, Deepfake sẽ không chỉ dừng lại ở âm thanh và hình ảnh đơn thuần mà sẽ kết hợp với các công cụ thu thập dữ liệu cá nhân (OSINT) để tạo ra những kịch bản lừa đảo mang tính cá nhân hóa cực cao.

Cuộc đua giữa tội phạm mạng và các đơn vị bảo mật sẽ ngày càng gay gắt. Các chuyên gia dự báo một xu hướng mới mang tên "Watermarking AI" - nơi mỗi nội dung được tạo ra bởi trí tuệ nhân tạo sẽ có một chữ ký số ẩn, giúp các hệ thống bảo mật dễ dàng nhận diện. Tuy nhiên, cho đến khi các quy định pháp lý và tiêu chuẩn công nghệ này trở nên phổ biến, người tiêu dùng và doanh nghiệp vẫn là lá chắn quan trọng nhất trong việc tự bảo vệ mình trước những "bóng ma" kỹ thuật số.

© 2024 TechNews VN. Bản quyền bài viết thuộc về ban biên tập chuyên sâu.
← Xem tất cả bài viếtVề trang chủ

© 2026 TechNews VN. Bản quyền được bảo lưu.