Các hệ thống nhằm xác thực sinh trắc học như nhận diện khuôn mặt và giọng nói từng được xem như
"lớp tường lửa" (firewall) kiên cố để chống nạn lừa đảo. Thế nhưng, Deepfake không ngừng cho mở rộng và đang thử thách lớp bảo vệ này.
Deepfake là kỹ thuật sử dụng AI (trí tuệ nhân tạo) để ngụy tạo ra nội dung hình ảnh, video hoặc âm thanh giả mạo rất chân thật. Ban đầu deepfake chỉ là cho ghép mặt trong video, nhưng hiện nay đã hình thành mở rộng rất mạnh mẽ với hệ thống mạng đối nghịch tạo sinh (GAN), mô hình khuếch tán và các ứng dụng làm giả giọng nói giống như thật.
Kết quả là với mắt thường sẽ rất khó để nhận ra nội dung giả mạo do deepfake tạo ra. Thậm chí, nhiều cuộc nghiên cứu còn cho thấy con người thường không thể nhận ra, đâu là video thật, đâu là video do deepfake ngụy tạo ra.
Việc deepfake ngày càng dễ cho sử dụng và phổ biến rộng rãi khiến cho các mối đe dọa về an ninh mạng ngày càng gia tăng cao.
GAN (Generative Adversarial Network) là một loại mô hình AI tạo ra do khoa học gia có Ian Goodfellow cho giới thiệu ra hồi năm 2014. Đây là một trong những ckỹ thuật cốt lỏi đứng sau ứng dụng deepfake hiện nay.
Cấu trúc của GAN gồm có hai mạng nơ-ron đối kháng nhau:
-
Generator (mạng phát sinh ra) có nhiệm vụ tạo ra dữ kiện giả, ví dụ như khuôn mặt, giọng nói hay hình ảnh.
-
Discriminator (mạng phân biệt) có nhiệm vụ phát hiện ra số liệu giả, tức là cố gắng phân biệt xem đầu vào là thật hay là do AI ngụy tạo ra.
Hai mạng này được huấn luyện cùng lmột úc, theo kiểu
"thi đấu tay đôi": Generator càng ngụy tạo ra giỏi, discriminator càng phải học hỏi để phát hiện ra tốt hơn. Quá trình này sẽ lặp đi lặp lại hàng triệu lần cho đến khi generator tạo ra sản phẩm giả mà discriminator và cả con người khó nhận biết ra.
Nhờ cơ chế này,
GAN đã mở đường cho kỷ nguyên deepfake hiện đại, từ việc cho hoán đổi khuôn mặt, tái tạo ra giọng nói đến ngụy tạo ra ảnh nhân vật không hề tồn tại. Song cũng vì sức mạnh của
GAN mà deepfake đang bị lợi dụng trong nạn lừa đảo, giả mạo danh tính và tuyên truyền sai lệch.
Những vụ deepfake qua mặt nhân viên tài chính và hệ thống xác thực sinh trắc học ở Việt Nam và thế giới
Hồi đầu năm 2024, tập đoàn tư vấn kỹ thuật nổi tiếng
Arup (Anh quốc) trở thành nạn nhân của vụ lừa đảo tinh vi, trong đó bọn tin tặc cho sử dụng deepfake để giả mạo người đứng đầu công ty trong một video call, từ đó đã thuyết phục nhân viên chuyển 25,6 triệu USD vào tài khoản của chúng.
Thông tin điều tra cho biết một nhân viên tài chính tại chi nhánh ở Hồng Kông của
Arup đã nhận được email
"khẩn cấp" từ tài khoản giả danh giám đốc tài chính công ty, yêu cầu cho thực hiện ngay một giao dịch bí mật. Ban đầu nhân viên này hoài nghi về email, nhưng sau đó được mời vào cuộc họp video trực tuyến, nơi mà giám đốc tài chính cùng các đồng nghiệp giả mạo thấy xuất hiện ra và nói chuyện giống như thật. Hình ảnh và giọng nói của những kẻ giả danh này đều được AI ngụy tạo ra từ số liệu trước đó.
Sau khi bị thuyết phục, nhân viên đã cho thực hiện tổng cộng 15 giao dịch chuyển tiền (tổng cộng là 25,6 triệu USD) vào 5 tài khoản ngân hàng tại Hồng Kông do kẻ gian chỉ định. Nhân viên chỉ phát hiện bị lừa đảo khi gọi điện để xác minh với trụ sở của
Arup ở Anh.
Arup là tập đoàn tư vấn kỹ thuật, thiết kế và xây dựng hàng đầu thế giới có trụ sở chính tại London (thủ đô Vương quốc Anh), hoạt động trên hơn 140 quốc gia, với hàng chục ngàn kỹ sư, kiến trúc sư, chuyên gia quy hoạch đô thị, chuyên gia môi trường và số liệu. Công ty đứng sau nhiều dự án mang tính biểu tượng toàn cầu như Nhà hát Opera Sydney (Úc), sân vận động Bird’s Nest (Bắc Kinh), tòa tháp The Shard (London) và nhiều công trình xanh, thông minh tại châu Á, Mỹ, và châu Âu.
Năm 2024, một ngân hàng lớn tại Indonesia cũng đã trở thành nạn nhân của chiêu trò lừa đảo tinh vi qua kỹ thuật deepfake trong quy trình xác thực danh tính khách hàng. Theo báo cáo từ hãng an ninh mạng
Group-IB có trụ sở ở Singapore, bọn tin tặc đã nhờ deepfake để ngụy tạo ra hàng loạt khuôn mặt giả và sử dụng trong hồ sơ vay vốn trực tuyến nhằm qua mặt hệ thống kiểm tra sinh trắc học của ngân hàng.
Cụ thể, chúng thu thập thông tin thật của khách hàng, gồm họ tên, số căn cước công dân và số liệu thông tin cá nhân khác, rồi cho thay đổi ảnh chân dung trong giấy tờ tùy thân trở thành khuôn mặt được tạo ra qua AI. Những khuôn mặt này được thiết kế khéo léo để vẫn giữ những nét tương đồng với ảnh gốc, song cũng đủ khác biệt để không bị nghi ngờ khi sử dụng để mở hồ sơ vay vốn mới. Khi hồ sơ được nộp, hệ thống xác thực khuôn mặt của ngân hàng tiến hành so sánh ảnh khách hàng mới với cơ sở số liệu người thật. Tuy nhiên, kỹ thuật deepfake đã đủ tinh vi để đánh lừa cả hệ thống này.
Theo
Group-IB, ngân hàng đó đã ghi nhận hơn 1,100 trường hợp nghi vấn có dính líu đến deepfake trong quy trình xác minh danh tính bắt buộc trước khi được cấp tín dụng theo yêu cầu. Các vụ tấn công này còn vượt qua cả
liveness detection (kỹ thuật kiểm tra xem khách hàng là người thật đang tương tác trực tiếp với camera hay chỉ là hình ảnh/video giả mạo). Điều đó cho thấy bọn tin tặc đã biết khai thác những lỗ hổng trong quy trình tự động hóa của ngân hàng, đồng thời sử dụng deepfake không chỉ để mạo danh người thật mà còn để tạo ra danh tính khác hoàn toàn mới.
Năm 2023, phóng viên trang Insider từng thử nghiệm dùng AI tạo giọng nói giả của chính mình để gọi đến ngân hàng ở Mỹ và yêu cầu xin chuyển tiền. Ngân hàng không phát hiện sự khác thường nào và giao dịch này được thực hiện thành công, chứng tỏ các hệ thống xác thực giọng nói rất dễ bị đánh lừa nếu không có sự kiểm tra bổ sung.
Deepfake đang trực tiếp thách thức hệ thống bảo mật sinh trắc ở mọi cấp độ, kể cả ngân hàng lớn nhỏ (Ảnh: Internet)
Tại Việt Nam, công an đã phát hiện đường dây sử dụng AI làm giả sinh trắc học nhằm giao dịch rửa tiền hơn 1,000 tỷ đồng cho một trang web đánh bạc trực tuyến.,
Ngày 29.5.2025, Công an tỉnh Thái Bình cho biết đã khởi tố Phạm Hồng Chuyền (46 tuổi, trú phường Giang Biên, quận Long Biên, Hà Nội) cùng 13 người về tội Đánh bạc, theo khoản 2 Điều 321 Bộ luật Hình sự. Trong số này, 7 người bị khởi tố thêm tội danh thứ hai là Rửa tiền. Cơ quan điều tra đã phong tỏa hơn 1,000 tài khoản ngân hàng nghi có liên quan.
Theo điều tra, Chuyền được một người Đài Loan thuê điều hành việc rửa tiền cho một trang web đánh bạc trực tuyến có máy chủ đặt ở nước ngoài, chuyên cung cấp các trò như xổ số, cá cược bóng đá, tài xỉu... Trang này đã hoạt động trong nhiều năm qua, thường xuyên cho thay đổi tên miền và đường dẫn truy cập, móc nối với nhiều người Việt để hợp thức hóa nguồn tiền đánh bạc. Người chơi dùng điện thoại di động truy cập vào đường dẫn, tạo ra tài khoản và liên kết với tài khoản ngân hàng cá nhân để cho nạp/rút tiền.
Mức cược thấp nhất là một điểm (tương đương 1,000 đồng), không giới hạn điểm đặt. Nếu thắng, hệ thống sẽ tự động cộng điểm và quy đổi thành tiền khi người chơi rút. Công an xác định từ tháng 1 đến tháng 4/2025 đã có hơn 1 triệu tài khoản đánh bạc trên trang web này với tổng số tiền nạp vượt 1,000 tỷ đồng.
Chuyền bị tố cáo về tội danh đã thuê người Việt Nam đứng tên mở hàng loạt tài khoản ngân hàng, đồng thời thuê các căn nhà tại Hà Nội, Thái Bình để cho đặt thiết bị phục vụ hoạt động rửa tiền, gồm máy tính, điện thoại di động được cài sẵn phần mềm điều khiển từ xa.
Khi người chơi nạp tiền vào tài khoản, nhóm nghi phạm tại Đài Loan sẽ sử dụng ứng dụng Team Viewer điều khiển máy tính, thực hiện thao tác chuyển tiền qua nhiều tài khoản ngân hàng khác nhau nhằm che giấu nguồn gốc nguồn tiền này. Để vượt qua bước xác thực sinh trắc học của ngân hàng với các giao dịch từ 10 triệu đồng trở lên, nhóm này sử dụng AI ngụy tạo ra video làm giả khuôn mặt chủ tài khoản, giúp hệ thống xác minh giao dịch mà không cần sự có mặt thực tế của người chủ tài khoản.
Theo điều tra, mỗi người được thuê mở tài khoản sẽ quay một video gốc dài khoảng 25-30 giây. Sau đó, nhóm của Chuyền dùng AI tạo video mô phỏng sinh trắc khuôn mặt để thực hiện giao dịch liên tục mà chủ tài khoản không hay biết.
Từ tháng 9/2024 đến tháng 4/2025, đường dây do Chuyền điều hành bị nghi rửa tiền với tổng giá trị ước tính hơn 1,000 tỷ đồng, trung bình hơn 100 tỷ đồng mỗi tháng.
Đây là chứng minh rõ nét rằng deepfake đang được bọn tin tặc sử dụng trong lĩnh vực tài chính tại Việt Nam.
"Cuộc chiến bất đối xứng” giữa deepfake và sinh trắc học
Lúc trước, deepfake đơn thuần chỉ là ứng dụng cho ghép mặt tĩnh hoặc thay ảnh, nhưng giờ đây mô hình AI hiện đại có thể ngụy tạo ra video chân thực đi kèm với giọng nói giả mạo gần như hoàn hảo. Đó là lý do mà deepfake đã trở thành vũ khí lừa đảo rất nguy hiểm ở thời nay.
Kẻ xấu không ngừng cho nâng cấp chiêu trò khi ngụy tạo ra các video deepfake với sự chuyển động khuôn mặt tự nhiên, hiệu ứng ánh sáng thay đổi rất chân thực, giọng nói nhân tạo có kèm tiếng nhiễu nền để tăng lên độ tin cậy, thậm chí còn chèn trực tiếp dữ kiện giả vào ứng dụng xác thực nhằm vượt qua bước quay camera thật (kỹ thuật tấn công kiểu injection).
Mỗi khi xuất hiện một mô hình AI mới, các hệ thống phát hiện deepfake buộc phải học lại ngay từ đầu để nhận diện ra kiểu giả mạo đó. Trong khoảng thời gian ngắn trước khi hệ thống được cập nhật, kẻ gian thường tận dụng cơ hội tốt này để ra tay.
Liên Hiệp Quốc xem đối phó với deepfake là một trong những thách thức lớn nhất, cần các ứng dụng AI mới nhất (Ảnh: Internet)
Số liệu thực tế cũng cho thấy áp lực lên các hệ thống phòng thủ sinh trắc học ngày càng tăng. Theo báo cáo từ
Biometric Update (trang tin quốc tế chuyên về công nghệ sinh trắc học), trong năm 2024, số vụ tấn công bằng kỹ thuật tấn công kiểu injection đã tăng gấp 9 lần so với năm trước. Đáng chú ý hơn, số lần cố tình sử dụng webcam ảo để đánh lừa hệ thống đã tăng lên đến 28 lần. Điều này cho thấy bọn tội phạm mạng không chỉ dùng video deepfake, mà còn tìm cách đưa thẳng hình ảnh giả vào luồng dữ liệu sinh trắc học, có thể đánh bại những hệ thống liveness detector đơn giản.
Hồi tháng 4, Cục Dự trữ Liên bang Mỹ (
Fed) cho biết số vụ lừa đảo dùng deepfake đã tăng đến 20 lần trong 3 năm gần đây.
Một khảo sát do trang Insider thực hiện cho thấy hơn 80% người đứng đầu ngân hàng tin rằng, tốc độ phát triển của bọn tin tặc sử dụng AI đang nhanh hơn các biện pháp phòng thủ mà ngành tài chính có thể cho triển khai.
Nói cách khác, deepfake và kỹ thuật sinh trắc học đang ở trong
"cuộc chiến bất đối xứng", nơi mà kẻ tấn công luôn đi trước một bước, còn bên phòng thủ phải không ngừng chạy theo để tìm cách cho bịt lỗ hổng mới.
Tuy nhiên, công ty nghiên cứu về sinh trắc học không chịu đầu hàng khi đưa ra nhiều giải pháp tiến bộ hơn. Ví dụ, phương pháp xác thực qua
NFC-based IDV (đọc số liệu sinh trắc học từ thẻ căn cước gắn chip) cho phép hệ thống so sánh khuôn mặt chụp được với ảnh gốc có độ phân giải cao dược lưu trong cơ sở dữ kiện của chính phủ, hoặc mô hình học sâu đa năng kết hợp hình ảnh và giọng nói cùng lúc để nhận diện người thật và phát hiện hành vi giả mạo được chính xác hơn.
Một số công ty an ninh cho ứng dụng AI để nhận diện chấm sinh trắc (biometric patch) - những điểm đặc trưng vi mô trên khuôn mặt, da hoặc mắt mà deepfake khó cho tái tạo lại.
Ngoài ra, kỹ thuật phân tích tần số âm thanh giúp phát hiện ra giọng nói nhân tạo cũng đang được cho cải tiến nhanh chóng.
Các hệ thống liveness detection và chống giả mạo đã được nâng cấp nhằm xác minh người trong camera có thực sự là
"sống", như cử động ở mắt, môi, nghiêng đầu, ánh sáng thay đổi, nhịp tim (qua biến đổi màu da nhỏ) hoặc sử dụng cảm biến 3D để phân biệt chiều sâu khuôn mặt. Với giọng nói, hệ thống có thể kiểm tra đặc điểm tần số, các chi tiết sinh học mà không thể dễ làm giả mạo qua AI.
Giới chuyên gia cảnh cáo rằng cuộc chiến này không chỉ là vấn đề kỹ thuật, mà còn là bài toán về nhận thức và quy trình. Các ngân hàng, tổ chức tài chính và cơ quan quản trị cần đầu tư thêm đồng thời vào ba hướng là không ngừng nâng cấp kỹ thuật, đào tạo nhân sự, xây dựng cơ chế phản ứng linh động. Chỉ khi đó thế trận giữa deepfake và sinh trắc học mới có thể trở nên cân bằng hơn.