Deepfake AI trở thành vũ khí mới để tấn công công ty crypto của Triều Tiên: Google cảnh báo

TapChiBitcoin
TOKEN-0,33%

Nhóm bảo mật Mandiant của Google cảnh báo hacker Triều Tiên đang tích hợp công nghệ deepfake do AI tạo ra vào các cuộc họp video giả mạo, như một phần của chiến dịch tấn công ngày càng tinh vi nhằm vào các công ty crypto, theo báo cáo công bố hôm thứ Hai.

Mandiant cho biết gần đây họ đã điều tra một vụ xâm nhập tại một công ty fintech, được quy cho UNC1069 (còn gọi là “CryptoCore”) – tác nhân đe dọa có mức độ liên hệ rất cao với Triều Tiên. Cuộc tấn công sử dụng tài khoản Telegram bị chiếm quyền, một cuộc họp Zoom giả mạo và kỹ thuật ClickFix để lừa nạn nhân thực thi các lệnh độc hại. Các điều tra viên cũng phát hiện bằng chứng cho thấy video do AI tạo ra đã được sử dụng trong cuộc họp giả nhằm đánh lừa mục tiêu.

Theo báo cáo, Mandiant ghi nhận UNC1069 triển khai các kỹ thuật này để nhắm mục tiêu vào cả tổ chức và cá nhân trong ngành crypto, bao gồm các công ty phần mềm, lập trình viên, cũng như các quỹ đầu tư mạo hiểm cùng đội ngũ nhân sự và lãnh đạo của họ.

Chiến dịch đánh cắp crypto của Triều Tiên leo thang

Cảnh báo được đưa ra trong bối cảnh các vụ trộm crypto liên quan đến Triều Tiên tiếp tục gia tăng về quy mô. Giữa tháng 12, công ty phân tích blockchain Chainalysis cho biết hacker Triều Tiên đã đánh cắp 2,02 tỷ USD crypto trong năm 2025, tăng 51% so với năm trước. Tổng giá trị tài sản số bị các nhóm có liên hệ với Bình Nhưỡng chiếm đoạt hiện ước tính khoảng 6,75 tỷ USD, dù số lượng vụ tấn công đã giảm.

Những phát hiện này cho thấy sự thay đổi trong cách vận hành của các nhóm tội phạm mạng có liên hệ nhà nước. Thay vì triển khai các chiến dịch phishing diện rộng, CryptoCore và những nhóm tương tự tập trung vào các cuộc tấn công được cá nhân hóa cao, khai thác niềm tin trong các tương tác số quen thuộc như lời mời họp hay cuộc gọi video. Nhờ đó, hacker có thể thực hiện các vụ đánh cắp giá trị lớn hơn thông qua số lượng sự cố ít hơn nhưng có mục tiêu rõ ràng.

Theo Mandiant, cuộc tấn công bắt đầu khi nạn nhân được liên hệ qua Telegram bởi một người có vẻ là lãnh đạo quen thuộc trong ngành crypto, nhưng tài khoản này thực chất đã bị hacker kiểm soát. Sau khi xây dựng lòng tin, kẻ tấn công gửi liên kết Calendly để sắp xếp cuộc họp 30 phút, dẫn nạn nhân tới một cuộc gọi Zoom giả được lưu trữ trên hạ tầng riêng của nhóm. Trong cuộc gọi, nạn nhân cho biết họ nhìn thấy video deepfake của một CEO crypto nổi tiếng.

Khi cuộc họp bắt đầu, hacker viện lý do sự cố âm thanh và hướng dẫn nạn nhân chạy các lệnh “khắc phục lỗi” – một biến thể của kỹ thuật ClickFix – qua đó kích hoạt mã độc. Phân tích pháp y sau đó phát hiện bảy họ mã độc khác nhau trên hệ thống của nạn nhân, được triển khai nhằm đánh cắp thông tin đăng nhập, dữ liệu trình duyệt và session token phục vụ mục đích chiếm đoạt tài chính và mạo danh.

Deepfake và AI nâng cấp chiến thuật mạo danh

Fraser Edwards, đồng sáng lập kiêm CEO của công ty nhận dạng phi tập trung cheqd, cho rằng vụ việc phản ánh xu hướng hacker ngày càng nhắm đến những cá nhân phụ thuộc vào họp trực tuyến và phối hợp từ xa. Theo ông, hiệu quả của phương thức này nằm ở chỗ hầu như không có dấu hiệu bất thường rõ ràng: người gửi quen thuộc, định dạng cuộc họp quen thuộc, không có tệp đính kèm hay lỗ hổng hiển nhiên. Niềm tin bị khai thác trước khi các biện pháp phòng vệ kỹ thuật kịp can thiệp.

Edwards cho biết video deepfake thường được đưa vào ở giai đoạn leo thang, chẳng hạn trong cuộc gọi trực tiếp, khi hình ảnh một gương mặt quen thuộc có thể xóa bỏ nghi ngờ phát sinh từ các yêu cầu bất thường hoặc sự cố kỹ thuật. Mục tiêu không phải kéo dài tương tác, mà chỉ cần đủ mức độ chân thực để thúc đẩy nạn nhân thực hiện bước tiếp theo.

Ông cũng nhấn mạnh AI hiện được sử dụng để hỗ trợ mạo danh ngoài phạm vi cuộc gọi trực tiếp, bao gồm soạn thảo tin nhắn, điều chỉnh giọng điệu và mô phỏng phong cách giao tiếp quen thuộc của một cá nhân với đồng nghiệp hoặc bạn bè. Điều này khiến các thông điệp thường nhật trở nên khó bị nghi ngờ hơn và làm giảm khả năng người nhận tạm dừng để xác minh.

Theo Edwards, rủi ro sẽ tiếp tục gia tăng khi các tác nhân AI được tích hợp sâu hơn vào hoạt động giao tiếp và ra quyết định hằng ngày. Các hệ thống này có thể gửi tin nhắn, lên lịch cuộc gọi và hành động thay mặt người dùng với tốc độ máy móc. Nếu bị lạm dụng hoặc xâm nhập, deepfake âm thanh và video có thể được triển khai tự động, biến hành vi mạo danh từ nỗ lực thủ công thành quy trình có thể mở rộng quy mô lớn.

Ông cho rằng việc kỳ vọng phần lớn người dùng tự phát hiện deepfake là không thực tế. Thay vì yêu cầu người dùng cảnh giác hơn, cần xây dựng các hệ thống bảo vệ theo mặc định, cải thiện cơ chế xác thực và hiển thị tính xác thực nội dung, để người dùng nhanh chóng nhận biết liệu thông tin là thật, do AI tạo ra hay chưa được xác minh, thay vì dựa vào cảm tính hay sự quen thuộc.

Thạch Sanh

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)