-
09/04/2020
-
93
-
610 bài viết
Liệu các giải pháp bảo mật đã đủ mạnh để đối phó với các mối đe dọa do AI tạo ra?
Trí tuệ nhân tạo (AI) - từ một khái niệm của tương lai đã nhanh chóng trở thành hiện thực, và giờ có thể đang là vũ khí mạnh mẽ mà nhiều kẻ xấu lợi dụng. Ngày nay, các cuộc tấn công dựa trên AI như giả mạo deepfake ngày càng gia tăng, thách thức các biện pháp bảo mật truyền thống.
Cùng điểm lại một số vụ gian lận giả mạo đáng báo động dựa trên AI:
Hiện nay, những biện pháp bảo mật đang tồn tại một số hạn chế trong việc đối phó với mối đe dọa từ deepfake, đặc biệt là khi công nghệ AI phát triển.
Gian lận mạo danh AI là một biểu hiện khác của việc bảo mật danh tính chưa đủ mạnh. Trong các cuộc tấn công, kẻ tấn công phải xâm phạm danh tính của người dùng hợp pháp mà không bị phát hiện để thuyết phục nạn nhân, nhằm đạt được lợi ích tài chính hoặc ảnh hưởng chính trị.
Vì vậy, có thể trong tương lai, cần xuất hiện các nền tảng bảo mật danh tính được thiết kế an toàn, giúp giảm thiểu rủi ro gian lận và giả mạo nhờ xác thực người dùng bằng thông tin chống lừa đảo và khóa gắn với thiết bị. Chỉ các thiết bị đã qua kiểm tra bảo mật mới được phép truy cập vào tài nguyên của công ty, nâng cao an toàn trong các hoạt động nhạy cảm như hội nghị truyền hình. Ngoài ra, nền tảng này cần tín hiệu rủi ro theo thời gian thực để đưa ra quyết định truy cập chính xác và linh hoạt, từ đó cải thiện khả năng phòng thủ chủ động trước các mối đe dọa ngày càng tinh vi.
Cùng điểm lại một số vụ gian lận giả mạo đáng báo động dựa trên AI:
- 25 triệu USD bị đánh cắp qua cuộc gọi video deepfake mạo danh lãnh đạo công ty.
- Công ty an ninh mạng KnowBe4 bị lừa tuyển dụng một kẻ tấn công đến từ Bắc Triều Tiên thông qua công nghệ deepfake.
- CEO của công ty quảng cáo lớn nhất thế giới WPP bị deepfake tấn công để lấy thông tin cá nhân và tống tiền thông qua hội nghị trực tuyến.
- Kẻ xấu sử dụng công nghệ deepfake để giả mạo một nhà ngoại giao Ukraine trong cuộc gọi với Thượng nghị sĩ Hoa Kỳ, với mục đích can thiệp vào quá trình bầu cử.
Hiện nay, những biện pháp bảo mật đang tồn tại một số hạn chế trong việc đối phó với mối đe dọa từ deepfake, đặc biệt là khi công nghệ AI phát triển.
- Cuộc chạy đua vũ trang AI: Đây là sự cạnh tranh giữa các công cụ phát hiện deepfake và công nghệ tạo ra deepfake. Cả hai liên tục được cải tiến để vượt qua nhau, nên không bên nào có thể duy trì được lợi thế lâu dài. Điều này làm cho các biện pháp phát hiện deepfake khó hiệu quả trong thời gian dài.
- Phát hiện xác suất: Công nghệ phát hiện deepfake hiện nay chỉ có khả năng đưa ra các dự đoán theo xác suất, không hoàn toàn chính xác tuyệt đối, và do đó có thể bỏ sót một số trường hợp deepfake hoặc nhận diện sai.
- Gánh nặng cho người dùng cuối: Khi các cuộc tấn công ngày càng tinh vi, không thể trông chờ vào sự cảnh giác của người dùng cuối để phát hiện ra mối đe dọa, vì người dùng khó có thể tự nhận biết được các trò gian lận phức tạp do AI tạo ra.
Gian lận mạo danh AI là một biểu hiện khác của việc bảo mật danh tính chưa đủ mạnh. Trong các cuộc tấn công, kẻ tấn công phải xâm phạm danh tính của người dùng hợp pháp mà không bị phát hiện để thuyết phục nạn nhân, nhằm đạt được lợi ích tài chính hoặc ảnh hưởng chính trị.
Vì vậy, có thể trong tương lai, cần xuất hiện các nền tảng bảo mật danh tính được thiết kế an toàn, giúp giảm thiểu rủi ro gian lận và giả mạo nhờ xác thực người dùng bằng thông tin chống lừa đảo và khóa gắn với thiết bị. Chỉ các thiết bị đã qua kiểm tra bảo mật mới được phép truy cập vào tài nguyên của công ty, nâng cao an toàn trong các hoạt động nhạy cảm như hội nghị truyền hình. Ngoài ra, nền tảng này cần tín hiệu rủi ro theo thời gian thực để đưa ra quyết định truy cập chính xác và linh hoạt, từ đó cải thiện khả năng phòng thủ chủ động trước các mối đe dọa ngày càng tinh vi.
Theo The Hacker News