-
09/04/2020
-
94
-
723 bài viết
Tấn công Rules File Backdoor cho phép tin tặc chèn mã độc qua trình chỉnh sửa mã AI
Các chuyên gia an ninh mạng vừa công bố một phương thức tấn công chuỗi cung ứng mới mang tên Rules File Backdoor, ảnh hưởng trực tiếp đến các trình chỉnh sửa mã sử dụng trí tuệ nhân tạo (AI) như GitHub Copilot và Cursor. Cuộc tấn công này cho phép tin tặc chèn mã độc vào hệ thống một cách tinh vi, khiến các công cụ AI vô tình tạo ra mã chứa lỗ hổng bảo mật.
Kỹ thuật này cho phép tin tặc âm thầm chèn hướng dẫn độc hại vào các tệp cấu hình tưởng chừng như vô hại, được sử dụng trong GitHub Copilot và Cursor. Nhờ vào các ký tự Unicode ẩn và kỹ thuật né tránh phát hiện tinh vi, hacker có thể thao túng AI để tạo ra mã độc mà vẫn vượt qua được các vòng kiểm tra bảo mật thông thường.
Cách thức hoạt động của cuộc tấn công Rules File Backdoor:
1. Lợi dụng tệp quy tắc (rules files)
Cuộc tấn công này dựa trên việc chèn các đoạn lệnh độc hại vào tệp quy tắc. Những tệp được AI sử dụng để hướng dẫn quá trình viết mã. Khi bị xâm nhập, các tệp này vô tình điều hướng AI tạo ra mã chứa lỗ hổng bảo mật hoặc cửa hậu (backdoor).
2. Sử dụng ký tự ẩn để che giấu mã độc
Hacker có thể dùng các kỹ thuật như:
Mối đe dọa lớn nhất của Rules File Backdoor là khả năng lây lan một cách âm thầm qua các dự án phần mềm. Khi một tệp quy tắc bị đầu độc được tích hợp vào kho mã, tất cả các lần tạo mã sau này của nhóm lập trình sẽ bị ảnh hưởng. Nguy hiểm hơn, mã độc có thể tồn tại ngay cả khi dự án bị fork, gây ra rủi ro bảo mật nghiêm trọng trong chuỗi cung ứng phần mềm.
Giải pháp phòng tránh
Sau khi nhận được báo cáo từ các chuyên gia an ninh mạng vào tháng 2 và tháng 3 năm 2024, GitHub và Cursor đã lên tiếng khẳng định rằng người dùng có trách nhiệm kiểm tra và chấp nhận các đề xuất mã từ AI.
Rules File Backdoor không chỉ đơn thuần là một cuộc tấn công mạng, mà còn biến chính AI thành một công cụ tấn công. Nó có thể biến các trợ lý lập trình AI đáng tin cậy thành "đồng phạm" bất đắc dĩ, ảnh hưởng đến hàng triệu lập trình viên và người dùng cuối trên toàn cầu.
Cách phòng tránh cuộc tấn công "Rules File Backdoor"
Kỹ thuật này cho phép tin tặc âm thầm chèn hướng dẫn độc hại vào các tệp cấu hình tưởng chừng như vô hại, được sử dụng trong GitHub Copilot và Cursor. Nhờ vào các ký tự Unicode ẩn và kỹ thuật né tránh phát hiện tinh vi, hacker có thể thao túng AI để tạo ra mã độc mà vẫn vượt qua được các vòng kiểm tra bảo mật thông thường.
Cách thức hoạt động của cuộc tấn công Rules File Backdoor:
1. Lợi dụng tệp quy tắc (rules files)
Cuộc tấn công này dựa trên việc chèn các đoạn lệnh độc hại vào tệp quy tắc. Những tệp được AI sử dụng để hướng dẫn quá trình viết mã. Khi bị xâm nhập, các tệp này vô tình điều hướng AI tạo ra mã chứa lỗ hổng bảo mật hoặc cửa hậu (backdoor).
2. Sử dụng ký tự ẩn để che giấu mã độc
Hacker có thể dùng các kỹ thuật như:
- Zero-width joiners, bidirectional text markers – các ký tự Unicode vô hình để giấu mã độc.
- Lợi dụng khả năng diễn giải ngôn ngữ tự nhiên của AI, khiến AI hiểu sai và tạo ra mã không an toàn.
- Khiến mã độc vượt qua các vòng kiểm tra bảo mật, do nó trông giống mã hợp lệ do AI đề xuất.
Mối đe dọa lớn nhất của Rules File Backdoor là khả năng lây lan một cách âm thầm qua các dự án phần mềm. Khi một tệp quy tắc bị đầu độc được tích hợp vào kho mã, tất cả các lần tạo mã sau này của nhóm lập trình sẽ bị ảnh hưởng. Nguy hiểm hơn, mã độc có thể tồn tại ngay cả khi dự án bị fork, gây ra rủi ro bảo mật nghiêm trọng trong chuỗi cung ứng phần mềm.
Giải pháp phòng tránh
Sau khi nhận được báo cáo từ các chuyên gia an ninh mạng vào tháng 2 và tháng 3 năm 2024, GitHub và Cursor đã lên tiếng khẳng định rằng người dùng có trách nhiệm kiểm tra và chấp nhận các đề xuất mã từ AI.
Rules File Backdoor không chỉ đơn thuần là một cuộc tấn công mạng, mà còn biến chính AI thành một công cụ tấn công. Nó có thể biến các trợ lý lập trình AI đáng tin cậy thành "đồng phạm" bất đắc dĩ, ảnh hưởng đến hàng triệu lập trình viên và người dùng cuối trên toàn cầu.
Cách phòng tránh cuộc tấn công "Rules File Backdoor"
- Kiểm tra kỹ các tệp quy tắc trước khi sử dụng trong dự án.
- Không hoàn toàn tin tưởng vào mã do AI tạo ra – cần kiểm tra thủ công các đoạn mã quan trọng.
- Sử dụng công cụ phát hiện ký tự ẩn để tìm các đoạn mã độc được chèn vào tệp cấu hình.
- Luôn cập nhật phần mềm và công cụ bảo mật để giảm thiểu rủi ro bị tấn công.
Theo The Hacker News