Nghiên cứu mới cho thấy các mô hình ngôn ngữ lớn (LLM) có thể tạo ra 10.000 biến thể phần mềm độc hại và tránh bị phát hiện trong 88% trường hợp.
Công ty bảo mật Palo Alto Networks' Unit42 đã công bố vào ngày 23 tháng 12: “Mặc dù LLM có thể gặp khó khăn ban đầu khi khởi chạy phần mềm độc hại, nhưng chúng có thể bị khai thác để sao chép mã tập lệnh Java độc hại trên quy mô lớn và có khả năng tránh bị phát hiện.” Tội phạm mạng có thể dễ dàng sử dụng LLM để viết lại hoặc sao chép phần mềm độc hại hiện có cũng có thể sử dụng các lệnh để 'nhắc' LLM thực hiện các chuyển đổi theo cách tự nhiên hơn, khiến việc phát hiện trở nên khó khăn hơn.”
Nhóm nghiên cứu cũng cho biết, theo thời gian, tin tặc có thể sử dụng LLM để nâng cấp mã độc và làm giảm hiệu suất của các công cụ phân loại phần mềm độc hại, khiến hệ thống “tin” rằng một đoạn mã độc là vô hại.
Nhiều công ty đằng sau mô hình LLM đang thắt chặt các biện pháp bảo mật để ngăn chặn các công cụ của họ bị lạm dụng. Ví dụ, vào tháng 10, OpenAI cho biết họ đã chặn hơn 20 hoạt động và mạng lừa đảo cố gắng khai thác nền tảng này để trinh sát, nghiên cứu lỗ hổng, hỗ trợ tập lệnh và gỡ lỗi.
Dù vậy, theo tin tức hackerkẻ xấu vẫn có thể sử dụng giao diện lập trình ứng dụng (API) của các công cụ này, bẻ khóa và khai thác cho mục đích riêng như chức năng nhân bản và nâng cao khả năng “ẩn” mã độc như WormGPT và FraudGPT.
Unit42 cho biết họ đã cố gắng phát triển phần mềm có thể khai thác sức mạnh của LLM. Công cụ viết lại mã độc theo đợt bằng cách đổi tên biến, tách chuỗi, chèn mã rác, loại bỏ khoảng trắng không cần thiết và triển khai lại hoàn toàn mã để tránh bị phát hiện bởi các mô hình học máy như Innocence Until Proven Guilty (IUPG) hoặc PhishingJS. Do đó, công cụ này có thể tạo ra 10.000 biến thể tập lệnh Java mới mà không thay đổi chức năng.
“Đầu ra là một biến thể của mã script Java độc hại. Nó vẫn giữ chức năng của script gốc nhưng có điểm 'Điểm độc hại' thấp hơn đối với IUPG và PhishingJS”, đại diện Unit42 cho biết. “Thuật toán này đã đảo ngược 88% khả năng phân tích của các công cụ phân loại phần mềm độc hại.”
Nhóm nghiên cứu còn cho biết mã độc thậm chí có thể “lẩn tránh” các phần mềm độc hại khác sau khi được viết lại. Chúng cũng “trông tự nhiên” và có thể dễ dàng vượt qua các công cụ chống vi-rút.
Unit42 đánh giá: “Với sự trợ giúp của trí tuệ nhân tạo, quy mô của các biến thể phần mềm độc hại có thể sẽ tăng lên trong tương lai gần”. dữ liệu.”
Các chuyên gia trước đó cũng cảnh báo trí tuệ nhân tạo có thể giúp kẻ xấu thực hiện hành vi lừa đảo và phát tán virus một cách dễ dàng và rẻ tiền. Nghiên cứu do Check Point Research (CPR) công bố vào năm 2023 cho thấy ChatGPT có thể thực hiện thành công toàn bộ quá trình lây nhiễm, từ tạo email lừa đảo đến chạy trình cài đặt và đánh cắp thông tin. Vào tháng 4, Tatsuki Hayashi ở thành phố Kawasaki, tỉnh Kanagawa, đã bị bắt vì nghi ngờ sử dụng trí tuệ nhân tạo để tạo hồ sơ điện tử chứa các mệnh lệnh bất hợp pháp, trở thành vụ bắt giữ đầu tiên của Nhật Bản.
Theo công ty bảo mật Fortinet (Mỹ), các cuộc tấn công mạng bằng trí tuệ nhân tạo sẽ trở nên táo bạo hơn trong năm tới. Ngoài ra, các nhóm tội phạm ngày càng trở nên chuyên nghiệp, kết hợp các mối đe dọa vật lý và kỹ thuật số để đạt được mục tiêu hiệu quả hơn và tác động lớn hơn.
- Hầu hết mật khẩu đều bị AI bẻ khóa trong vòng 60 giây