Khả năng tấn công mạng của GPT-4 gây lo ngại

Khả năng tấn công mạng của GPT-4 gây lo ngại

Mô hình GPT-4 của OpenAI được cho là có thể khai thác lỗ hổng nhanh hơn và rẻ hơn con người và sẽ gây lo ngại nếu bị khai thác.

Các chuyên gia bảo mật tại Đại học Illinois tại Urbana-Champaign (UIUC) đã công bố nghiên cứu cho thấy GPT-4 có thể khai thác các lỗ hổng an ninh mạng một cách kết hợp hoặc độc lập. Hội đồng cho biết: “Theo thời gian, chúng thậm chí còn học cách tự tấn công mình và trở nên hiệu quả hơn”.





Biểu tượng OpenAI và GPT-4 xuất hiện trên máy tính. Ảnh: TechGoing

Biểu tượng OpenAI và GPT-4 trên máy tính của bạn. hình ảnh: Ngành công nghệ

Trong các thử nghiệm, GPT-4 có thể khai thác thành công 87% lỗ hổng sau khi đưa ra tuyên bố mô tả CVE, cơ sở dữ liệu công khai về các lỗ hổng bảo mật phổ biến. Các mô hình ngôn ngữ lớn (LLM) khác được thử nghiệm bao gồm GPT-3.5 của OpenAI, OpenHermes-2.5-Mistral-7B của Mistral AI và Llama-2 Chat 70B của Meta, nhưng không khai thác được chúng dù chỉ một lần.

Không chỉ nhanh hơn, các cuộc tấn công mạng sử dụng GPT-4 còn rẻ hơn. Nhóm ước tính rằng việc thuê một chuyên gia an ninh mạng tốn khoảng 50 USD một giờ, nhưng GPT-4 có thể hoàn thành nhiệm vụ tương tự với thời gian ít hơn 2,8 lần.

Theo các chuyên gia, GPT-4 hiện chỉ có thể tấn công các lỗ hổng đã biết. “Nói cách khác, hiện tại không có chìa khóa để giải quyết thảm họa an ninh”, nhóm cho biết “Nhưng thử nghiệm vẫn cho thấy GPT-4 đáng được quan tâm đặc biệt vì nó không chỉ hiểu rõ lỗ hổng về mặt lý thuyết mà còn có thể thực hiện các bước để giải quyết. tự động khai thác lỗ hổng đó và tự học các cuộc tấn công mới khi nó thất bại.”

Tổ chức này dự đoán mẫu GPT-5 sắp ra mắt có thể khiến quá trình tấn công mạng trở nên dễ dàng hơn nên cộng đồng bảo mật “cần suy nghĩ kỹ lưỡng để ngăn chặn trí tuệ nhân tạo trở thành hacker”.

OpenAI vẫn chưa bình luận.Tuy nhiên, theo Phần cứng của TomCông ty được cho là đã liên hệ ngay với nhóm nghiên cứu và yêu cầu các tác giả không công bố các lệnh được sử dụng trong thử nghiệm. Sau đó cả nhóm đã đồng ý.

Cuối năm ngoái, tổ chức nghiên cứu bảo mật FortiGuard Labs (Mỹ) cũng tuyên bố trí tuệ nhân tạo tổng hợp đang có xu hướng trở thành “vũ khí tấn công mạng”. Công nghệ này đang được sử dụng ở nhiều giai đoạn, từ đánh bại các thuật toán bảo mật đến tạo ra các video deepfake bắt chước hành vi và âm thanh để đánh lừa người dùng. Trong tương lai, tin tặc có thể khai thác AI theo những cách mới khiến hệ thống bảo mật không thể theo kịp. Ngược lại, AI cũng có thể được áp dụng để chống lại các cuộc tấn công mạng.



Biên tập lại từ VnExpress