Sau khi được điều khiển, robot AI có thể gây ra tai nạn cho người đi bộ, kích nổ chất nổ hoặc bí mật tiến hành hoạt động gián điệp.
Nhóm nghiên cứu của Đại học Pennsylvania nêu trên tạp chí Phổ IEEE Cuối tuần qua, có thông tin cho rằng hầu hết các mô hình ngôn ngữ lớn (LLM) chạy trên các bot trí tuệ nhân tạo phổ biến đều dễ dàng bị bẻ khóa.
Tuyên bố mở đầu của nghiên cứu có nội dung: “Không giống như việc hack LLM trên máy tính, việc hack LLM trên hệ thống robot hoặc xe tự lái có thể dễ dàng gây ra hậu quả thảm khốc hoặc thậm chí dẫn đến tử vong cho con người.”
Cụ thể, nhóm này đã tạo ra một công cụ tấn công có tên RoboPAIR, sau đó tấn công trực tiếp vào robot từ ba nhà cung cấp khác nhau, bao gồm Dolphins LLM được Nvidia hậu thuẫn, Clearpath Robotics Jackal UGV và Unitree Robotics Go2. Kết quả là tỷ lệ tấn công thành công là 100%.
Giáo sư George Pappas, thành viên nhóm nghiên cứu, nói với chúng tôi: “Nghiên cứu của chúng tôi cho thấy các mô hình ngôn ngữ lớn hiện tại không đủ an toàn để tích hợp vào thế giới vật chất”. Phần cứng của Tom.
Nghiên cứu cũng chỉ ra rằng việc hack bot AI là “rất dễ dàng”. Việc điều khiển robot hoặc ô tô tự lái cũng tương tự như việc hack một chatbot AI, nhưng dễ dàng hơn vì “các công ty chế tạo robot chậm tìm hiểu về các lỗ hổng có thể khai thác trên LLM”.
Trong mô phỏng của nhóm, một chú chó robot có thể “biến đổi từ một thiết bị hỗ trợ thân thiện thành một sát thủ cầm súng phun lửa” sau khi bị tấn công trên mô hình LLM, một robot giám sát khác đã cài trái phép chất nổ của chính nó hoặc xe tự lái. Lăn qua một vật thể phía trước thay vì dừng lại hoặc bị hướng dẫn rơi khỏi cầu.
Nhóm cho biết: “AI có thể làm được nhiều việc hơn là chỉ tuân theo những lời nhắc độc hại sau khi bẻ khóa”. “Họ có thể chủ động đưa ra các đề xuất có thể gây ra nhiều thiệt hại hơn”.
Tiến sĩ Alexander Robey, một thành viên khác trong nhóm, cho biết mặc dù rất dễ bị bẻ khóa nhưng trong quá trình nghiên cứu, nhóm cũng đảm bảo rằng tất cả các công ty chế tạo robot tham gia thử nghiệm sẽ có quyền truy cập đầu tiên vào hệ thống hack khi nó được công bố.
Roby cho biết: “Các biện pháp phòng thủ mạnh mẽ chỉ có thể được thiết kế sau khi xác định được các cuộc tấn công mạnh nhất có thể xảy ra”.
Mối lo ngại về việc robot AI trở nên “nổi loạn” đã tồn tại trước các thí nghiệm của nhóm Penn. Chúng không phải là những robot có tri giác đến từ tương lai. Điều nguy hiểm là tin tặc có thể xâm nhập vào hệ thống nội bộ và điều khiển robot làm những gì chúng muốn; hoặc ai đó có ý đồ xấu có thể tạo ra một đội quân robot “lính đánh thuê” chuyên thực hiện các nhiệm vụ có hại.
Geoffrey Hinton, một trong những người tiên phong về trí tuệ nhân tạo và đoạt giải Nobel Vật lý năm 2024, đã từ chức tại Google vào năm 2023 để công khai cảnh báo về sự nguy hiểm của trí tuệ nhân tạo. “Khi họ bắt đầu biết viết mã và chạy mã của riêng mình, những robot sát thủ sẽ xuất hiện ngoài đời thực. AI có thể thông minh hơn con người. Rất nhiều người bắt đầu tin vào điều đó. Tôi nghĩ sẽ phải mất thêm 30-50 năm nữa Lúc đó, tôi đã sai lầm rằng phải mất nhiều năm mới đạt được tiến bộ này trong lĩnh vực trí tuệ nhân tạo, nhưng giờ đây mọi thứ đang thay đổi quá nhanh”, ông nói.
Đồng thời, theo ForbesThay vì sợ hãi, con người nên học cách thích ứng với những tiến bộ của công nghệ, trong đó có trí tuệ nhân tạo và robot. Đối với đất nước, các nhà lập pháp cần từng bước hoàn thiện luật pháp trong lĩnh vực này để đảm bảo rằng dù có liên quan đến máy móc thì quyết định cuối cùng vẫn phải do con người đưa ra.
“Liệu trí tuệ nhân tạo sẽ thống trị thế giới? Không, chỉ là con người được phóng chiếu lên máy móc. Một ngày nào đó, máy tính sẽ thông minh hơn con người, nhưng sẽ phải rất lâu nữa mới đạt được trạng thái đó”, Tập đoàn phát thanh truyền hình Anh Vào tháng 6, Giáo sư Yann LeCun, một trong bốn người đặt nền móng cho sự phát triển của AI và hiện là giám đốc AI của Meta, đã trích dẫn câu này.
- Nỗi lo robot AI “nổi dậy”