Một nhóm các nhà khoa học trí tuệ nhân tạo Trung Quốc và phương Tây đã nhất trí cảnh báo rằng “trí tuệ nhân tạo cần phải được kiểm soát giống như bom hạt nhân trong Chiến tranh Lạnh”.
dựa theo Thời báo tài chínhMột nhóm các nhà nghiên cứu, chuyên gia, học giả hàng đầu và những nhân vật quan trọng trong lĩnh vực trí tuệ nhân tạo từ Trung Quốc, Hoa Kỳ và một số quốc gia khác đã gặp nhau tại Bắc Kinh cuối tuần qua để thảo luận về những rủi ro xung quanh trí tuệ nhân tạo. Tổ chức này sau đó đã đưa ra một tuyên bố chung xác định “ranh giới đỏ” trong việc phát triển trí tuệ nhân tạo, bao gồm cả việc tạo ra vũ khí sinh học và tiến hành các cuộc tấn công mạng.
Những người tham gia viết tuyên bố chung bao gồm các giáo sư Geoffrey Hinton và Yoshua Bengio, những người được coi là những người tiên phong trong lĩnh vực trí tuệ nhân tạo; Stuart Russell, giáo sư khoa học máy tính tại Đại học California, Berkeley, một trong những nhà sản xuất máy tính nổi tiếng nhất Trung Quốc; các nhà khoa học. Họ chủ yếu thảo luận về các mối đe dọa liên quan đến trí tuệ nhân tạo AGI có khả năng ngang bằng hoặc vượt xa con người.
Nhóm cảnh báo rằng cần có một cách tiếp cận phổ quát đối với bảo mật AI để ngăn chặn “những rủi ro thảm khốc hoặc thậm chí có thể tồn tại đối với nhân loại trong cuộc đời của chúng ta”. Đặc biệt, con người cần ngăn chặn các hệ thống AI vượt quá khuôn khổ, ví dụ: “không hệ thống AI nào có thể tự tái tạo hoặc cải tiến nếu không có sự chấp thuận và hỗ trợ rõ ràng của con người cũng như những hành động làm tăng quyền lực và ảnh hưởng quá mức”. “.
Ngoài ra, trí tuệ nhân tạo không được can thiệp vào việc thiết kế vũ khí hủy diệt hàng loạt, vi phạm công ước vũ khí sinh học quốc tế hoặc gây thiệt hại nghiêm trọng về kinh tế hoặc quân sự do thực hiện tự động.
Các chuyên gia hàng đầu trong lĩnh vực trí tuệ nhân tạo nhấn mạnh cảnh báo mới sẽ đặt ra mục tiêu tương tự như nỗ lực ngăn chặn xung đột hạt nhân thời Chiến tranh Lạnh. Tuyên bố viết: “Sự phối hợp giữa các chính phủ và cộng đồng khoa học quốc tế có thể giúp ngăn ngừa thảm họa nhiệt hạch. Một lần nữa, nhân loại cần sự phối hợp tương tự để ngăn chặn những thảm họa có thể phát sinh từ những công nghệ chưa từng có hiện nay”.
Giáo sư Bengio cho biết: “Trọng tâm của cuộc thảo luận là 'ranh giới đỏ' mà bất kỳ hệ thống AI mạnh mẽ nào không được vượt qua và các chính phủ nên áp đặt trong quá trình phát triển và triển khai AI.”
Trước đó, châu Âu cũng đã bỏ phiếu ủng hộ Đạo luật AI vào ngày 13/3. Đây được coi là bước cuối cùng trong việc thông qua luật kiểm soát trí tuệ nhân tạo, đặt ra các quy tắc sâu rộng cho các ứng dụng công nghệ, cấm sử dụng AI nhất định và yêu cầu đánh giá các hệ thống AI đã được phê duyệt được coi là có rủi ro cao. EU dự kiến sẽ chính thức thông qua luật này vào tháng 5 và có hiệu lực vào đầu năm sau.
Sự phát triển nhanh chóng của trí tuệ nhân tạo đã thu hút được sự chú ý lớn. Vào giữa tháng 3, một báo cáo do các đối tác chính phủ Hoa Kỳ ủy quyền cũng cảnh báo rằng trí tuệ nhân tạo có thể gây ra “mối đe dọa ở cấp độ tuyệt chủng” đối với nhân loại và cần có ngưỡng kiểm soát.
Vào tháng 3 năm ngoái, hơn 1.000 giới tinh hoa công nghệ, bao gồm tỷ phú Elon Musk và đồng sáng lập Apple Steve Wozniak, đã ký một lá thư kêu gọi các công ty và tổ chức toàn cầu tạm dừng cuộc đua trí tuệ nhân tạo trong sáu tháng để thiết lập một bộ quy tắc kỹ thuật chung. Một tháng sau, một thông điệp được ký bởi 350 người, các chuyên gia và lãnh đạo ngành AI, cũng đưa ra cảnh báo tương tự.