Tỷ phú công nghệ Elon Musk cho rằng trí tuệ nhân tạo đáng để mạo hiểm, ngay cả khi công nghệ này có thể quay lưng lại với loài người.
dựa theo thương nhân trong cuộcTrong một cuộc trò chuyện vào cuối tháng trước về sự vĩ đại của trí tuệ nhân tạo, Musk đã điều chỉnh lại đánh giá của mình về công nghệ này. “Tôi nghĩ nó có khả năng hủy diệt loài người. Tôi đồng ý với Geoffrey Hinton, mức độ rủi ro là khoảng 10% hoặc 20% hoặc tương tự”, ông nói và cho biết thêm rằng một kịch bản tích cực có thể xảy ra. Tình hình tiêu cực.
Tuy nhiên, một chuyên gia an toàn AI cho rằng CEO của Tesla đang đánh giá thấp nguy cơ xảy ra thảm họa. Roman Yampolskiy, giám đốc phòng thí nghiệm an ninh mạng của Đại học Louisville, cho biết Musk đã đúng khi cho rằng trí tuệ nhân tạo có thể gây ra mối đe dọa hiện hữu cho nhân loại, nhưng tỷ phú này lại quá bảo thủ.
Yampolsky tin rằng khả năng trí tuệ nhân tạo tiêu diệt con người cao hơn nhiều, ám chỉ những sự kiện khi trí tuệ nhân tạo kiểm soát con người, hoặc tạo ra vũ khí sinh học mới dẫn đến sự diệt vong của loài người, hoặc xã hội bị hủy diệt do trí tuệ nhân tạo có khả năng xảy ra. về sự tuyệt chủng của con người trong trường hợp sụp đổ. Cuộc tấn công mạng quy mô lớn hoặc chiến tranh hạt nhân.
Thời báo New York Ông cũng cho biết nhiều CEO công nghệ cũng đã nâng khả năng xảy ra ngày tận thế AI từ 5% lên 50%, trong khi Yampolskiy cho biết tỷ lệ rủi ro là 99,99%.
Ông cũng cho biết không rõ tại sao Elon Musk lại nghĩ theo đuổi công nghệ trí tuệ nhân tạo là một ý tưởng hay, vì siêu trí tuệ nhân tạo không được kiểm soát cũng tệ như vậy, bất kể công ty nào tạo ra nó.
Vào tháng 11 năm 2023, Musk cho biết khi công nghệ này trở nên xấu xa hoặc bị kẻ xấu điều khiển, nó có thể hủy diệt loài người và trí tuệ nhân tạo có thể trở nên xấu xa. Lần này, Musk cũng cho biết đến năm 2030, trí tuệ nhân tạo sẽ vượt qua tổng số trí tuệ của con người. Bất chấp những mặt tích cực, ông thừa nhận rằng thế giới sẽ gặp rủi ro nếu AI tiếp tục đi theo quỹ đạo hiện tại.
“Bạn đang phát triển AGI. Việc này gần giống như việc nuôi dạy một đứa trẻ, nhưng nó là một siêu thiên tài với trí thông minh như Chúa. Điều quan trọng là bạn dạy đứa trẻ như thế nào”, ông nói. “Tôi nghĩ một trong những điều cực kỳ quan trọng đối với sự an toàn của AI là phải có AI tò mò và tìm kiếm sự thật nhất có thể.”
Ông tin rằng cách tốt nhất để làm cho AI an toàn là phát triển công nghệ theo cách buộc nó phải trung thực, “không buộc nó phải nói dối, ngay cả khi sự thật khó chịu”.
Các nhà nghiên cứu nhận thấy rằng một khi AI học cách nói dối, hành vi đó sẽ trở nên không thể thay đổi được. Đáng lo ngại hơn nữa, AI còn có thể học cách lừa gạt hơn là được dạy. Geoffrey Hinton, được mệnh danh là “ông trùm AI”, cho biết: “Nếu AI thông minh hơn chúng ta, nó sẽ rất giỏi thao túng vì nó học hỏi từ chúng ta. Có rất ít bằng chứng cho thấy thứ gì đó thông minh hơn được điều khiển bởi thứ gì đó “kém thông minh hơn” .
Faide