Theo một người trong nhóm đó, nhóm Superalignment của OpenAI, chịu trách nhiệm phát triển các cách quản lý và điều khiển các hệ thống AI “siêu thông minh”, đã được hứa cung cấp 20% tài nguyên máy tính của công ty. Nhưng các yêu cầu về một phần công việc tính toán đó thường bị từ chối, khiến nhóm không thể thực hiện công việc của mình.
Vấn đề đó, cùng với những vấn đề khác, đã khiến một số thành viên trong nhóm từ chức trong tuần này, bao gồm cả đồng trưởng nhóm Jan Leike, cựu nhà nghiên cứu DeepMind, người khi còn ở OpenAI đã tham gia phát triển ChatGPT, GPT-4 và tiền thân của ChatGPT, InstructGPT.
Leike đã công khai một số lý do cho việc từ chức vào sáng thứ Sáu. Leike viết trong một loạt bài đăng trên X: “Tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty trong một thời gian dài, cho đến khi chúng tôi cuối cùng đã đạt đến điểm đột phá”. dành cho các thế hệ mô hình tiếp theo, về an ninh, giám sát, chuẩn bị sẵn sàng, an toàn, sức mạnh chống lại đối thủ, liên kết (siêu), tính bảo mật, tác động xã hội và các chủ đề liên quan. Những vấn đề này khá khó giải quyết và tôi lo ngại rằng chúng ta đang không đi đúng quỹ đạo để đạt được điều đó.”
OpenAI đã không trả lời ngay lập tức yêu cầu bình luận về các tài nguyên đã hứa và phân bổ cho nhóm đó.
OpenAI đã thành lập nhóm Superalignment vào tháng 7 năm ngoái và được lãnh đạo bởi Leike và người đồng sáng lập OpenAI Ilya Sutskever, người cũng đã từ chức khỏi công ty trong tuần này. Nó có mục tiêu đầy tham vọng là giải quyết những thách thức kỹ thuật cốt lõi trong việc kiểm soát AI siêu thông minh trong bốn năm tới. Với sự tham gia của các nhà khoa học và kỹ sư từ bộ phận liên kết trước đây của OpenAI cũng như các nhà nghiên cứu từ các tổ chức khác trong công ty, nhóm đã đóng góp nghiên cứu cung cấp thông tin về sự an toàn của cả mô hình nội bộ và không phải OpenAI, đồng thời thông qua các sáng kiến bao gồm chương trình tài trợ nghiên cứu , thu hút và chia sẻ công việc với ngành AI rộng lớn hơn.
Nhóm Superalignment đã cố gắng xuất bản một loạt nghiên cứu về an toàn và tài trợ hàng triệu đô la cho các nhà nghiên cứu bên ngoài. Tuy nhiên, khi việc ra mắt sản phẩm bắt đầu chiếm ngày càng nhiều băng thông của lãnh đạo OpenAI, nhóm Superalignment nhận thấy mình phải đấu tranh để có được nhiều khoản đầu tư trả trước hơn – những khoản đầu tư mà họ tin là rất quan trọng đối với sứ mệnh đã nêu của công ty là phát triển AI siêu thông minh vì lợi ích của toàn nhân loại .
Leike tiếp tục: “Chế tạo những cỗ máy thông minh hơn con người là một nỗ lực vốn đã nguy hiểm. “Nhưng trong những năm qua, văn hóa và quy trình an toàn đã lùi bước so với những sản phẩm sáng bóng.”
Cuộc chiến của Sutskever với Giám đốc điều hành OpenAI Sam Altman đóng vai trò như một sự phân tâm lớn.
Sutskever, cùng với ban giám đốc cũ của OpenAI, đã đột ngột sa thải Altman vào cuối năm ngoái vì lo ngại rằng Altman đã không “thường xuyên thẳng thắn” với các thành viên hội đồng quản trị. Dưới áp lực từ các nhà đầu tư của OpenAI, bao gồm cả Microsoft và nhiều nhân viên của chính công ty, Altman cuối cùng đã được phục hồi, phần lớn hội đồng quản trị đã từ chức và Sutskever được cho là không bao giờ quay trở lại làm việc.
Theo nguồn tin, Sutskever đóng vai trò quan trọng trong nhóm Superalignment – không chỉ đóng góp nghiên cứu mà còn đóng vai trò là cầu nối với các bộ phận khác trong OpenAI. Anh ấy cũng sẽ đóng vai trò như một đại sứ, gây ấn tượng với tầm quan trọng của công việc của nhóm đối với những người ra quyết định quan trọng của OpenAI.
Sau sự ra đi của Leike, Altman đã viết trong X rằng anh ấy đồng ý rằng “còn rất nhiều việc phải làm” và họ “cam kết thực hiện điều đó”. Anh ấy gợi ý về một lời giải thích dài hơn mà người đồng sáng lập Greg Brockman đã đưa ra vào sáng thứ Bảy:
Mặc dù có rất ít thông tin cụ thể trong phản ứng của Brockman về các chính sách hoặc cam kết, nhưng ông nói rằng “chúng ta cần có một vòng phản hồi rất chặt chẽ, kiểm tra nghiêm ngặt, cân nhắc cẩn thận ở từng bước, an ninh đẳng cấp thế giới và sự hài hòa giữa an toàn và năng lực. ”
Sau sự ra đi của Leike và Sutskever, John Schulman, một người đồng sáng lập OpenAI khác, đã chuyển sang phụ trách loại công việc mà nhóm Superalignment đang thực hiện, nhưng sẽ không còn một nhóm chuyên dụng nữa – thay vào đó, nó sẽ là một nhóm liên kết lỏng lẻo. nhóm các nhà nghiên cứu được nhúng vào các bộ phận trong toàn công ty. Người phát ngôn của OpenAI mô tả nó là “sự tích hợp [the team] sâu sắc hơn.”
Điều đáng lo ngại là do đó, quá trình phát triển AI của OpenAI sẽ không tập trung vào sự an toàn như lẽ ra có thể.
Chúng tôi đang tung ra một bản tin AI! Đăng ký đây để bắt đầu nhận nó trong hộp thư đến của bạn vào ngày 5 tháng 6.