Giám đốc an ninh OpenAI Jan Leike tuyên bố từ chức và chỉ trích Sam Altman theo đuổi những sản phẩm hào nhoáng thay vì phát triển AI có trách nhiệm.
“Tôi từ chức”, Jan Leike, đồng lãnh đạo dự án OpenAI Superalignment, đã viết ngắn gọn trên X vào ngày 14 tháng 5. Dự án được thành lập vào tháng 7 năm 2023 và chuyên phát triển các giải pháp công nghệ giám sát trí tuệ nhân tạo nhằm ngăn chặn một ngày trí tuệ nhân tạo trở nên thông minh hơn con người.
Cách đây vài giờ, nhà khoa học trưởng của OpenAI Ilya Sutskever cũng đưa ra thông báo: “Sau gần mười năm, tôi đã quyết định rời OpenAI. Tôi rất hào hứng với những gì đã xảy ra với mình, một dự án rất ý nghĩa. Tôi sẽ chia sẻ nhiều hơn khi thích hợp.” Giải thích chi tiết.”
Vào ngày 17 tháng 5, Leike đã xuất bản một bài báo dài hơn giải thích quyết định rời đi của mình, nói rằng OpenAI và Giám đốc điều hành Sam Altman đã đặt các quy trình và văn hóa an toàn đằng sau những sản phẩm hào nhoáng.
Theo Lake, anh tham gia OpenAI vì anh tin rằng đây là nơi tốt nhất để nghiên cứu cách kiểm soát siêu trí tuệ AGI. Ông viết: “Tuy nhiên, từ lâu tôi đã không đồng ý với lãnh đạo OpenAI về các ưu tiên cốt lõi của công ty”.
Cựu lãnh đạo OpenAI tin rằng công ty nên tập trung và dành nhiều nguồn lực hơn cho an ninh, giám sát, chuẩn bị, an toàn, bảo mật, siêu liên kết, tác động xã hội và các chủ đề liên quan. “Tôi lo ngại rằng chúng tôi không đi đúng hướng để đạt được điều này”, Lake nói.
Nghiên cứu của nhóm ông về cách điều chỉnh trí tuệ nhân tạo để trở nên thân thiện và an toàn với con người đang đi ngược lại định hướng hiện tại của công ty. Trong vài tháng qua, nhóm đã làm việc để có đủ tài nguyên máy tính để tiến hành nghiên cứu quan trọng.
Lake khuyến khích nhân viên OpenAI tiếp tục thay đổi văn hóa công ty: “Tôi trông cậy vào bạn. Thế giới đang trông cậy vào bạn”.
Sam Altman sau đó đã trả lời: “Tôi rất biết ơn những đóng góp của Jan Leike cho văn hóa an toàn của OpenAI và tôi rất tiếc khi thấy anh ấy rời đi. Anh ấy nói đúng, chúng tôi vẫn còn rất nhiều việc phải làm và chúng tôi cam kết thực hiện điều đó.” Tôi sẽ có mặt trong vài ngày tới.”
Tuy nhiên, cũng trong ngày 17/5, CNBC Trích dẫn nguồn tin, OpenAI đã giải tán dự án Superalignment, dự án được giao nhiệm vụ nghiên cứu những rủi ro lâu dài của trí tuệ nhân tạo. Khi ra mắt vào giữa năm ngoái, OpenAI đã cam kết đóng góp 20% sức mạnh tính toán cho nhóm trong vòng 4 năm.
dựa theo tạp chí phố WallSự hỗn loạn tại công ty sở hữu ChatGPT ngày càng phức tạp hơn khi đội ngũ của Ilya Sutskever tập trung vào việc đảm bảo trí tuệ nhân tạo không gây hại cho con người, trong khi những người khác, trong đó có Sam Altman, lại mong muốn đưa các công nghệ mới ra thị trường một cách nhanh chóng. Đó được cho là lý do tại sao Sam Altman bị lật đổ vào cuối năm ngoái, chỉ được phục hồi làm Giám đốc điều hành chỉ hơn bốn ngày sau đó.
Quyết định rời khỏi Ilya Sutskever và Jan Leike và giải tán nhóm Superalignment được đưa ra chỉ vài ngày sau khi OpenAI công bố GPT-4o, được cho là có khả năng “gần giống con người”.
Ngoại trừ, thông tin Phó Chủ tịch Nhân sự Diane Yoon và Giám đốc Chiến lược và Sáng kiến Phi lợi nhuận Chris Clark cũng được cho là đã từ chức khỏi OpenAI. tuần trước, thương nhân trong cuộc Nó cũng cho biết hai nhà nghiên cứu bảo mật trí tuệ nhân tạo cũng đã nghỉ việc tại công ty của Sam Altman. Một trong hai nhà nghiên cứu cho biết ông không còn tin vào cam kết hành động có trách nhiệm của OpenAI khi nó bước vào kỷ nguyên AGI.