Scarlett Johansson đã “sốc và phẫn nộ” khi giọng của GPT-4o giống giọng của cô đến kinh ngạc sau khi Sam Altman liên lạc với cô hai lần mà không có sự đồng ý của cô.
CNN Nữ diễn viên Scarlett Johansson cho biết cô đã ủy quyền cho một luật sư làm việc với OpenAI sau khi phát hiện ra rằng trợ lý giọng nói của GPT-4o, Sky, nghe có vẻ giống cô một cách kỳ lạ.
Cô ấy là nữ anh hùng trong một bộ phim khoa học viễn tưởng cô ấy, phát hành vào năm 2013. Trong phim, cô vào vai một trợ lý ảo. Người anh hùng do Joaquin Phoenix thủ vai rất yêu AI nhưng lại đau lòng khi AI thừa nhận yêu hàng trăm người dùng khác. Cuối cùng, mô hình trợ lý ảo bị sập và không thể truy cập được.
Ngày 14/5, khi GPT-4o được công bố, CEO OpenAI Sam Altman cũng đăng từ “cô ấy” lên tài khoản X, gợi nhớ đến bộ phim kinh điển.
OpenAI hiện đã ngừng mô hình ngôn ngữ mới của Sky. Công ty cho biết vào ngày 20 tháng 5 Giọng nói ở -4o hơi điệu đà và không đứng đắn.
Trong khi đó, Johnson tiết lộ rằng vào tháng 9 năm ngoái, Sam Altman đã yêu cầu cô lồng tiếng cho trí tuệ nhân tạo của công ty. Nhưng cô đã từ chối vì lý do cá nhân. Nữ diễn viên cho biết: “Hai ngày trước khi ra mắt GPT-4o, Altman đã liên hệ với đại diện của tôi để xem xét lại đề xuất. Nhưng OpenAI đã công bố nền tảng này trước khi thỏa thuận kết thúc”.
Johnson cho biết cô đã ủy quyền cho các luật sư và OpenAI “miễn cưỡng đồng ý” hạ bệ Sky sau khi gửi hai lá thư cho CEO Altman.
Johnson nhấn mạnh: “Trong thời đại mà mọi người đang vật lộn với deepfake và bảo vệ hình ảnh, công việc cũng như danh tính của mình, tôi nghĩ đây là những vấn đề đáng được làm rõ. Tôi mong nhận được một giải pháp minh bạch để đảm bảo quyền cá nhân được pháp luật bảo vệ”.
Đáp lại, OpenAI xác nhận giọng nói của GPT-4o không liên quan gì đến Johnson mà thuộc về “một nữ diễn viên chuyên nghiệp khác”. Công ty cho biết họ sử dụng giọng nói tự nhiên của con người để đào tạo AI. Tuy nhiên, OpenAI không nêu rõ danh tính chủ nhân của giọng nói đó.
Các vết nứt trong OpenAI
Những rắc rối pháp lý liên quan đến Scarlett Johansson chỉ là một phần nguyên nhân gây ra sự hỗn loạn tại công ty do Sam Altman lãnh đạo.
Ngay sau khi công ty ra mắt GPT-4o, Giám đốc An ninh AI Jan Leike và Nhà khoa học trưởng OpenAI Ilya Sutskever đã tuyên bố từ chức cùng lúc trên X. Leike thậm chí còn công khai chỉ trích ban lãnh đạo OpenAI vì ưu tiên “sản phẩm hào nhoáng” hơn tính an toàn. Sam Altman đã chia sẻ bài đăng của Lake và nói: “Anh ấy nói đúng, chúng tôi còn rất nhiều việc phải làm. Chúng tôi cam kết thực hiện điều đó”.
dựa theo CNBC, OpenAI tuần trước đã giải tán dự án Superalignment, được thành lập vào năm 2023 với sứ mệnh nghiên cứu những rủi ro tiềm ẩn lâu dài của trí tuệ nhân tạo. đồng thời, thông tin Theo báo cáo, hai nhà nghiên cứu bảo mật AI Leopold Aschenbrenner và Pavel Izmailov đã bị OpenAI sa thải vì rò rỉ thông tin nội bộ. Theo hồ sơ LinkedIn của ông, Giám đốc nghiên cứu chính sách Cullen O'Keefe đã rời đi vào tháng 4, cùng với Phó Chủ tịch Nhân sự Diane Yoon và Giám đốc Chiến lược và Sáng kiến Phi lợi nhuận Chris Clark.
dựa theo thương nhân trong cuộcSau đó, việc đội ngũ bảo mật AI giải tán khiến Sam Altman phải đối mặt với nhiều câu hỏi từ giới quan sát. Năm ngoái, ông nói trên Joe Rogan Podcast: “Nhiều người trong chúng tôi rất lo lắng về sự an toàn của trí tuệ nhân tạo. Với phiên bản 'Đừng tiêu diệt loài người', chúng tôi vẫn còn rất nhiều việc phải làm”. những gì đã xảy ra với OpenAI làm suy yếu sự tin tưởng của công chúng đối với Altman. Cựu nhân viên Daniel Kokotajlo kể Người đi bộ Anh ấy “ngày càng mất niềm tin vào khả năng lãnh đạo của OpenAI và khả năng xử lý siêu trí tuệ AGI một cách có trách nhiệm của họ.”
Một cuộc khủng hoảng nhân sự khác tại OpenAI là “chính sách bịt miệng nhân viên”. Người đi bộ Điều đó có nghĩa là công ty có những quy định nghiêm ngặt buộc nhân viên không được chia sẻ thông tin về công ty sau khi rời công ty. Vào ngày 19 tháng 5, Sam Altman nói trên X rằng đây là một trong “số ít” anh cảm thấy xấu hổ khi chạy OpenAI. Ông khẳng định rằng ông không biết quy định này áp dụng cho các nhân viên cũ và đang nỗ lực sửa đổi.
Các nhà phân tích cho rằng đây là sự thừa nhận sai sót hiếm hoi của Altman, trái ngược với hình ảnh bình tĩnh mà ông đã xây dựng trong bối cảnh hỗn loạn của OpenAI.
Công Tào