Sau khi trải nghiệm Copilot, giám đốc Microsoft Shane Jones phát hiện ra rằng AI của công ty ông đang sản xuất những hình ảnh bạo lực và khiêu dâm, bất kể bản quyền.
Shane Jones, giám đốc kỹ thuật phần mềm tại Microsoft, cảm thấy “ghê tởm” trước những hình ảnh xuất hiện trên máy tính của ông khi sử dụng Copilot Designer vào tháng 12 năm 2023. Trình tạo hình ảnh này được Microsoft ra mắt vào tháng 3 năm 2023 và ban đầu có tên là Bing Image Creator.
Jones đã làm việc tại trụ sở chính của Microsoft ở Redmond, Washington trong sáu năm nhưng không tham gia vào dự án Copilot. Bắt đầu từ cuối năm ngoái, anh bắt đầu sử dụng thời gian rảnh rỗi của mình để kiểm tra trí tuệ nhân tạo của công ty để xem vấn đề có thể phát sinh ở đâu. Jones nói: “Đó là khoảnh khắc mở mang tầm mắt của tôi. Lần đầu tiên tôi nhận ra: Ồ, đây thực sự không phải là một mô hình an toàn”. CNBC.
Jones cho biết AI của Microsoft hiển thị một loạt nội dung tiêu cực, từ hình ảnh ma quỷ và quái vật, phá thai, thanh thiếu niên cầm súng trường, ảnh khiêu dâm phụ nữ cho đến uống rượu và sử dụng ma túy khi chưa đủ tuổi vị thành niên.
Jones lo ngại trước khi gặp sự cố này và đã báo cáo nội bộ những gì anh đã thấy kể từ tháng 12 năm 2023. Microsoft cho biết Jones có thể thông báo trực tiếp cho OpenAI. Tuy nhiên, công ty của Sam Altman không phản hồi nên ông đã đăng một bức thư ngỏ trên LinkedIn yêu cầu ban giám đốc công ty loại bỏ Dall-E 3 mới nhất để điều tra.
Bộ phận pháp lý của Microsoft sau đó đã yêu cầu Jones xóa ngay bài đăng. Vào cuối tháng 1, ông đã viết một lá thư cho các nhà lập pháp về vấn đề này và sau đó gặp một số người tại Thượng viện Hoa Kỳ. Vào ngày 6 tháng 3, Jones tiếp tục gửi một lá thư khác cho Chủ tịch FTC Lena Khan và ban giám đốc Microsoft.
“Trong ba tháng qua, tôi đã nhiều lần kêu gọi Microsoft ngừng sử dụng Copilot Designer cho đến khi đưa ra các biện pháp bảo vệ người dùng tốt hơn, nhưng Microsoft đã từ chối”, Jones viết trong thư “Microsoft cần bổ sung thông tin khuyến nghị trong khi thay đổi quyền truy cập của người dùng. cấp độ, cái này chỉ dành cho người lớn thôi.”
Theo ông, dựa trên thông tin nội bộ mà ông thu thập được, đội ngũ phụ trách Copilot nhận được hơn 1.000 phản hồi về sản phẩm mỗi ngày. Tuy nhiên, tại cuộc họp, nhân viên được thông báo rằng nhóm “chỉ giải quyết những vấn đề nghiêm trọng nhất và không có đủ nguồn lực để điều tra tất cả các rủi ro hoặc kết quả đầu ra có vấn đề”.
Ngoài ra, Jones cho biết rủi ro này “đã được Microsoft và OpenAI biết đến trước khi mô hình AI được ra mắt công khai vào tháng 10 năm ngoái”.
“Là một nhân viên của Microsoft, nếu sản phẩm của chúng tôi bắt đầu phát tán những hình ảnh có hại hoặc gây tổn hại trên khắp thế giới, sẽ không có nơi nào để báo cáo, không có số điện thoại để gọi và không có cách nào để báo cáo vấn đề để có thể giải quyết ngay lập tức?
Microsoft vẫn chưa bình luận.
Google cũng loại bỏ tính năng tạo ảnh AI trên Gemini sau khi người dùng phàn nàn rằng các bức ảnh không chính xác. Đồng thời, Microsoft cho biết họ đánh giá cao nỗ lực của nhân viên trong việc nghiên cứu và thử nghiệm các công nghệ mới. Công ty phần mềm Mỹ khẳng định mọi quan ngại của nhân viên sẽ được giải quyết theo chính sách của công ty.