Trở lại vào tháng 2, Google đã tạm dừng khả năng tạo hình ảnh con người của chatbot Gemini được hỗ trợ bởi AI sau khi người dùng phàn nàn về những thông tin không chính xác trong lịch sử. Ví dụ: được yêu cầu mô tả “một quân đoàn La Mã”, Song Tử sẽ thể hiện một nhóm lỗi thời gồm những người lính đa dạng về chủng tộc trong khi thể hiện “các chiến binh Zulu” là người Da đen theo khuôn mẫu.
Giám đốc điều hành Google Sundar Pichai đã xin lỗi và Demis Hassabis, người đồng sáng lập bộ phận nghiên cứu AI DeepMind của Google, nói rằng bản sửa lỗi sẽ đến “trong thời gian rất ngắn” – trong vòng vài tuần tới. Nhưng hiện chúng ta đã bước sang tháng 5 và vẫn chưa có giải pháp khắc phục như đã hứa.
Google đã giới thiệu nhiều tính năng khác của Gemini tại hội nghị nhà phát triển I/O thường niên trong tuần này, từ các chatbot tùy chỉnh đến công cụ lập kế hoạch hành trình kỳ nghỉ và tích hợp với Lịch Google, Keep và YouTube Music. Tuy nhiên, người phát ngôn của Google đã xác nhận rằng việc tạo hình ảnh về mọi người vẫn tiếp tục bị tắt trong các ứng dụng Gemini trên web và thiết bị di động.
Vì vậy, những gì nắm giữ? Chà, vấn đề có thể phức tạp hơn Hassabis ám chỉ.
Các bộ dữ liệu được sử dụng để đào tạo các công cụ tạo hình ảnh như của Gemini thường chứa nhiều hình ảnh về người da trắng hơn những người thuộc các chủng tộc và sắc tộc khác, đồng thời hình ảnh của những người không phải da trắng trong các bộ dữ liệu đó củng cố những khuôn mẫu tiêu cực. Google, trong một nỗ lực rõ ràng để khắc phục những thành kiến này, đã triển khai mã hóa cứng một cách vụng về. Và bây giờ họ đang cố gắng tìm ra con đường trung dung hợp lý nào đó để tránh lặp lại lịch sử.
Liệu Google có đạt được điều đó không? Có lẽ. Có lẽ không. Trong mọi trường hợp, sự việc kéo dài đóng vai trò như một lời nhắc nhở rằng không có cách khắc phục nào dễ dàng đối với AI hoạt động sai – đặc biệt là khi sự thiên vị là gốc rễ của hành vi sai trái.
Chúng tôi đang tung ra bản tin AI! Đăng ký đây để bắt đầu nhận nó trong hộp thư đến của bạn vào ngày 5 tháng 6.