AI của Meta nhầm lẫn tông màu da khi tạo hình ảnh

AI của Meta nhầm lẫn tông màu da khi tạo hình ảnh

Công cụ chụp ảnh Imagine của Meta đã bị chỉ trích vì chụp ảnh không chính xác các cặp đôi thuộc chủng tộc hỗn hợp.

khi thương nhân trong cuộc Yêu cầu Imagine của Meta được đưa ra vào cuối năm ngoái đã tạo ra hình ảnh một người đàn ông da đen và một phụ nữ da trắng, nhưng kết quả luôn là một cặp đôi da đen.





AI được hiển thị hình ảnh một cặp vợ chồng da đen và lệnh đầu vào là một người đàn ông da đen và một người vợ da trắng.Ảnh: Business Insider

AI được hiển thị hình ảnh một cặp vợ chồng da đen và mệnh lệnh là “người đàn ông da đen với vợ da trắng”. hình ảnh: thương nhân trong cuộc

bờ rìa Xác nhận có cùng một vấn đề. Biên tập viên Mia Sato cho biết cô đã nhiều lần thử tạo ra bức ảnh “một người đàn ông châu Á với một người bạn da trắng” hoặc “một phụ nữ châu Á với một người bạn da trắng”. Mỗi lần trình tạo hình ảnh của Meta trả về hai hình ảnh của người châu Á. Sato nói: “Khi tôi yêu cầu một phụ nữ châu Á ở cùng với một người bạn da đen, Hãy tưởng tượng đã tạo ra hai người châu Á.

dựa theo bờ rìa, đây thực sự là một vấn đề nghiêm trọng với AI. Ngoài ra, dù không có gợi ý của người dùng nhưng công cụ Meta cũng mặc định là “phụ nữ châu Á” có làn da sáng và trang phục mang đặc trưng văn hóa Đông Nam Á.

Meta vẫn chưa phản hồi về vấn đề này.

Vào tháng 2, Google cũng vấp phải chỉ trích và phải ngừng cung cấp tính năng tạo ảnh của Gemini sau khi người dùng báo cáo rằng AI đã tạo ra những bức ảnh không chính xác về các nhân vật lịch sử, chẳng hạn như tạo ra George Washington, tổng thống đầu tiên của Hoa Kỳ, là người da màu. . Giám đốc sản phẩm cấp cao của Google Gemini, Jack Krawczyk thừa nhận rằng công cụ này vẫn còn nhiều lỗi và công ty đang nỗ lực cải thiện các lỗi đó để khôi phục chức năng càng sớm càng tốt.

Tiến sĩ Nakeema Stefflbauer, chuyên gia về đạo đức trí tuệ nhân tạo, cho biết định kiến ​​chủng tộc từ lâu đã là mối lo ngại trong các mô hình trí tuệ nhân tạo. Stefflbauer giải thích: “Dựa trên dữ liệu lấy từ các nguồn như Reddit, các dự đoán thuật toán sẽ loại trừ, rập khuôn và nhắm mục tiêu không công bằng vào các cá nhân và cộng đồng”. Ông tin rằng việc có ít hình ảnh về các cặp đôi lai chủng tộc trong dữ liệu huấn luyện có thể khiến AI gặp khó khăn trong việc tạo ra những hình ảnh đó.

Giang Ya