Grok của Elon Musk đã phát hành một tính năng tạo hình ảnh AI mới vào tối thứ Ba, giống như chatbot AI, có rất ít biện pháp bảo vệ. Điều đó có nghĩa là bạn có thể tạo ra hình ảnh giả về Donald Trump đang hút cần sa trong chương trình Joe Rogan, chẳng hạn, và tải thẳng lên nền tảng X. Nhưng thực ra không phải công ty AI của Elon Musk thúc đẩy sự điên rồ này; mà là một công ty khởi nghiệp mới — Black Forest Labs — là đơn vị đứng sau tính năng gây tranh cãi này.
Sự hợp tác giữa hai bên đã được tiết lộ khi xAI thông báo rằng họ đang hợp tác với Black Forest Labs để cung cấp năng lượng cho trình tạo hình ảnh của Grok bằng mô hình FLUX.1 của họ. Một công ty khởi nghiệp về hình ảnh và video AI được ra mắt vào ngày 1 tháng 8, Black Forest Labs dường như đồng tình với tầm nhìn của Musk về Grok như một “chatbot chống thức tỉnh”, không có các rào cản nghiêm ngặt như Dall-E của OpenAI hay Imagen của Google. Trang mạng xã hội này đã tràn ngập những hình ảnh kỳ quặc từ tính năng mới.
Black Forest Labs có trụ sở tại Đức và gần đây đã thoát khỏi tình trạng ẩn danh với 31 triệu đô la tiền tài trợ hạt giống, do Andreessen Horowitz dẫn đầu, theo thông cáo báo chí. Các nhà đầu tư đáng chú ý khác bao gồm Tổng giám đốc điều hành Y Combinator Garry Tan và cựu Tổng giám đốc điều hành Oculus Brendan Iribe. Những người đồng sáng lập công ty khởi nghiệp, Robin Rombach, Patrick Esser và Andreas Blattmann, trước đây là các nhà nghiên cứu đã giúp tạo ra các mô hình khuếch tán ổn định của Stability AI.
Theo Artificial Analysis, các mô hình FLUX.1 của Black Forest Lab vượt trội hơn các trình tạo hình ảnh AI của Midjourney và OpenAI về mặt chất lượng, ít nhất là theo xếp hạng của người dùng trong lĩnh vực hình ảnh của họ.
Công ty khởi nghiệp này cho biết họ đang “cung cấp các mô hình của mình cho nhiều đối tượng”, với các mô hình tạo hình ảnh AI nguồn mở trên Hugging Face và GitHub. Công ty cho biết họ cũng có kế hoạch sớm tạo ra một mô hình chuyển văn bản thành video.
Black Forest Labs không trả lời ngay lập tức yêu cầu bình luận của TechCrunch.
Trong bản phát hành ra mắt, công ty cho biết mục đích của họ là “nâng cao lòng tin vào sự an toàn của các mô hình này”; tuy nhiên, một số người có thể nói rằng lượng lớn hình ảnh do AI tạo ra vào thứ Tư X đã làm ngược lại. Nhiều hình ảnh mà người dùng có thể tạo ra bằng công cụ của Grok và Black Forest Labs, chẳng hạn như Pikachu cầm súng trường tấn công, không thể được tạo lại bằng trình tạo hình ảnh của Google hoặc OpenAI. Chắc chắn không có nghi ngờ gì rằng hình ảnh có bản quyền đã được sử dụng để đào tạo mô hình.
Đó là vấn đề chính
Việc thiếu các biện pháp bảo vệ này có thể là lý do chính khiến Musk chọn cộng tác viên này. Musk đã nói rõ rằng ông tin rằng các biện pháp bảo vệ thực sự khiến các mô hình AI kém an toàn hơn. “Mối nguy hiểm của việc đào tạo AI để thức tỉnh — nói cách khác là nói dối — là chết người”, Musk nói trong một dòng tweet từ năm 2022.
Giám đốc hội đồng quản trị của Black Forest Labs, Anjney Midha, đã đăng trên X một loạt các so sánh giữa các hình ảnh được tạo ra vào ngày đầu tiên ra mắt bởi Google Gemini và sự hợp tác Flux của Grok. Chuỗi này nêu bật các vấn đề được ghi chép rõ ràng của Google Gemini trong việc tạo ra hình ảnh chính xác về mặt lịch sử của con người, cụ thể là bằng cách đưa sự đa dạng về chủng tộc vào hình ảnh một cách không phù hợp.
“Tôi rất vui vì @ibab và nhóm đã coi trọng vấn đề này và đưa ra lựa chọn đúng đắn”, Midha viết trong một dòng tweet, ám chỉ đến việc FLUX.1 dường như né tránh vấn đề này (và đề cập đến lời kể của nhà nghiên cứu chính của xAI là Igor Babuschkin).
Vì lỗi này, Google đã xin lỗi và tắt khả năng tạo hình ảnh con người của Gemini vào tháng 2. Cho đến hôm nay, công ty vẫn không cho phép Gemini tạo hình ảnh con người.
Một vòi rồng thông tin sai lệch
Việc thiếu biện pháp bảo vệ chung này có thể gây ra vấn đề cho Musk. Nền tảng X đã bị chỉ trích khi hình ảnh khiêu dâm deepfake do AI tạo ra đại diện cho Taylor Swift lan truyền trên nền tảng này. Bên cạnh sự cố đó, Grok tạo ra các tiêu đề ảo giác xuất hiện với người dùng trên X gần như hàng tuần.
Chỉ tuần trước, năm bộ trưởng ngoại giao đã thúc giục X ngừng phát tán thông tin sai lệch về Kamala Harris trên X. Đầu tháng này, Musk đã chia sẻ lại một video sử dụng AI để sao chép giọng nói của Harris, khiến cho có vẻ như phó tổng thống thừa nhận mình là “người được tuyển dụng vì mục đích đa dạng”.
Musk dường như có ý định để thông tin sai lệch như thế này tràn lan trên nền tảng. Bằng cách cho phép người dùng đăng hình ảnh AI của Grok, dường như không có bất kỳ hình mờ nào, trực tiếp trên nền tảng, về cơ bản, ông đã mở một vòi rồng thông tin sai lệch nhắm vào nguồn cấp tin tức X của mọi người.