Sử dụng meme, người dùng mạng xã hội đã trở thành đội đỏ vì các tính năng AI chưa hoàn thiện

Sử dụng meme, người dùng mạng xã hội đã trở thành đội đỏ vì các tính năng AI chưa hoàn thiện

Tính năng tìm kiếm AI mới của Google cho biết: “Chạy bằng kéo là một bài tập tim mạch có thể làm tăng nhịp tim của bạn và đòi hỏi sự tập trung, tập trung”. “Một số người nói rằng nó cũng có thể cải thiện lỗ chân lông của bạn và mang lại cho bạn sức mạnh.”

Tính năng AI của Google đã lấy phản hồi này từ một trang web có tên Little Old Lady Comedy, đúng như tên gọi của nó, là một blog hài kịch. Nhưng sự hớ hênh này nực cười đến mức nó được lan truyền trên mạng xã hội, cùng với những đánh giá tổng quan về AI rõ ràng là không chính xác khác trên Google. Thực tế, người dùng hàng ngày hiện đang hợp tác với các sản phẩm này trên mạng xã hội.

Trong lĩnh vực an ninh mạng, một số công ty sẽ thuê “đội đỏ” – những hacker có đạo đức – những người cố gắng xâm phạm sản phẩm của họ như thể họ là những kẻ xấu. Nếu đội đỏ tìm thấy lỗ hổng thì công ty có thể sửa nó trước khi sản phẩm xuất xưởng. Google chắc chắn đã tiến hành một hình thức hợp tác đỏ trước khi phát hành một sản phẩm AI trên Google Tìm kiếm, sản phẩm này ước tính xử lý hàng nghìn tỷ truy vấn mỗi ngày.

Thật đáng ngạc nhiên khi một công ty có nguồn lực dồi dào như Google vẫn xuất xưởng những sản phẩm có sai sót rõ ràng. Đó là lý do tại sao giờ đây nó trở thành một meme chế giễu những thất bại của các sản phẩm AI, đặc biệt là trong thời điểm AI ngày càng trở nên phổ biến. Chúng tôi đã thấy điều này với lỗi chính tả sai trên ChatGPT, việc người tạo video không hiểu cách con người ăn mì spaghetti và các bản tóm tắt tin tức của Grok AI trên X, giống như Google, không hiểu được sự châm biếm. Nhưng những meme này thực sự có thể đóng vai trò là phản hồi hữu ích cho các công ty đang phát triển và thử nghiệm AI.

Bất chấp tính chất nổi bật của những sai sót này, các công ty công nghệ thường hạ thấp tác động của chúng.

Google nói với TechCrunch trong một tuyên bố gửi qua email: “Các ví dụ mà chúng tôi thấy thường là những truy vấn rất không phổ biến và không đại diện cho trải nghiệm của hầu hết mọi người”. “Chúng tôi đã tiến hành thử nghiệm rộng rãi trước khi tung ra trải nghiệm mới này và sẽ sử dụng những ví dụ riêng biệt này khi chúng tôi tiếp tục tinh chỉnh tổng thể hệ thống của mình.”

Không phải tất cả người dùng đều thấy kết quả AI giống nhau và vào thời điểm có đề xuất AI đặc biệt tồi tệ xuất hiện, vấn đề thường đã được khắc phục. Trong một trường hợp gần đây được lan truyền rộng rãi hơn, Google gợi ý rằng nếu bạn làm bánh pizza nhưng pho mát không dính, bạn có thể thêm khoảng 1/8 cốc keo vào nước sốt để “làm cho nó dính hơn”. Hóa ra, AI đang lấy câu trả lời này từ một bình luận Reddit 11 tuổi của một người dùng có tên “f––smith”.

Ngoài việc là một sai lầm đáng kinh ngạc, nó còn báo hiệu rằng các giao dịch nội dung AI có thể được định giá quá cao. Ví dụ: Google có hợp đồng trị giá 60 triệu USD với Reddit để cấp phép nội dung của nó cho việc đào tạo mô hình AI. Reddit đã ký một thỏa thuận tương tự với OpenAI vào tuần trước, và các tài sản của Automattic là WordPress.org và Tumblr được đồn đại là đang đàm phán để bán dữ liệu cho Midjourney và OpenAI.

Theo ghi nhận của Google, rất nhiều lỗi đang lan truyền trên mạng xã hội đến từ các tìm kiếm độc đáo được thiết kế để tăng cường AI. Ít nhất tôi hy vọng không có ai nghiêm túc tìm kiếm “lợi ích sức khỏe của việc chạy bằng kéo”. Nhưng một số sai sót này còn nghiêm trọng hơn. Nhà báo khoa học Erin Ross đã đăng trên X rằng Google đã đưa ra thông tin không chính xác về những việc cần làm nếu bạn bị rắn đuôi chuông cắn.

Bài đăng của Ross nhận được hơn 13.000 lượt thích cho thấy AI khuyên nên áp garô vào vết thương, cắt vết thương và hút nọc độc ra ngoài. Theo Cục Lâm nghiệp Hoa Kỳ, đây là tất cả những điều bạn nên làm không làm, nếu bạn bị cắn. Trong khi đó trên Bluesky, tác giả T Kingfisher đã khuếch đại một bài đăng cho thấy Gemini của Google đã xác định nhầm một loại nấm độc là một loại nấm nút màu trắng thông thường – ảnh chụp màn hình của bài đăng đã lan truyền sang các nền tảng khác như một câu chuyện cảnh báo.

Khi một phản hồi tồi của AI lan truyền, AI có thể bối rối hơn trước nội dung mới xung quanh chủ đề xuất hiện. Vào thứ Tư, phóng viên Aric Toler của New York Times đã đăng một ảnh chụp màn hình trên X hiển thị một truy vấn hỏi liệu một con chó đã từng chơi trong NHL chưa. Câu trả lời của AI là có – vì lý do nào đó, AI đã gọi cầu thủ Martin Pospisil của Calgary Flames là một con chó. Bây giờ, khi bạn thực hiện truy vấn tương tự, AI sẽ đưa ra một bài viết từ Daily Dot về việc AI của Google luôn nghĩ rằng chó đang chơi thể thao. AI đang mắc phải những sai lầm của chính nó, khiến nó bị đầu độc thêm.

Đây là vấn đề cố hữu của việc đào tạo các mô hình AI quy mô lớn này trên internet: đôi khi, mọi người trên internet nói dối. Nhưng cũng giống như không có quy định nào cấm chó chơi bóng rổ, đáng tiếc là không có quy định nào cấm các công ty công nghệ lớn vận chuyển các sản phẩm AI tồi.

Tục ngữ có câu: rác vào, rác ra.