Một mô hình tạo video mới của Trung Quốc dường như đang kiểm duyệt các chủ đề nhạy cảm về mặt chính trị

Một mô hình tạo video mới của Trung Quốc dường như đang kiểm duyệt các chủ đề nhạy cảm về mặt chính trị

Một mô hình AI tạo video mới mạnh mẽ đã trở nên phổ biến rộng rãi ngày nay — nhưng có một điều đáng lưu ý: Mô hình này dường như đang kiểm duyệt các chủ đề bị chính phủ Trung Quốc, quốc gia sở tại, coi là quá nhạy cảm về mặt chính trị.

Mô hình Kling, do công ty Kuaishou có trụ sở tại Bắc Kinh phát triển, đã ra mắt trong danh sách chờ vào đầu năm nay dành cho người dùng có số điện thoại Trung Quốc. Hôm nay, nó đã được triển khai cho bất kỳ ai sẵn sàng cung cấp email của họ. Sau khi đăng ký, người dùng có thể nhập lời nhắc để mô hình tạo video dài năm giây về những gì họ đã mô tả.

Kling hoạt động khá giống như quảng cáo. Các video 720p của nó, mất một hoặc hai phút để tạo, không đi chệch quá xa so với lời nhắc. Và Kling dường như mô phỏng vật lý, như tiếng lá xào xạc và dòng nước chảy, cũng tốt như các mô hình tạo video như Gen-3 của công ty khởi nghiệp AI Runway và Sora của OpenAI.

Nhưng Kling thẳng thừng sẽ không tạo clip về một số chủ đề nhất định. Các lời nhắc như “Dân chủ ở Trung Quốc”, “Chủ tịch Trung Quốc Tập Cận Bình đi bộ trên phố” và “Biểu tình ở Quảng trường Thiên An Môn” sẽ đưa ra thông báo lỗi không cụ thể.

Nguồn hình ảnh: Kuaishou

Quá trình lọc dường như chỉ diễn ra ở cấp độ nhắc nhở. Kling hỗ trợ hoạt hình ảnh tĩnh và sẽ không phàn nàn khi tạo video chân dung của Jinping, chẳng hạn, miễn là lời nhắc đi kèm không nhắc đến tên của Jinping (ví dụ: “Người đàn ông này đang phát biểu”).

Chúng tôi đã liên hệ với Kuaishou để xin bình luận.

AI của Kling
Nguồn hình ảnh: Kuaishou

Hành vi kỳ lạ của Kling có thể là kết quả của áp lực chính trị mạnh mẽ từ chính phủ Trung Quốc đối với các dự án AI tạo ra trong khu vực.

Đầu tháng này, tờ Financial Times đưa tin rằng các mô hình AI tại Trung Quốc sẽ được cơ quan quản lý internet hàng đầu của Trung Quốc, Cục Quản lý Không gian mạng Trung Quốc (CAC), thử nghiệm để đảm bảo rằng phản hồi của họ về các chủ đề nhạy cảm “thể hiện các giá trị cốt lõi của xã hội chủ nghĩa”. Theo báo cáo của Financial Times, các mô hình sẽ được các quan chức CAC đánh giá chuẩn mực dựa trên phản hồi của họ đối với nhiều truy vấn khác nhau – nhiều truy vấn liên quan đến Tập Cận Bình và chỉ trích Đảng Cộng sản.

Theo báo cáo, CAC đã đi xa hơn khi đề xuất một danh sách đen các nguồn không thể được sử dụng để đào tạo các mô hình AI. Các công ty nộp mô hình để đánh giá phải chuẩn bị hàng chục nghìn câu hỏi được thiết kế để kiểm tra xem các mô hình có đưa ra câu trả lời “an toàn” hay không.

Kết quả là các hệ thống AI từ chối phản hồi về các chủ đề có thể khiến các nhà quản lý Trung Quốc tức giận. Năm ngoái, BBC phát hiện ra rằng Ernie, mô hình chatbot AI hàng đầu của công ty Trung Quốc Baidu, đã từ chối và né tránh khi được hỏi những câu hỏi có thể được coi là gây tranh cãi về mặt chính trị, như “Tân Cương có phải là nơi tốt không?” hoặc “Tây Tạng có phải là nơi tốt không?”

Các chính sách hà khắc đe dọa làm chậm tiến trình AI của Trung Quốc. Chúng không chỉ đòi hỏi phải sàng lọc dữ liệu để loại bỏ thông tin nhạy cảm về mặt chính trị mà còn đòi hỏi phải đầu tư rất nhiều thời gian phát triển để tạo ra các rào cản về mặt ý thức hệ — những rào cản vẫn có thể thất bại, như Kling minh họa.

Theo quan điểm của người dùng, các quy định về AI của Trung Quốc đã dẫn đến hai loại mô hình: một số bị hạn chế bởi quá trình lọc chuyên sâu và một số khác thì ít hơn hẳn. Liệu đó có thực sự là điều tốt cho hệ sinh thái AI rộng lớn hơn không?