Phim khiêu dâm deepfake – cơn ác mộng của phụ nữ trong cơn sốt AI

Phim khiêu dâm deepfake – cơn ác mộng của phụ nữ trong cơn sốt AI

Taylor Swift không phải là nạn nhân đầu tiên của nội dung khiêu dâm deepfake và nó sẽ chỉ trở nên tồi tệ hơn khi công nghệ AI phát triển.

Một hình ảnh deepfake của Taylor Swift xuất hiện vào tuần trước và thu hút hàng chục triệu lượt xem trên mạng xã hội X. Những bức ảnh cũng nhanh chóng lan truyền trên nhiều nền tảng khác, bất chấp nỗ lực ngăn chặn của mạng xã hội. Điều này không có gì mới vì công nghệ deepfake đã bị lạm dụng để nhắm mục tiêu vào phụ nữ trong nhiều năm. Các chuyên gia cảnh báo rằng tình hình sẽ trở nên nghiêm trọng hơn khi công nghệ AI tiếp tục được cải tiến và ngày càng dễ tiếp cận hơn với đại chúng.

Danielle Citron, giáo sư tại Trường Luật Đại học Virginia, nhận xét: “Không chỉ những người nổi tiếng là mục tiêu, những người bình thường cũng là nạn nhân”. CNN.

Tuy nhiên, sự xuất hiện của deepfake của nữ ca sĩ được cho là sẽ thu hút sự chú ý đến vấn đề hình ảnh được tạo ra bởi trí tuệ nhân tạo. Người hâm mộ đăng ảnh thật để bày tỏ sự phẫn nộ và dùng từ khóa “Hãy bảo vệ Taylor Swift” (để bảo vệ Taylor Swift) để át đi nội dung sai lệch trên nền tảng này.

“Taylor Swift được rất nhiều người yêu mến. Khi nói đến một ngôi sao có khả năng lay chuyển xã hội, có lẽ người ta sẽ quan tâm nhiều hơn”, giáo sư Citron nói.





Một tài khoản bán dịch vụ deepfake trên Twitter. Ảnh: Khương Nha

Một tài khoản bán dịch vụ deepfake trên Twitter. hình ảnh: Giang Ya

Các chuyên gia đã cảnh báo về nguy cơ deepfake do trí tuệ nhân tạo tạo ra, nhưng dư luận thường ít chú ý đến những trường hợp sử dụng ảnh phụ nữ để tạo nội dung khiêu dâm. Ben Decker, giám đốc công ty điều tra kỹ thuật số Memetica, cho biết vụ việc của Taylor Swift là “một ví dụ thực tế về việc trí tuệ nhân tạo có thể bị lạm dụng cho mục đích xấu mà không có sự bảo vệ và quản lý đầy đủ”.

Năm ngoái, Francesca Mani, học sinh trung học ở New Jersey đã phát động một chiến dịch kêu gọi luật pháp liên bang giải quyết nội dung khiêu dâm do AI tạo ra sau khi những bức ảnh deepfake của cô và 30 bạn cùng lớp bị rò rỉ trên mạng.

Mani bày tỏ sự thất vọng vì không có luật hoặc quy định nào để bảo vệ nạn nhân của nội dung khiêu dâm deepfake. Mẹ cô cho biết có vẻ như một số nam sinh cùng trường đã chụp những bức ảnh này mà không có sự cho phép của nạn nhân.

Cuối tháng 1 năm 2023, Blair, một nữ phát thanh viên nổi tiếng trên Twitch, cũng bất ngờ nhận được tin nhắn từ bạn trai, nói rằng hình ảnh khiêu dâm của cô bị phát tán trên Internet. Blair nói với tôi: “Nó giống như một cái tát vào mặt. Dù đó không phải là cơ thể của tôi nhưng tôi vẫn cảm thấy sợ hãi khi nhìn thấy khuôn mặt của mình trên phim khiêu dâm”. hành vi xấu xa. Tệ hơn nữa, những bức ảnh đã lọt vào tay gia đình Blair. Họ không biết deepfake là gì, điều duy nhất họ tin là con gái họ đã làm điều gì đó tồi tệ.

Một sự cố tương tự cũng xảy ra trong ngành game vào tháng 2 năm 2023, khi một nam phát thanh viên nổi tiếng bị bắt gặp đang xem video deepfake của một đồng nghiệp nữ. Sweet Anita, nữ dẫn chương trình trong video, nói: “Tôi cảm thấy kỳ lạ khi thấy mình làm điều gì đó chưa từng xảy ra trước đây”.

Việc phá hủy nội dung này vẫn là một thách thức. Chín tiểu bang của Hoa Kỳ có luật cấm tạo và chia sẻ hình ảnh giả mạo khiêu dâm mà không có sự đồng ý của nhân vật, nhưng không có luật nào như vậy ở cấp liên bang. Citron nói: “Không thể trừng phạt thủ phạm một cách hợp pháp vì không có hành vi lạm dụng deepfake nào xảy ra”.

Các chuyên gia cũng đề cập đến các bước có thể giúp người dùng internet tự bảo vệ mình khỏi deepfake. David Jones, chuyên gia tại công ty tường lửa Kỹ thuật, lưu ý ở trên: “Mọi người nên đặt tài khoản mạng xã hội của mình ở chế độ riêng tư và chỉ chia sẻ hình ảnh với những người đáng tin cậy, vì không thể biết ai sẽ xem tài khoản của bạn”. CNN.

Tuy nhiên, nhiều thủ phạm lại là người quen với nạn nhân nên giải pháp tốt nhất là hạn chế đăng ảnh lên mạng. Các công cụ được sử dụng để tạo deepfake cũng yêu cầu lượng lớn dữ liệu khuôn mặt từ nhiều góc độ khác nhau và việc phát hành ít dữ liệu hơn sẽ hạn chế khả năng của AI. Tuy nhiên, chuyên gia Jones cảnh báo rằng AI tạo hình ảnh trong tương lai có thể chỉ cần hình ảnh thô để tạo nên hình ảnh deepfake hoàn chỉnh.

Kẻ xấu cũng có thể cố gắng truy cập vào kho lưu trữ ảnh của nạn nhân để thu thập nội dung. Jones nói: “Đừng bao giờ sử dụng những mật khẩu dễ đoán và đừng bao giờ tiết lộ chúng.