anh traiHình ảnh các bác sĩ nổi tiếng bị ghép thành các video deepfake để quảng cáo thuốc hoặc đưa ra những lời khuyên sai lệch về sức khỏe đang xuất hiện tràn lan trên mạng.
Theo một cuộc khảo sát trên Tạp chí Y khoa tạp chí y học AnhTên và hình ảnh của nhiều bác sĩ nổi tiếng người Anh, trong đó có Hilary Jones và Rangan Chatterjee, thậm chí cả cố vấn y tế quá cố Michael Mosley đã bị sử dụng trên Facebook và bán thuốc không rõ nguồn gốc trên YouTube.
John Cormack, một bác sĩ đã nghỉ hưu ở Essex và là một trong những điều tra viên của nhóm giải thích: “Điểm mấu chốt là việc chi tiền để sản xuất video rẻ hơn nhiều so với việc nghiên cứu, phát triển và đưa sản phẩm mới ra thị trường theo cách truyền thống”. tạp chí y học Anhgiải thích.
Theo Cormack, hầu hết các “bác sĩ deepfake” đều quảng cáo thuốc điều trị huyết áp cao và tiểu đường hoặc bán kẹo dẻo làm từ thực vật. Đây là những sản phẩm không gây ảnh hưởng ngay đến sức khỏe nhưng có thể gây ảnh hưởng lâu dài nếu kém chất lượng.
Cormack cho biết anh cũng từng là nạn nhân của deepfake, với những bức ảnh giả mạo về anh được sử dụng để quảng cáo thực phẩm bổ sung trực tuyến. Anh ta đã thuê một chuyên gia để tìm các video deepfake và xóa hình ảnh của mình, nhưng không hoàn toàn.
Chris Stokel-Walker, một nhà báo công nghệ chuyên về trí tuệ nhân tạo, cho biết deepfake hoạt động bằng cách khai thác cảm xúc của con người. Khi những tên tuổi lớn trong ngành nói về “một loại thuốc thần kỳ hoặc một sản phẩm y tế thần kỳ”, người nghe rất dễ tin vào điều đó.
Stockel-Walker giải thích: “Khi một người lạ bán ma túy cho bạn, bạn sẽ trở nên nghi ngờ. Nhưng nếu bạn là người nổi tiếng trên mạng xã hội, TV hoặc đài phát thanh, bạn có nhiều khả năng tin những gì họ nói hơn”.
Chuyên gia công nghệ deepfake người Anh Henry Ajder cho rằng loạt nội dung “bác sĩ deepfake” đáng ngờ gần đây trên mạng xã hội là kết quả tất yếu của cuộc cách mạng AI. Ajed nói: “Việc dân chủ hóa nhanh chóng các công cụ AI đang khiến chúng dễ sử dụng hơn”. “Tuy nhiên, chúng cũng đang được sử dụng để sao chép giọng nói hoặc tạo video lừa đảo và mạo danh. Loại hoạt động này đã gia tăng đáng kể.”
Ajder cho biết việc phát hiện deepfake ngày càng trở nên khó khăn vì công nghệ ngày càng phát triển. Ông nói: “Thật khó để định lượng mức độ hiệu quả của lừa đảo deepfake, nhưng số lượng video ngày càng tăng trên mạng xã hội cho thấy những kẻ xấu đang đạt được một số thành công”.
Trong khi đó, người phát ngôn của Meta cho biết sẽ điều tra thông tin tạp chí y học Anh Thông báo. Đại diện Meta cho biết: “Chúng tôi không cho phép nội dung có chủ ý hoặc lừa đảo trên nền tảng và khuyến khích người dùng báo cáo các hành vi vi phạm bị nghi ngờ”.
Các nền tảng khác như YouTube, X, TikTok và những nền tảng khác vẫn chưa đưa ra bình luận.
Deepfake là sự kết hợp giữa “deep learning” và “fake” có thể ghép khuôn mặt, giọng nói… của bất kỳ ai vào bất kỳ nội dung nào để tạo cảm giác chân thực. Trong những năm gần đây, công nghệ này đã thu hút sự chú ý vì được sử dụng cho mục đích làm giả và lừa đảo. Những đột phá trong trí tuệ nhân tạo đang khiến những bức ảnh deepfake trở nên khó nhận diện hơn, trong khi người dùng có thể dễ dàng tiếp cận nếu không hiểu sâu.
(dựa theo BMJ, Eurekalert, Bưu điện New York)
- Những kẻ lừa đảo đang sử dụng deepfake để lừa gạt hàng triệu đô la như thế nào
- Ba câu chuyện cho thấy sự nguy hiểm của deepfake