Vào tối thứ năm, Oprah Winfrey đã phát sóng một chương trình đặc biệt về AI với tựa đề phù hợp là “AI và Tương lai của chúng ta”. Khách mời bao gồm Giám đốc điều hành OpenAI Sam Altman, người có ảnh hưởng trong lĩnh vực công nghệ Marques Brownlee và giám đốc FBI hiện tại Christopher Wray.
Giọng điệu chủ đạo là sự hoài nghi và cảnh giác.
Oprah đã lưu ý trong bài phát biểu chuẩn bị trước rằng thần đèn AI đã thoát khỏi chiếc bình, dù tốt hay xấu, và nhân loại sẽ phải học cách sống chung với hậu quả.
“AI vẫn nằm ngoài tầm kiểm soát của chúng ta và ở một mức độ lớn… ngoài tầm hiểu biết của chúng ta,” bà nói. “Nhưng nó ở đây, và chúng ta sẽ sống với công nghệ có thể là đồng minh cũng như đối thủ của chúng ta. … Chúng ta là những sinh vật thích nghi nhất của hành tinh này. Chúng ta sẽ thích nghi một lần nữa. Nhưng hãy để mắt đến những gì là thực tế. Rủi ro không thể cao hơn được nữa.”
Sam Altman hứa hẹn quá mức
Trong cuộc phỏng vấn đầu tiên của Oprah trong đêm, Altman đã đưa ra lập luận đáng ngờ rằng AI ngày nay đang học các khái niệm trong dữ liệu mà nó được đào tạo.
“Chúng tôi đang cho hệ thống xem một ngàn từ theo trình tự và yêu cầu nó dự đoán những gì sẽ xảy ra tiếp theo”, ông nói với Oprah. “Hệ thống học cách dự đoán, và sau đó, nó học các khái niệm cơ bản trong đó”.
Nhiều chuyên gia không đồng tình.
Các hệ thống AI như ChatGPT và o1, được OpenAI giới thiệu vào thứ năm, thực sự dự đoán được những từ tiếp theo có khả năng xảy ra nhất trong một câu. Nhưng chúng chỉ đơn giản là những cỗ máy thống kê — chúng học các mẫu dữ liệu. Chúng không có chủ đích; chúng chỉ đưa ra những phỏng đoán có căn cứ.
Mặc dù Altman có thể đã phóng đại khả năng của các hệ thống AI hiện nay, ông vẫn nhấn mạnh tầm quan trọng của việc tìm ra cách kiểm tra tính an toàn của các hệ thống đó.
“Một trong những điều đầu tiên chúng ta cần làm — và điều này hiện đang diễn ra — là yêu cầu chính phủ bắt đầu tìm cách thực hiện thử nghiệm an toàn cho các hệ thống này, giống như chúng ta làm đối với máy bay hoặc thuốc mới,” ông nói. “Cá nhân tôi, có lẽ sẽ có một cuộc trò chuyện với một ai đó trong chính phủ sau mỗi vài ngày.”
Nỗ lực thúc đẩy quy định của Altman có thể là vì lợi ích cá nhân. OpenAI đã phản đối dự luật an toàn AI của California được gọi là SB 1047, nói rằng nó sẽ “kìm hãm sự đổi mới”. Tuy nhiên, các cựu nhân viên của OpenAI và các chuyên gia AI như Geoffrey Hinton đã lên tiếng ủng hộ dự luật này, lập luận rằng nó sẽ áp đặt các biện pháp bảo vệ cần thiết đối với sự phát triển của AI.
Oprah cũng thúc giục Altman về vai trò của ông là người cầm đầu OpenAI. Bà hỏi tại sao mọi người nên tin tưởng ông và ông phần lớn né tránh câu hỏi, nói rằng công ty của ông đang cố gắng xây dựng lòng tin theo thời gian.
Trước đây, Altman đã nói rất thẳng thắn rằng mọi người không nên tin tưởng ông hoặc bất kỳ ai để đảm bảo AI sẽ mang lại lợi ích cho thế giới.
Sau đó, CEO của OpenAI cho biết thật kỳ lạ khi nghe Oprah hỏi liệu ông có phải là “người đàn ông quyền lực và nguy hiểm nhất thế giới” như một tiêu đề tin tức đã gợi ý. Ông không đồng ý nhưng cho biết ông cảm thấy có trách nhiệm thúc đẩy AI theo hướng tích cực cho nhân loại.
Oprah nói về deepfakes
Như đã chắc chắn sẽ xảy ra trong một chương trình đặc biệt về AI, chủ đề về deepfake đã được đề cập.
Để chứng minh phương tiện truyền thông tổng hợp đang trở nên thuyết phục như thế nào, Brownlee đã so sánh các cảnh quay mẫu từ Sora, trình tạo video hỗ trợ AI của OpenAI, với các cảnh quay do AI tạo ra từ một hệ thống AI đã tồn tại nhiều tháng. Mẫu Sora đã tiến xa hơn nhiều — minh họa cho sự tiến bộ nhanh chóng của lĩnh vực này.
“Bây giờ, bạn vẫn có thể nhìn vào một số phần của cảnh này và nhận ra có điều gì đó không ổn”, Brownlee nói về cảnh quay Sora. Oprah nói rằng với bà, cảnh quay trông rất thật.
Buổi trình diễn deepfake đóng vai trò như phần mở đầu cho cuộc phỏng vấn với Wray, người đã kể lại khoảnh khắc lần đầu tiên ông làm quen với công nghệ deepfake AI.
“Tôi đang ở trong phòng hội nghị và một nhóm [FBI] mọi người đã cùng nhau chỉ cho tôi cách tạo ra deepfake được tăng cường bằng AI”, Wray nói. “Và họ đã tạo ra một video trong đó tôi nói những điều mà tôi chưa từng nói trước đây và sẽ không bao giờ nói”.
Wray đã nói về sự gia tăng tình trạng tống tiền tình dục được hỗ trợ bởi AI. Theo công ty an ninh mạng ESET, đã có sự gia tăng 178% các vụ tống tiền tình dục trong khoảng thời gian từ năm 2022 đến năm 2023, một phần là do công nghệ AI.
“Một người nào đó đóng giả làm bạn bè nhắm vào một thiếu niên,” Wray nói, “sau đó sử dụng [AI-generated] thỏa hiệp hình ảnh để thuyết phục đứa trẻ gửi lại hình ảnh thật. Trên thực tế, đó là một gã nào đó đằng sau bàn phím ở Nigeria, và một khi họ có hình ảnh, họ đe dọa sẽ tống tiền đứa trẻ và nói, nếu bạn không trả tiền, chúng tôi sẽ chia sẻ những hình ảnh này sẽ hủy hoại cuộc sống của bạn.
Wray cũng đề cập đến thông tin sai lệch xung quanh cuộc bầu cử tổng thống Hoa Kỳ sắp tới. Trong khi khẳng định rằng “chưa đến lúc hoảng loạn”, ông nhấn mạnh rằng “mọi người ở Mỹ” có trách nhiệm “mang lại cảm giác tập trung và thận trọng hơn” khi sử dụng AI và hãy nhớ rằng AI “có thể bị những kẻ xấu sử dụng để chống lại tất cả chúng ta”.
Wray cho biết: “Chúng tôi thường xuyên phát hiện ra rằng có thứ gì đó trên mạng xã hội trông giống Bill từ Topeka hay Mary từ Dayton thực chất là một sĩ quan tình báo Nga hoặc Trung Quốc ở ngoại ô Bắc Kinh hoặc Moscow”.
Thật vậy, một cuộc thăm dò của Statista phát hiện ra rằng hơn một phần ba số người được hỏi ở Hoa Kỳ đã nhìn thấy thông tin sai lệch — hoặc những gì họ nghi ngờ là thông tin sai lệch — về các chủ đề quan trọng vào cuối năm 2023. Năm nay, những hình ảnh gây hiểu lầm do AI tạo ra về ứng cử viên Phó Tổng thống Kamala Harris và cựu Tổng thống Donald Trump đã thu hút hàng triệu lượt xem trên các mạng xã hội, bao gồm X.
Bill Gates nói về sự gián đoạn của AI
Để thay đổi nhịp độ theo hướng lạc quan về công nghệ, Oprah đã phỏng vấn nhà sáng lập Microsoft Bill Gates, người bày tỏ hy vọng rằng AI sẽ thúc đẩy mạnh mẽ lĩnh vực giáo dục và y học.
“AI giống như một người thứ ba đang ngồi trong [a medical appointment,] Gates cho biết, “làm một bản ghi chép, đề xuất một đơn thuốc”. “Và vì vậy, thay vì bác sĩ phải đối mặt với màn hình máy tính, họ sẽ tương tác với bạn và phần mềm sẽ đảm bảo rằng có một bản ghi chép thực sự tốt”.
Tuy nhiên, Gates đã bỏ qua khả năng thiên vị từ việc đào tạo AI kém.
Một nghiên cứu gần đây đã chứng minh rằng các hệ thống nhận dạng giọng nói từ các công ty công nghệ hàng đầu có khả năng phiên âm sai âm thanh từ người da đen cao gấp đôi so với người da trắng. Các nghiên cứu khác đã chỉ ra rằng các hệ thống AI củng cố niềm tin lâu đời, không đúng sự thật rằng có sự khác biệt về mặt sinh học giữa người da đen và người da trắng — những sự thật không đúng khiến các bác sĩ lâm sàng chẩn đoán sai các vấn đề sức khỏe.
Trong lớp học, Gates cho biết, AI có thể “luôn sẵn sàng” và “hiểu cách thúc đẩy bạn… bất kể trình độ hiểu biết của bạn là gì”.
Không phải nhiều lớp học đều nhìn nhận như vậy.
Mùa hè năm ngoái, các trường học và cao đẳng đã vội vàng cấm ChatGPT vì lo ngại đạo văn và thông tin sai lệch. Kể từ đó, một số trường đã đảo ngược lệnh cấm của họ. Nhưng không phải tất cả đều tin vào tiềm năng tốt đẹp của AI tạo sinh, chỉ ra các cuộc khảo sát như của Trung tâm Internet an toàn Vương quốc Anh, phát hiện ra rằng hơn một nửa số trẻ em báo cáo đã thấy những người cùng độ tuổi sử dụng GenAI theo cách tiêu cực — ví dụ, tạo ra thông tin hoặc hình ảnh sai lệch đáng tin cậy để làm ai đó khó chịu.
Vào cuối năm ngoái, Tổ chức Giáo dục, Khoa học và Văn hóa Liên hợp quốc (UNESCO) đã thúc đẩy các chính phủ quản lý việc sử dụng GenAI trong giáo dục, bao gồm việc áp dụng giới hạn độ tuổi cho người dùng và các biện pháp bảo vệ dữ liệu và quyền riêng tư của người dùng.