Các gã khổng lồ công nghệ tìm cách tạo ra 'công tắc AI'

Các gã khổng lồ công nghệ tìm cách tạo ra 'công tắc AI'

Các công ty AI hàng đầu đang làm việc với các chính phủ để xác định những rủi ro tiềm ẩn của AI và thảo luận cách tạo ra sự chuyển đổi AI nếu cần thiết.

Vào ngày 22 tháng 5, 16 công ty trí tuệ nhân tạo lớn, bao gồm Anthropic, Microsoft và OpenAI, cũng như đại diện của hơn 10 quốc gia và Liên minh châu Âu, đã tham dự hội nghị thượng đỉnh tại Seoul để đề xuất các quy định cho sự phát triển an toàn và có trách nhiệm của trí tuệ nhân tạo.

Một kết quả của cuộc họp là sự nhất trí về một chính sách được ví như một “công tắc khẩn cấp” đối với trí tuệ nhân tạo. Trong số đó, các công ty sẽ ngừng phát triển các mô hình AI tiên tiến nhất nếu vượt quá ngưỡng rủi ro nhất định. Nhưng không rõ chính sách này sẽ hiệu quả đến mức nào vì thỏa thuận giữa các công ty không có giá trị pháp lý và ngưỡng rủi ro không được xác định cụ thể.

Cuộc họp này là sự tiếp nối của hội nghị an toàn AI diễn ra vào tháng 10 năm ngoái tại Bletchley Park ở Anh, với sự tham gia của nhiều nhà phát triển AI nhưng bị chỉ trích vì thiếu các cam kết pháp lý cụ thể.





Các gã khổng lồ công nghệ muốn có nút báo động để ngăn các mô hình AI phát triển vượt quá ngưỡng rủi ro.Hình ảnh minh họa: Blue Planet Studio

Minh họa trí tuệ nhân tạo: trường quay hành tinh xanh

Từ khoa học viễn tưởng đến đời thực, các nhà văn, nhà nghiên cứu đã cảnh báo về những rủi ro của trí tuệ nhân tạo trong nhiều thập kỷ. Họ lo ngại trí tuệ nhân tạo sẽ ngày càng thông minh hơn và cuối cùng sẽ tấn công con người.Một số người đề cập đến những cảnh trong phim kẻ huỷ diệt (1984), trong đó một robot du hành ngược thời gian để giết một người phụ nữ vì con trai của cô ấy sau đó sẽ chiến đấu với hệ thống trí tuệ nhân tạo.

“Trí tuệ nhân tạo mang đến những cơ hội to lớn để chuyển đổi nền kinh tế và giải quyết những thách thức xã hội lớn, nhưng tiềm năng này chỉ có thể thành hiện thực nếu chúng ta xác định được những rủi ro mà công nghệ phức tạp này có thể gây ra”. sự giàu có Bộ trưởng Công nghệ Vương quốc Anh, ông Michelle Donelan được trích dẫn cho biết.

Bản thân các công ty AI cũng thừa nhận những rủi ro liên quan đến AI. OpenAI cho biết trong một bài viết blog trước đó: “Siêu trí tuệ AGI có nguy cơ bị lạm dụng, gây hậu quả nghiêm trọng và phá vỡ trật tự xã hội. Vì AGI mang lại nhiều lợi ích cho xã hội đang phát triển nên chúng ta không muốn ngừng phát triển công nghệ này. Thay vào đó, chúng ta nên tìm cách giải quyết một cách chính xác”. cách sử dụng trí tuệ nhân tạo.”

Tuy nhiên, hiện tại, những nỗ lực xây dựng khung pháp lý toàn cầu cho việc quản lý AI vẫn còn rời rạc. Khung chính sách của Liên hợp quốc yêu cầu các quốc gia bảo vệ và ngăn ngừa rủi ro nhân quyền từ trí tuệ nhân tạo và giám sát việc sử dụng dữ liệu cá nhân nhưng không có hiệu lực pháp lý.

Đồng thời, các công ty AI đang bắt đầu xây dựng tổ chức của riêng mình. Tuần này, Amazon và Meta đã tham gia Frontier Model Foundation, tổ chức thúc đẩy sự an toàn của các mô hình AI đột phá và có các thành viên sáng lập bao gồm Anthropic, Google, Microsoft và OpenAI. Tuy nhiên, tổ chức này vẫn chưa ban hành chính sách cụ thể nào.

Hành trình phát triển các quy định an toàn AI toàn cầu sẽ tiếp tục với một hội nghị thượng đỉnh khác ở Pháp vào đầu năm tới. Tại đây, những người tham gia sẽ cung cấp các định nghĩa cụ thể về ngưỡng rủi ro AI và các hành động quản lý cần thiết—một bước tiến so với quy trình tương đối mơ hồ hiện tại.

Thọ Huyền (dựa theo sự giàu có)