Cơ quan lập pháp California vừa thông qua dự luật AI SB 1047; đây là lý do tại sao một số người hy vọng thống đốc sẽ không ký dự luật này

Cơ quan lập pháp California vừa thông qua dự luật AI SB 1047; đây là lý do tại sao một số người hy vọng thống đốc sẽ không ký dự luật này

Cập nhật: Ủy ban Khoản cấp của California đã thông qua SB 1047 với những sửa đổi quan trọng làm thay đổi dự luật vào thứ năm, ngày 15 tháng 8. Bạn có thể đọc về những sửa đổi này tại đây.

Ngoài các bộ phim khoa học viễn tưởng, không có tiền lệ nào về việc hệ thống AI giết người hoặc được sử dụng trong các cuộc tấn công mạng lớn. Tuy nhiên, một số nhà lập pháp muốn thực hiện các biện pháp bảo vệ trước khi những kẻ xấu biến tương lai đen tối đó thành hiện thực. Một dự luật của California, được gọi là SB 1047, cố gắng ngăn chặn các thảm họa trong thế giới thực do hệ thống AI gây ra trước khi chúng xảy ra. Dự luật này đã được Thượng viện tiểu bang thông qua vào tháng 8 và hiện đang chờ Thống đốc California Gavin Newsom chấp thuận hoặc phủ quyết.

Mặc dù đây có vẻ là mục tiêu mà tất cả chúng ta đều có thể đồng ý, SB 1047 đã gây ra sự tức giận của những người chơi lớn và nhỏ ở Thung lũng Silicon, bao gồm các nhà đầu tư mạo hiểm, các nhóm thương mại công nghệ lớn, các nhà nghiên cứu và những người sáng lập công ty khởi nghiệp. Rất nhiều dự luật về AI đang được đưa ra trên khắp đất nước ngay lúc này, nhưng Đạo luật về Mô hình Trí tuệ nhân tạo An toàn và Bảo mật cho Biên giới của California đã trở thành một trong những dự luật gây tranh cãi nhất. Sau đây là lý do.

Dự luật SB 1047 sẽ có tác dụng gì?

Dự luật SB 1047 cố gắng ngăn chặn việc sử dụng các mô hình AI lớn để gây ra “tác hại nghiêm trọng” đối với loài người.

Dự luật đưa ra các ví dụ về “tác hại nghiêm trọng” như một tác nhân xấu sử dụng mô hình AI để tạo ra vũ khí gây ra thương vong hàng loạt hoặc chỉ đạo một người dàn dựng một cuộc tấn công mạng gây ra thiệt hại hơn 500 triệu đô la (để so sánh, sự cố ngừng hoạt động của CrowdStrike ước tính đã gây ra thiệt hại lên tới 5 tỷ đô la). Dự luật khiến các nhà phát triển — tức là các công ty phát triển các mô hình — phải chịu trách nhiệm triển khai các giao thức an toàn đầy đủ để ngăn chặn những hậu quả như thế này.

Những người mẫu và công ty nào phải tuân theo những quy định này?

Các quy tắc của SB 1047 chỉ áp dụng cho các mô hình AI lớn nhất thế giới: những mô hình có giá ít nhất 100 triệu đô la và sử dụng 10^26 FLOPS (phép toán dấu phẩy động, một cách đo lường tính toán) trong quá trình đào tạo. Đó là một lượng tính toán khổng lồ, mặc dù CEO của OpenAI Sam Altman cho biết GPT-4 tốn khoảng này để đào tạo. Các ngưỡng này có thể được nâng lên khi cần thiết.

Rất ít công ty hiện nay phát triển các sản phẩm AI công cộng đủ lớn để đáp ứng các yêu cầu đó, nhưng những gã khổng lồ công nghệ như OpenAI, Google và Microsoft có thể sẽ sớm làm được điều đó. Các mô hình AI — về cơ bản là các công cụ thống kê khổng lồ xác định và dự đoán các mẫu trong dữ liệu — thường trở nên chính xác hơn khi chúng lớn hơn, một xu hướng mà nhiều người mong đợi sẽ tiếp tục. Mark Zuckerberg gần đây đã nói rằng thế hệ tiếp theo của Llama của Meta sẽ yêu cầu khả năng tính toán nhiều hơn 10 lần, điều này sẽ đặt nó dưới thẩm quyền của SB 1047.

Khi nói đến các mô hình nguồn mở và các phiên bản phái sinh của chúng, dự luật này xác định nhà phát triển ban đầu phải chịu trách nhiệm trừ khi một nhà phát triển khác chi thêm 10 triệu đô la để tạo ra phiên bản phái sinh của mô hình gốc.

Dự luật cũng yêu cầu một giao thức an toàn để ngăn chặn việc sử dụng sai các sản phẩm AI được bảo hiểm, bao gồm nút “dừng khẩn cấp” để tắt toàn bộ mô hình AI. Các nhà phát triển cũng phải tạo ra các quy trình thử nghiệm giải quyết các rủi ro do các mô hình AI gây ra và phải thuê các kiểm toán viên bên thứ ba hàng năm để đánh giá các hoạt động an toàn AI của họ.

Kết quả phải là “sự đảm bảo hợp lý” rằng việc tuân theo các giao thức này sẽ ngăn ngừa được những tác hại nghiêm trọng — không sự chắc chắn tuyệt đối, điều này tất nhiên là không thể cung cấp được.

Ai sẽ thực thi luật này và thực thi như thế nào?

Một cơ quan mới của California, Hội đồng Mô hình Biên giới, sẽ giám sát các quy tắc. Mỗi mô hình AI công cộng mới đáp ứng các ngưỡng của SB 1047 phải được chứng nhận riêng với một bản sao bằng văn bản về giao thức an toàn của mô hình đó.

Hội đồng Frontier Models sẽ được điều hành bởi chín người, bao gồm đại diện từ ngành công nghiệp AI, cộng đồng nguồn mở và học viện, do thống đốc và cơ quan lập pháp của California bổ nhiệm. Hội đồng sẽ tư vấn cho tổng chưởng lý California về các hành vi vi phạm tiềm ẩn của SB 1047 và ban hành hướng dẫn cho các nhà phát triển mô hình AI về các biện pháp an toàn.

Giám đốc công nghệ của nhà phát triển phải nộp chứng nhận hàng năm cho hội đồng đánh giá các rủi ro tiềm ẩn của mô hình AI, mức độ hiệu quả của giao thức an toàn và mô tả về cách công ty tuân thủ SB 1047. Tương tự như thông báo vi phạm, nếu xảy ra “sự cố an toàn AI”, nhà phát triển phải báo cáo cho FMD trong vòng 72 giờ kể từ khi biết về sự cố.

Nếu các biện pháp an toàn của nhà phát triển được phát hiện là không đủ, SB 1047 cho phép tổng chưởng lý California đưa ra lệnh cấm đối với nhà phát triển. Điều đó có nghĩa là nhà phát triển sẽ phải ngừng hoạt động hoặc đào tạo mô hình của mình.

Nếu một mô hình AI thực sự được phát hiện sử dụng trong một sự kiện thảm khốc, tổng chưởng lý California có thể kiện công ty. Đối với một mô hình tốn 100 triệu đô la để đào tạo, hình phạt có thể lên tới 10 triệu đô la cho lần vi phạm đầu tiên và 30 triệu đô la cho những lần vi phạm tiếp theo. Mức phạt đó tăng dần khi các mô hình AI trở nên đắt đỏ hơn.

Cuối cùng, dự luật bao gồm các biện pháp bảo vệ người tố giác cho nhân viên nếu họ cố gắng tiết lộ thông tin về mô hình AI không an toàn cho tổng chưởng lý California.

Những người ủng hộ nói gì?

Thượng nghị sĩ tiểu bang California Scott Wiener, tác giả của dự luật và đại diện cho San Francisco, nói với TechCrunch rằng SB 1047 là nỗ lực rút kinh nghiệm từ những thất bại trong chính sách liên quan đến mạng xã hội và quyền riêng tư dữ liệu, đồng thời bảo vệ công dân trước khi quá muộn.

“Chúng ta có lịch sử với công nghệ chờ đợi những tác hại xảy ra, rồi khoanh tay chịu đựng,” Wiener nói. “Chúng ta đừng chờ đợi điều gì đó tồi tệ xảy ra. Chúng ta hãy hành động ngay từ đầu.”

Ngay cả khi một công ty đào tạo một mô hình trị giá 100 triệu đô la ở Texas, hoặc ở Pháp, thì nó vẫn sẽ được SB 1047 bảo vệ miễn là công ty đó kinh doanh ở California. Wiener cho biết Quốc hội đã thực hiện “rất ít luật về công nghệ trong suốt một phần tư thế kỷ qua”, vì vậy ông nghĩ rằng California phải tạo ra tiền lệ ở đây.

Khi được hỏi liệu ông đã gặp OpenAI và Meta về SB 1047 hay chưa, Wiener cho biết “chúng tôi đã gặp tất cả các phòng thí nghiệm lớn”.

Hai nhà nghiên cứu AI đôi khi được gọi là “cha đỡ đầu của AI”, Geoffrey Hinton và Yoshua Bengio, đã ủng hộ dự luật này. Hai người này thuộc một nhóm trong cộng đồng AI lo ngại về những viễn cảnh ngày tận thế nguy hiểm mà công nghệ AI có thể gây ra. Những “kẻ bi quan về AI” này đã tồn tại trong thế giới nghiên cứu một thời gian và SB 1047 có thể mã hóa một số biện pháp bảo vệ ưa thích của họ thành luật. Một nhóm khác tài trợ cho SB 1047, Trung tâm An toàn AI, đã viết một bức thư ngỏ vào tháng 5 năm 2023 yêu cầu thế giới ưu tiên “giảm thiểu nguy cơ tuyệt chủng do AI” nghiêm trọng như đại dịch hoặc chiến tranh hạt nhân.

Giám đốc Trung tâm An toàn AI, Dan Hendrycks, cho biết trong email gửi TechCrunch: “Điều này vì lợi ích lâu dài của ngành công nghiệp tại California và Hoa Kỳ nói chung, vì một sự cố an toàn lớn có thể sẽ là rào cản lớn nhất đối với sự tiến bộ hơn nữa”.

Gần đây, động cơ của chính Hendrycks đã bị đặt dấu hỏi. Vào tháng 7, ông đã công khai ra mắt một công ty khởi nghiệp, Gray Swan, xây dựng “các công cụ giúp các công ty đánh giá rủi ro của hệ thống AI của họ”, theo một thông cáo báo chí. Sau những lời chỉ trích rằng công ty khởi nghiệp của Hendrycks có thể đạt được lợi nhuận nếu dự luật được thông qua, có khả năng là một trong những kiểm toán viên mà SB 1047 yêu cầu các nhà phát triển phải thuê, ông đã thoái vốn khỏi cổ phần của mình tại Gray Swan.

“Tôi đã thoái vốn để gửi đi một tín hiệu rõ ràng”, Hendrycks cho biết trong một email gửi TechCrunch. “Nếu các tỷ phú VC phản đối sự an toàn của AI theo lẽ thường muốn chứng minh động cơ của họ là trong sáng, hãy để họ làm theo”.

Sau khi một số sửa đổi được Anthropic đề xuất được thêm vào SB 1047, CEO Dario Amodei đã ban hành một lá thư nói rằng “lợi ích của dự luật có thể lớn hơn chi phí của nó”. Đây không phải là sự chứng thực, nhưng là một tín hiệu ủng hộ hời hợt. Ngay sau đó, Elon Musk ra hiệu rằng ông ủng hộ dự luật.

Những người phản đối nói gì?

Ngày càng có nhiều người ở Thung lũng Silicon phản đối SB 1047.

“Sự phản đối của các tỷ phú VC” của Hendrycks có thể ám chỉ đến a16z, công ty đầu tư mạo hiểm do Marc Andreessen và Ben Horowitz thành lập, công ty này đã phản đối mạnh mẽ SB 1047. Vào đầu tháng 8, giám đốc pháp lý của công ty đầu tư mạo hiểm này, Jaikumar Ramaswamy, đã gửi một lá thư cho Thượng nghị sĩ Wiener, tuyên bố rằng dự luật này “sẽ gây gánh nặng cho các công ty khởi nghiệp vì các ngưỡng tùy tiện và thay đổi của nó”, tạo ra hiệu ứng lạnh gáy đối với hệ sinh thái AI. Khi công nghệ AI phát triển, nó sẽ trở nên đắt đỏ hơn, nghĩa là nhiều công ty khởi nghiệp hơn sẽ vượt qua ngưỡng 100 triệu đô la và sẽ được SB 1047 chi trả; a16z cho biết một số công ty khởi nghiệp của họ đã nhận được số tiền đó cho các mô hình đào tạo.

Fei-Fei Li, thường được gọi là mẹ đỡ đầu của AI, đã phá vỡ sự im lặng của mình về SB 1047 vào đầu tháng 8, viết trong một chuyên mục của Fortune rằng dự luật này sẽ “gây hại cho hệ sinh thái AI đang phát triển của chúng ta”. Mặc dù Li là một người tiên phong được đánh giá cao trong nghiên cứu AI từ Stanford, bà cũng được cho là đã thành lập một công ty khởi nghiệp AI có tên là World Labs vào tháng 4, được định giá một tỷ đô la và được a16z hỗ trợ.

Cô tham gia cùng các học giả AI có ảnh hưởng như nhà nghiên cứu Andrew Ng của Stanford, người đã gọi dự luật này là “một cuộc tấn công vào nguồn mở” trong bài phát biểu tại sự kiện Y Combinator vào tháng 7. Các mô hình nguồn mở có thể tạo ra thêm rủi ro cho những người tạo ra chúng, vì giống như bất kỳ phần mềm mở nào, chúng dễ dàng bị sửa đổi và triển khai cho các mục đích tùy ý và có khả năng gây hại.

Nhà khoa học AI hàng đầu của Meta, Yann LeCun, cho biết SB 1047 sẽ gây tổn hại đến các nỗ lực nghiên cứu và dựa trên “ảo tưởng về 'rủi ro hiện sinh' do một số ít nhóm nghiên cứu ảo tưởng đưa ra”, trong một bài đăng trên X. Llama LLM của Meta là một trong những ví dụ hàng đầu về LLM nguồn mở.

Các công ty khởi nghiệp cũng không hài lòng về dự luật này. Jeremy Nixon, CEO của công ty khởi nghiệp AI Omniscience và là người sáng lập AGI House SF, một trung tâm khởi nghiệp AI tại San Francisco, lo ngại rằng SB 1047 sẽ phá hủy hệ sinh thái của ông. Ông lập luận rằng những kẻ xấu nên bị trừng phạt vì gây ra những tác hại nghiêm trọng, chứ không phải các phòng thí nghiệm AI công khai phát triển và phân phối công nghệ.

Nixon cho biết: “Có một sự nhầm lẫn sâu sắc ở trung tâm của dự luật, rằng LLM có thể khác nhau về mức độ khả năng nguy hiểm của chúng”. “Theo tôi, rất có thể là tất cả các mô hình đều có khả năng nguy hiểm theo định nghĩa của dự luật”.

OpenAI đã phản đối SB 1047 vào cuối tháng 8, lưu ý rằng các biện pháp an ninh quốc gia liên quan đến mô hình AI nên được quản lý ở cấp liên bang. Họ đã ủng hộ một dự luật liên bang sẽ thực hiện như vậy.

Nhưng Big Tech, mà dự luật này tập trung trực tiếp vào, cũng đang hoảng sợ về SB 1047. Phòng Tiến bộ — một nhóm thương mại đại diện cho Google, Apple, Amazon và các gã khổng lồ công nghệ lớn khác — đã ban hành một bức thư ngỏ phản đối dự luật này, nói rằng SB 1047 hạn chế quyền tự do ngôn luận và “đẩy sự đổi mới công nghệ ra khỏi California”. Năm ngoái, CEO của Google Sundar Pichai và các giám đốc điều hành công nghệ khác đã tán thành ý tưởng về quy định AI của liên bang.

Nghị sĩ Hoa Kỳ Ro Khanna, người đại diện cho Thung lũng Silicon, đã đưa ra tuyên bố phản đối SB 1047 vào tháng 8. Ông bày tỏ lo ngại rằng dự luật này “sẽ không hiệu quả, trừng phạt các doanh nhân cá nhân và doanh nghiệp nhỏ, và làm tổn hại đến tinh thần đổi mới của California”. Kể từ đó, ông đã được diễn giả Nancy Pelosi và Phòng Thương mại Hoa Kỳ tham gia, những người cũng cho biết dự luật này sẽ gây tổn hại đến sự đổi mới.

Thung lũng Silicon theo truyền thống không thích khi California đặt ra quy định công nghệ rộng rãi như thế này. Vào năm 2019, Big Tech đã rút một lá bài tương tự khi một dự luật bảo mật của tiểu bang khác, Đạo luật bảo mật người tiêu dùng của California, cũng đe dọa thay đổi bối cảnh công nghệ. Thung lũng Silicon đã vận động hành lang chống lại dự luật đó và nhiều tháng trước khi nó có hiệu lực, người sáng lập Amazon Jeff Bezos và 50 giám đốc điều hành khác đã viết một bức thư ngỏ kêu gọi một dự luật bảo mật liên bang thay thế.

Chuyện gì xảy ra tiếp theo?

SB 1047 hiện đang nằm trên bàn làm việc của Thống đốc California Gavin Newsom, nơi ông sẽ quyết định cuối cùng có nên ký dự luật thành luật hay không trước cuối tháng 8. Wiener cho biết ông chưa nói chuyện với Newsom về dự luật này và không biết lập trường của ông.

Dự luật này sẽ không có hiệu lực ngay lập tức vì Hội đồng Frontier Models sẽ được thành lập vào năm 2026. Hơn nữa, nếu dự luật được thông qua, rất có thể nó sẽ phải đối mặt với những thách thức pháp lý trước đó, có thể là từ một số nhóm đang lên tiếng về dự luật này hiện nay.

Sửa lỗi: Câu chuyện này ban đầu tham chiếu đến bản thảo trước đó của ngôn ngữ SB 1047 xung quanh người chịu trách nhiệm cho các mô hình được tinh chỉnh. Hiện tại, SB 1047 nói rằng nhà phát triển mô hình phái sinh chỉ chịu trách nhiệm cho mô hình nếu họ chi gấp ba lần so với nhà phát triển mô hình ban đầu cho việc đào tạo.