Tuần này trong AI: Kamala Harris có thể điều chỉnh AI như thế nào

Tuần này trong AI: Kamala Harris có thể điều chỉnh AI như thế nào

Xin chào mọi người, chào mừng đến với bản tin AI thường kỳ của TechCrunch.

Chủ Nhật tuần trước, Tổng thống Joe Biden tuyên bố ông không còn kế hoạch tái tranh cử nữa, thay vào đó, ông “hoàn toàn ủng hộ” Phó Tổng thống Kamala Harris trở thành ứng cử viên của Đảng Dân chủ; những ngày sau đó, Harris đã nhận được sự ủng hộ từ đa số đại biểu của Đảng Dân chủ.

Harris đã lên tiếng về chính sách công nghệ và AI; nếu bà thắng cử tổng thống, điều đó sẽ có ý nghĩa gì đối với quy định về AI của Hoa Kỳ?

Đồng nghiệp của tôi Anthony Ha đã viết một vài lời về điều này vào cuối tuần. Harris và Tổng thống Biden trước đó đã nói rằng họ “từ chối sự lựa chọn sai lầm cho rằng chúng ta có thể bảo vệ công chúng hoặc thúc đẩy đổi mới”. Vào thời điểm đó, Biden đã ban hành một sắc lệnh hành pháp kêu gọi các công ty đặt ra các tiêu chuẩn mới xung quanh sự phát triển của AI. Harris cho biết các cam kết tự nguyện là “bước đầu tiên hướng tới một tương lai AI an toàn hơn với nhiều điều hơn nữa sẽ đến” bởi vì “khi không có quy định và sự giám sát chặt chẽ của chính phủ, một số công ty công nghệ chọn ưu tiên lợi nhuận hơn là phúc lợi của khách hàng, sự an toàn của cộng đồng và sự ổn định của nền dân chủ của chúng ta”.

Tôi cũng đã trao đổi với các chuyên gia chính sách AI để biết quan điểm của họ. Phần lớn, họ cho biết họ mong đợi sự nhất quán với chính quyền Harris, trái ngược với việc phá bỏ chính sách AI hiện tại và bãi bỏ quy định chung mà phe của Donald Trump đã ủng hộ.

Lee Tiedrich, một cố vấn AI tại Đối tác Toàn cầu về Trí tuệ Nhân tạo, nói với TechCrunch rằng sự ủng hộ của Biden dành cho Harris có thể “tăng cơ hội duy trì tính liên tục” trong chính sách AI của Hoa Kỳ.[This is] được đóng khung bởi sắc lệnh hành pháp AI năm 2023 và cũng được đánh dấu bằng chủ nghĩa đa phương thông qua Liên hợp quốc, G7, OECD và các tổ chức khác,” bà cho biết. “Sắc lệnh hành pháp và các hành động liên quan cũng kêu gọi chính phủ giám sát AI nhiều hơn, bao gồm thông qua việc tăng cường thực thi, các quy tắc và chính sách AI của cơ quan lớn hơn, tập trung vào an toàn và một số thử nghiệm và tiết lộ bắt buộc đối với một số hệ thống AI lớn.”

Sarah Kreps, giáo sư ngành chính phủ tại Cornell, người đặc biệt quan tâm đến AI, lưu ý rằng có một nhận thức trong một số phân khúc của ngành công nghệ rằng chính quyền Biden đã quá thiên về quy định và rằng sắc lệnh hành pháp về AI là “quản lý vi mô quá mức”. Bà không mong đợi Harris sẽ hủy bỏ bất kỳ giao thức an toàn AI nào được thiết lập dưới thời Biden, nhưng bà tự hỏi liệu chính quyền Harris có thể áp dụng cách tiếp cận quản lý ít áp đặt từ trên xuống hơn để xoa dịu những người chỉ trích hay không.

Krystal Kauffman, một nghiên cứu viên tại Viện nghiên cứu AI phân tán, đồng ý với Kreps và Tiedrich rằng Harris rất có thể sẽ tiếp tục công việc của Biden để giải quyết các rủi ro liên quan đến việc sử dụng AI và tìm cách tăng cường tính minh bạch xung quanh AI. Tuy nhiên, bà hy vọng rằng, nếu Harris giành chiến thắng trong cuộc bầu cử tổng thống, bà sẽ tạo ra một mạng lưới các bên liên quan rộng hơn trong việc xây dựng chính sách — một mạng lưới thu hút những người làm việc về dữ liệu, những người thường không được thừa nhận hoàn cảnh khó khăn (lương thấp, điều kiện làm việc kém và những thách thức về sức khỏe tâm thần).

Kauffman cho biết: “Harris phải đưa tiếng nói của những người làm việc về dữ liệu giúp lập trình AI vào những cuộc trò chuyện quan trọng này trong tương lai”. “Chúng ta không thể tiếp tục coi các cuộc họp kín với các CEO công nghệ là phương tiện để đưa ra chính sách. Điều này chắc chắn sẽ đưa chúng ta đi sai đường nếu nó tiếp tục”.

Tin tức

Meta phát hành các mô hình mới: Meta tuần này đã phát hành Llama 3.1 405B, một mô hình tạo và phân tích văn bản chứa 405 tỷ tham số. Mô hình “mở” lớn nhất từ ​​trước đến nay, Llama 3.1 405B đang tiến vào nhiều nền tảng và ứng dụng Meta, bao gồm trải nghiệm Meta AI trên Facebook, Instagram và Messenger.

Adobe làm mới Firefly:Adobe đã phát hành công cụ Firefly mới cho Photoshop và Illustrator vào thứ ba, cung cấp cho các nhà thiết kế đồ họa nhiều cách hơn để sử dụng các mô hình AI nội bộ của công ty.

Nhận dạng khuôn mặt tại trường học:Một trường học ở Anh đã bị cơ quan quản lý bảo vệ dữ liệu của Vương quốc Anh khiển trách chính thức sau khi sử dụng công nghệ nhận dạng khuôn mặt mà không có sự đồng ý cụ thể từ học sinh để xử lý dữ liệu quét khuôn mặt của họ.

Cohere huy động được nửa tỷ đô la: Cohere, một công ty khởi nghiệp AI tạo sinh do các nhà nghiên cứu cũ của Google đồng sáng lập, đã huy động được 500 triệu đô la tiền mặt mới từ các nhà đầu tư, bao gồm Cisco và AMD. Không giống như nhiều đối thủ khởi nghiệp AI tạo sinh khác, Cohere tùy chỉnh các mô hình AI cho các doanh nghiệp lớn — một yếu tố chính trong thành công của công ty.

Phỏng vấn giám đốc CIA AI: Là một phần của loạt bài Women in AI đang diễn ra của TechCrunch, tôi đã phỏng vấn Lakshmi Raman, giám đốc AI tại CIA. Chúng tôi đã nói về con đường trở thành giám đốc của cô ấy cũng như việc CIA sử dụng AI và sự cân bằng cần đạt được giữa việc áp dụng công nghệ mới và triển khai công nghệ một cách có trách nhiệm.

Bài nghiên cứu của tuần

Bạn đã từng nghe đến máy biến áp chưa? Đây là kiến ​​trúc mô hình AI được lựa chọn cho các tác vụ lý luận phức tạp, hỗ trợ các mô hình như GPT-4o của OpenAI, Claude của Anthropic và nhiều mô hình khác. Nhưng, mặc dù máy biến áp mạnh mẽ, chúng vẫn có những nhược điểm. Vì vậy, các nhà nghiên cứu đang tìm hiểu các giải pháp thay thế khả thi.

Một trong những ứng cử viên triển vọng hơn là mô hình không gian trạng thái (SSM), kết hợp các đặc điểm của một số loại mô hình AI cũ hơn, chẳng hạn như mạng nơ-ron hồi quy và mạng nơ-ron tích chập, để tạo ra một kiến ​​trúc hiệu quả hơn về mặt tính toán, có khả năng tiếp nhận các chuỗi dữ liệu dài (nghĩ đến tiểu thuyết và phim ảnh). Và một trong những hiện thân mạnh mẽ nhất của SSM cho đến nay, Mamba-2, đã được các nhà khoa học nghiên cứu Tri Dao (giáo sư tại Princeton) và Albert Gu (Carnegie Mellon) trình bày chi tiết trong một bài báo tháng này.

Giống như người tiền nhiệm Mamba, Mamba-2 có thể xử lý khối lượng dữ liệu đầu vào lớn hơn so với các đối tác dựa trên máy biến áp trong khi vẫn có khả năng cạnh tranh về mặt hiệu suất với các mô hình dựa trên máy biến áp trên một số tác vụ tạo ngôn ngữ nhất định. Dao và Gu ngụ ý rằng, nếu SSM tiếp tục cải thiện, một ngày nào đó chúng sẽ chạy trên phần cứng hàng hóa — và cung cấp các ứng dụng AI tạo ra mạnh mẽ hơn so với các máy biến áp hiện nay.

Mô hình của tuần

Trong một diễn biến gần đây khác liên quan đến kiến ​​trúc, một nhóm các nhà nghiên cứu đã phát triển một loại mô hình AI tạo sinh mới mà họ tuyên bố có thể sánh ngang — hoặc đánh bại — cả hai máy biến áp mạnh nhất Mamba xét về mặt hiệu quả.

Được gọi là mô hình đào tạo thời gian thử nghiệm (mô hình TTT), kiến ​​trúc này có thể lý giải hàng triệu mã thông báo, theo các nhà nghiên cứu, có khả năng mở rộng lên tới hàng tỷ mã thông báo trong tương lai, các thiết kế tinh chỉnh. (Trong AI tạo sinh, “mã thông báo” là các bit văn bản thô và các phần dữ liệu có kích thước nhỏ khác.) Các nhà nghiên cứu tin rằng vì các mô hình TTT có thể tiếp nhận nhiều mã thông báo hơn các mô hình thông thường và thực hiện như vậy mà không gây quá nhiều áp lực cho tài nguyên phần cứng, nên chúng phù hợp để cung cấp năng lượng cho các ứng dụng AI tạo sinh “thế hệ tiếp theo”.

Để tìm hiểu sâu hơn về các mô hình TTT, hãy xem bài viết gần đây của chúng tôi.

Túi xách

Stability AI, công ty khởi nghiệp về AI tạo ra mà các nhà đầu tư, bao gồm cả nhà đồng sáng lập Napster Sean Parker, gần đây đã đổ tiền vào để cứu công ty khỏi tình trạng phá sản, đã gây ra khá nhiều tranh cãi về các điều khoản sử dụng sản phẩm mới và chính sách cấp phép hạn chế của công ty.

Cho đến gần đây, để sử dụng mô hình hình ảnh AI mở mới nhất của Stability AI, Stable Diffusion 3, về mặt thương mại, các tổ chức có doanh thu dưới 1 triệu đô la một năm phải đăng ký giấy phép “người sáng tạo” giới hạn tổng số hình ảnh họ có thể tạo ra ở mức 6.000 mỗi tháng. Tuy nhiên, vấn đề lớn hơn đối với nhiều khách hàng là các điều khoản tinh chỉnh hạn chế của Stability, điều này trao cho (hoặc ít nhất là có vẻ như trao cho) Stability AI quyền trích xuất phí và kiểm soát bất kỳ mô hình nào được đào tạo trên hình ảnh do Stable Diffusion 3 tạo ra.

Cách tiếp cận cứng rắn của Stability AI đã khiến CivitAI, một trong những máy chủ lưu trữ mô hình tạo hình ảnh lớn nhất, phải áp dụng lệnh cấm tạm thời đối với các mô hình dựa trên hoặc được đào tạo dựa trên hình ảnh từ Stable Diffusion 3 trong khi tìm kiếm tư vấn pháp lý về giấy phép mới.

CivitAI đã viết trong một bài đăng trên blog của mình rằng: “Mối lo ngại là theo hiểu biết hiện tại của chúng tôi, giấy phép này trao cho Stability AI quá nhiều quyền hạn đối với việc sử dụng không chỉ bất kỳ mô hình nào được tinh chỉnh trên Stable Diffusion 3 mà còn trên bất kỳ mô hình nào khác có hình ảnh Stable Diffusion 3 trong tập dữ liệu của chúng”.

Để đáp lại sự phản đối, đầu tháng này Stability AI đã nói rằng họ sẽ điều chỉnh các điều khoản cấp phép cho Stable Diffusion 3 để cho phép sử dụng thương mại tự do hơn. Stability đã làm rõ trong một blog rằng “Miễn là bạn không sử dụng nó cho các hoạt động bất hợp pháp hoặc vi phạm rõ ràng giấy phép hoặc chính sách sử dụng được chấp nhận của chúng tôi, Stability AI sẽ không bao giờ yêu cầu bạn xóa hình ảnh, bản tinh chỉnh hoặc các sản phẩm phái sinh khác — ngay cả khi bạn không bao giờ trả tiền cho Stability AI”.

Câu chuyện này nêu bật những cạm bẫy pháp lý vẫn tiếp tục gây khó khăn cho AI tạo sinh — và, liên quan đến điều đó, mức độ mà “mở” vẫn còn tùy thuộc vào cách diễn giải. Gọi tôi là người bi quan, nhưng số lượng ngày càng tăng của các giấy phép hạn chế gây tranh cãi cho tôi thấy rằng ngành công nghiệp AI sẽ không sớm đạt được sự đồng thuận — hoặc tiến gần đến sự rõ ràng.