Tuần này về AI: Chúng ta có thể (và có thể) tin tưởng OpenAI không?

Tuần này về AI: Chúng ta có thể (và có thể) tin tưởng OpenAI không?

Theo kịp một ngành phát triển nhanh như AI là một yêu cầu cao. Vì vậy, cho đến khi AI có thể làm điều đó cho bạn, đây là tổng hợp hữu ích các câu chuyện gần đây trong thế giới học máy, cùng với các nghiên cứu và thử nghiệm đáng chú ý mà chúng tôi chưa đề cập riêng.

Nhân tiện, TechCrunch có kế hoạch ra mắt bản tin AI vào ngày 5 tháng 6. Hãy chú ý theo dõi. Trong thời gian chờ đợi, chúng tôi đang tăng nhịp độ của chuyên mục AI bán thường xuyên, trước đây là hai lần một tháng (hoặc lâu hơn), lên hàng tuần – vì vậy hãy chú ý đến nhiều ấn bản hơn.

Tuần này về AI, OpenAI đã đưa ra các kế hoạch giảm giá cho các khách hàng tổ chức phi lợi nhuận và giáo dục, đồng thời vén bức màn về những nỗ lực gần đây nhất nhằm ngăn chặn những kẻ xấu lạm dụng các công cụ AI của mình. Không có nhiều điều để chỉ trích ở đó – ít nhất là không theo quan điểm của người viết bài này. Nhưng tôi sẽ nói rằng hàng loạt thông báo dường như đã đến lúc để chống lại những tin tức xấu về công ty gần đây.

Hãy bắt đầu với Scarlett Johansson. OpenAI đã loại bỏ một trong những giọng nói được sử dụng bởi chatbot ChatGPT được hỗ trợ bởi AI sau khi người dùng chỉ ra rằng nó nghe giống giọng nói của Johansson một cách kỳ lạ. Johansson sau đó đã đưa ra một tuyên bố nói rằng cô ấy đã thuê cố vấn pháp lý để hỏi về giọng nói và biết thông tin chi tiết chính xác về cách nó được phát triển – và rằng cô ấy đã từ chối nhiều lần lời cầu xin từ OpenAI để cấp phép cho giọng nói của mình cho ChatGPT.

Bây giờ, một đoạn trên The Washington Post ngụ ý rằng OpenAI trên thực tế không tìm cách sao chép giọng nói của Johansson và bất kỳ điểm tương đồng nào đều là ngẫu nhiên. Nhưng tại sao Giám đốc điều hành OpenAI Sam Altman lại liên hệ với Johansson và thúc giục cô xem xét lại hai ngày trước khi ra mắt bản demo hấp dẫn có giọng nói giống âm thanh? Đó là một chút nghi ngờ.

Sau đó là vấn đề về độ tin cậy và an toàn của OpenAI.

Như chúng tôi đã báo cáo hồi đầu tháng, nhóm Superalignment đã giải thể của OpenAI, chịu trách nhiệm phát triển các cách quản lý và điều khiển các hệ thống AI “siêu thông minh”, đã được hứa 20% tài nguyên máy tính của công ty – nhưng chỉ bao giờ (và hiếm khi) nhận được một phần nhỏ trong số đó. cái này. Điều đó (trong số các lý do khác) đã dẫn đến việc hai đồng lãnh đạo của nhóm, Jan Leike và Ilya Sutskever, trước đây là nhà khoa học trưởng của OpenAI, từ chức.

Gần chục chuyên gia an toàn đã rời OpenAI trong năm qua; một số, bao gồm cả Leike, đã công khai bày tỏ lo ngại rằng công ty đang ưu tiên các dự án thương mại hơn các nỗ lực về an toàn và minh bạch. Đáp lại những lời chỉ trích, OpenAI đã thành lập một ủy ban mới để giám sát các quyết định về an toàn và an ninh liên quan đến các dự án và hoạt động của công ty. Nhưng ủy ban đã bố trí những người trong nội bộ công ty – bao gồm cả Altman – thay vì những người quan sát bên ngoài. Điều này được cho là OpenAI đang cân nhắc việc từ bỏ cấu trúc phi lợi nhuận của mình để chuyển sang mô hình vì lợi nhuận truyền thống.

Những sự cố như thế này khiến việc tin tưởng OpenAI trở nên khó khăn hơn, một công ty có quyền lực và tầm ảnh hưởng ngày càng tăng lên (xem: các giao dịch của nó với các nhà xuất bản tin tức). Rất ít tập đoàn, nếu có, đáng được tin cậy. Nhưng các công nghệ phá vỡ thị trường của OpenAI khiến các hành vi vi phạm càng trở nên rắc rối hơn.

Việc bản thân Altman không hẳn là người báo hiệu sự trung thực cũng chẳng ích gì.

Khi tin tức về các chiến thuật hung hãn của OpenAI đối với nhân viên cũ bị lộ ra – các chiến thuật đòi hỏi nhân viên phải đe dọa mất vốn sở hữu hoặc ngăn cản việc bán cổ phần nếu họ không ký các thỏa thuận hạn chế không tiết lộ thông tin – Altman đã xin lỗi và tuyên bố rằng ông không biết gì về điều đó. các chính sách. Tuy nhiên, theo Vox, chữ ký của Altman có trên các tài liệu thành lập ban hành các chính sách.

Và nếu người ta tin tưởng cựu thành viên hội đồng OpenAI, Helen Toner – một trong những thành viên cũ đã cố gắng loại Altman khỏi vị trí của anh ấy vào cuối năm ngoái – thì Altman đã giấu thông tin, xuyên tạc những điều đang xảy ra tại OpenAI và trong một số trường hợp đã nói dối hoàn toàn lên bảng. Toner nói rằng hội đồng quản trị đã biết về việc phát hành ChatGPT thông qua Twitter chứ không phải từ Altman; rằng Altman đã đưa ra thông tin sai về các biện pháp an toàn chính thức của OpenAI; và rằng Altman, không hài lòng với một bài báo học thuật mà Toner là đồng tác giả đã chỉ trích OpenAI, đã cố gắng thao túng các thành viên hội đồng để đẩy Toner ra khỏi hội đồng quản trị.

Không ai trong số đó là điềm lành.

Dưới đây là một số câu chuyện đáng chú ý khác về AI trong vài ngày qua:

  • Nhân bản giọng nói được thực hiện dễ dàng: Một báo cáo mới từ Trung tâm chống lại sự căm ghét kỹ thuật số cho thấy các dịch vụ nhân bản giọng nói được hỗ trợ bởi AI khiến việc giả mạo tuyên bố của một chính trị gia trở nên khá tầm thường.
  • Cuộc đấu tranh Tổng quan về AI của Google: Tổng quan về AI, kết quả tìm kiếm do AI tạo ra mà Google đã bắt đầu triển khai rộng rãi hơn vào đầu tháng này trên Google Tìm kiếm, cần một số công việc. Công ty thừa nhận điều này – nhưng tuyên bố rằng nó đang lặp đi lặp lại một cách nhanh chóng. (Chúng ta sẽ thấy.)
  • Paul Graham trên Altman: Trong một loạt bài đăng trên X, Paul Graham, người đồng sáng lập công ty tăng tốc khởi nghiệp Y Combinator, đã bác bỏ những tuyên bố rằng Altman đã bị áp lực phải từ chức chủ tịch Y Combinator vào năm 2019 do có thể xảy ra xung đột lợi ích. (Y Combinator có cổ phần nhỏ trong OpenAI.)
  • xAI huy động được 6 tỷ USD: Công ty khởi nghiệp AI của Elon Musk, xAI, đã huy động được 6 tỷ USD tài trợ khi Musk tăng cường vốn để cạnh tranh mạnh mẽ với các đối thủ bao gồm OpenAI, Microsoft và Alphabet.
  • Tính năng AI mới của Perplexity: Ivan cho biết, với khả năng mới Trang Perplexity, công ty khởi nghiệp AI Perplexity đang hướng tới việc giúp người dùng tạo báo cáo, bài viết hoặc hướng dẫn ở định dạng hấp dẫn trực quan hơn.
  • Những con số yêu thích của người mẫu AI: Devin viết về những con số mà các mô hình AI khác nhau chọn khi họ được giao nhiệm vụ đưa ra câu trả lời ngẫu nhiên. Hóa ra, họ có những mục yêu thích – phản ánh dữ liệu mà mỗi người đã được đào tạo.
  • Mistral phát hành Codetral: Mistral, công ty khởi nghiệp AI của Pháp được Microsoft hỗ trợ và trị giá 6 tỷ USD, đã phát hành mô hình AI thế hệ đầu tiên dành cho mã hóa, được đặt tên là Codestral. Nhưng nó không thể được sử dụng cho mục đích thương mại do giấy phép khá hạn chế của Mistral.
  • Chatbots và quyền riêng tư: Natasha viết về lực lượng đặc nhiệm ChatGPT của Liên minh Châu Âu và cách lực lượng này đưa ra cái nhìn đầu tiên về việc gỡ rối việc tuân thủ quyền riêng tư của chatbot AI.
  • Trình tạo âm thanh của ElevenLabs: Công ty khởi nghiệp nhân bản giọng nói ElevenLabs đã giới thiệu một công cụ mới, được công bố lần đầu tiên vào tháng 2, cho phép người dùng tạo hiệu ứng âm thanh thông qua lời nhắc.
  • Kết nối cho chip AI: Những gã khổng lồ công nghệ bao gồm Microsoft, Google và Intel – ngoại trừ Arm, Nvidia hay AWS – đã thành lập một nhóm ngành, Nhóm quảng bá UALink, để giúp phát triển các thành phần chip AI thế hệ tiếp theo.