OpenAI được cho là chỉ thực hiện những cải tiến nhỏ cho mô hình trí tuệ nhân tạo sắp ra mắt có tên Orion, thay vì tạo ra bước nhảy vọt khổng lồ giữa GPT-3 và GPT-4.
Orion là mô hình trí tuệ nhân tạo hàng đầu của OpenAI và dự kiến sẽ ra mắt vào cuối năm nay. Tuy nhiên, những người trong cuộc đã thử mô hình này tiết lộ thông tin Orion không thực sự mang tính đột phá, chỉ là “cải tiến một chút” so với GPT-4.
Orion cũng sẽ không nhận được nhiều nâng cấp khi thực hiện nhiệm vụ mã hóa, đây là điểm yếu của mô hình GPT của OpenAI. Mặc dù quá trình đào tạo vẫn chưa hoàn thiện và công ty của Sam Altman liên tục bổ sung các tính năng để cải thiện hiệu suất nhưng những người đã từng trải nghiệm đều cho rằng so với GPT-3 thì nó không thú vị bằng thế hệ GPT-4.
OpenAI vẫn chưa bình luận.
Trước đó, theo bờ rìaOpenAI có kế hoạch ra mắt Orion vào tháng 12. AI này được coi là mạnh hơn GPT-4 100 lần và chạy riêng biệt với mô hình suy luận o1 do OpenAI phát hành vào tháng 9. Mục tiêu của công ty là kết hợp LLM của bạn để tạo ra trí tuệ nhân tạo siêu hạng AGI.
theo người trong cuộc kinh doanhmặc dù OpenAI vẫn còn thời gian để cải thiện Orion trước khi phát hành nhưng thông tin đến từ thông tin Điều có thể coi là dấu hiệu của các thế hệ mô hình ngôn ngữ lớn (LLM) trong tương lai là mỗi thế hệ sẽ “kém ấn tượng hơn”. Điều này xảy ra vì hai lý do.
Thứ nhất, dữ liệu đào tạo AI ngày càng khó tìm, kho dữ liệu trực tuyến gần như bị khai thác, có thể dẫn đến trùng lặp. Gần đây, các công ty AI đã thu thập lượng lớn dữ liệu do con người tạo ra như văn bản, video, bài báo nghiên cứu, tiểu thuyết… để đào tạo mô hình. Thống kê do Epoch AI công bố vào tháng 6 cho thấy AI sẽ cạn kiệt dữ liệu văn bản vào năm 2028.
Cho đến nay, các công ty đã cố gắng khắc phục hạn chế này bằng cách tận dụng dữ liệu tổng hợp do chính AI tạo ra, nhưng điều này cũng tạo ra nhiều vấn đề. Ion Stoica, đồng sáng lập và Giám đốc điều hành của công ty phần mềm doanh nghiệp Databricks, tin rằng “dữ liệu thực” hữu ích hơn dữ liệu tổng hợp. Vì vậy, đối với những bài toán kiến thức tổng quát, hiệu suất của các dự án LLM “bị đình trệ” theo thời gian.
Sức mạnh tính toán của trí tuệ nhân tạo cũng không phải là vô hạn. thời gian hỏi đáp Nếu bạn có thắc mắc gì, bạn có thể hỏi tôi Tháng trước, Altman thừa nhận trên Reddit rằng OpenAI phải đối mặt với “rất nhiều hạn chế và quyết định khó khăn” trong việc phân bổ tài nguyên máy tính.
Gary Marcus, giáo sư tại Đại học New York và là người chỉ trích sự cường điệu về trí tuệ nhân tạo, cho rằng sự phát triển của trí tuệ nhân tạo chắc chắn sẽ đạt đến giới hạn của nó. Trong báo cáo của mình, ông nhận thấy các công ty AI đang có dấu hiệu “đạt đến điểm lợi nhuận giảm dần”.
Ilya Sutskever, đồng sáng lập OpenAI và hiện là người đứng đầu Bộ phận Siêu trí tuệ An toàn, cũng đề xuất một khái niệm tương tự. Vào ngày 11 tháng 11, ông nói Reuters Mặc dù vấn đề này vẫn quan trọng hơn bao giờ hết nhưng kết quả của việc mở rộng quy mô đào tạo AI hiện đã ổn định.
Giám đốc điều hành Anthropic Dario Amodei ước tính chi phí đào tạo các mô hình AI sẽ tăng vọt lên hơn 100 tỷ USD. Trong những chia sẻ trước đây, Altman cho biết chi phí đào tạo GPT-4 vượt quá 100 triệu USD. Amodei cho biết: “Chúng ta vẫn phải chờ xem các mô hình AI có thể trở nên thông minh như thế nào sau khi đầu tư nhiều vốn như vậy”.
Tuy nhiên, những người khác vẫn lạc quan một cách công khai về tiềm năng mở rộng của AI. Trên podcast của Sequoia Capital vào tháng 7, Giám đốc Công nghệ của Microsoft Kevin Scott đã bác bỏ những lo ngại rằng sự phát triển AI đã đạt đến đỉnh cao.
Ngoài ra, một số chuyên gia đã đánh giá rằng phần lớn ngành công nghiệp AI vẫn tin chắc rằng quy mô là động lực thúc đẩy hiệu suất của AI. Tuy nhiên, điều này có nghĩa là hàng tỷ đô la tiếp tục được đổ vào khu vực này.
- OpenAI đối mặt nguy cơ “chảy máu chất xám”
- OpenAI 'trên đà trở thành công ty vì lợi nhuận', thêm hai ông chủ ra đi