Elon Musk tin rằng cuộc đua trí tuệ nhân tạo cũng giống như chơi bài poker, nhưng bạn có thể phải đặt cược hàng tỷ đô la nếu muốn duy trì tính cạnh tranh.
Tỷ phú Elon Musk cho biết trong một bài viết đăng trên X tuần này rằng các công ty phải tiếp tục đầu tư vào phần cứng trí tuệ nhân tạo để duy trì lợi thế cạnh tranh trong nghiên cứu và phát triển. Ông cho biết Tesla sẽ chi hơn 500 triệu USD cho chip AI của Nvidia vào năm 2024, nhưng đó chỉ là một phần nhỏ.
“500 triệu USD rõ ràng là một số tiền rất lớn nhưng nó chỉ tương đương với 10.000 hệ thống chip Nvidia H100. Tesla sẽ chi nhiều hơn thế. Số tiền 'đặt cược' để cạnh tranh trong lĩnh vực AI ít nhất là hàng tỷ USD mỗi năm.” “Anh ấy nói.
Trước đó, Musk đã nhiều lần tuyên bố Tesla sẽ là công ty trí tuệ nhân tạo và robot trong tương lai chứ không phải nhà sản xuất ô tô. Tại cuộc gặp với các nhà đầu tư vào tháng 7/2023, tỷ phú gốc Nam Phi cho biết công ty đang xây dựng siêu máy tính Dojo để xử lý lượng lớn dữ liệu, bao gồm cả những dữ liệu được thu thập để phục vụ cho hệ thống video và tập tin tự lái của Tesla.
“Chúng tôi sẽ chi hơn 1 tỷ USD cho Dojo vào năm tới,” Musk nói.
Dự án Dojo lần đầu tiên được tiết lộ tại sự kiện Ngày AI 2021 và được thảo luận chi tiết hơn vào tháng 10 năm 2022. Vào thời điểm đó, Tesla cho biết đây là một trong những siêu máy tính mạnh nhất thế giới và thậm chí có thể khiến lưới điện Palo Alto sụp đổ. Giữa năm ngoái, Musk cũng thành lập công ty trí tuệ nhân tạo xAI và cho ra mắt chatbot Grok để cạnh tranh với ChatGPT của OpenAI.
Không chỉ Elon Musk, Mark Zuckerberg cũng đang tìm kiếm chip H100 để cạnh tranh với trí tuệ nhân tạo. Trong video đăng trên Threads ngày 19/1, CEO Meta cho biết công ty sẽ mua 350.000 GPU H100 để đào tạo các mô hình AI của công ty. Ông tiết lộ rằng Meta đang xây dựng trí thông minh tổng hợp (General Intelligence) với mục tiêu làm cho các công cụ AI “có sẵn và hữu ích cho mọi người trong cuộc sống hàng ngày”. Để đạt được mục tiêu này, công ty có kế hoạch mua khoảng 600.000 chip, bao gồm cả từ Nvidia và các đơn vị khác.
hồi đáp bờ rìa Zuckerberg tiếp tục nói rằng kho GPU của Meta sẽ đạt 600.000 vào cuối năm nay. Ông nhấn mạnh: “Chúng tôi sẵn sàng xây dựng một hệ thống đào tạo AI có thể lớn hơn bất kỳ công ty riêng lẻ nào khác”.
Các đơn vị xử lý đồ họa (GPU) được săn đón nhờ khả năng tính toán và xử lý dữ liệu tốc độ cao, điều này rất quan trọng đối với các mô hình ngôn ngữ lớn (LLM). GPU Nvidia có nhiều đơn đặt hàng nhất, trong khi các công ty khác như AMD tung ra sản phẩm tương tự để cạnh tranh. Trên thị trường, GPU H100 có giá 30.000-40.000 USD (gần 1 tỷ đồng).