AI chỉ là thị trường mới nhất và khao khát nhất dành cho điện toán hiệu năng cao và các kiến trúc sư hệ thống đang làm việc suốt ngày đêm để vắt kiệt từng giọt hiệu suất trên mỗi watt. Công ty khởi nghiệp ZeroPoint của Thụy Điển, được trang bị nguồn tài trợ mới trị giá 5 triệu euro (5,5 triệu USD), muốn giúp họ bằng một kỹ thuật nén bộ nhớ mới ở quy mô nano giây — và vâng, nó chính xác phức tạp như người ta tưởng.
Khái niệm này là: nén dữ liệu một cách dễ dàng ngay trước khi đưa vào RAM và giải nén dữ liệu sau đó, mở rộng kênh bộ nhớ một cách hiệu quả thêm 50% hoặc hơn chỉ bằng cách thêm một phần nhỏ vào chip.
Tất nhiên, nén là công nghệ nền tảng trong điện toán; như Giám đốc điều hành ZeroPoint Klas Moreau (bên trái trong hình trên, cùng với những người đồng sáng lập Per Stenström và Angelos Arelakis) đã chỉ ra: “Ngày nay, chúng tôi sẽ không lưu trữ dữ liệu trên ổ cứng nếu không nén nó. Nghiên cứu cho thấy 70% dữ liệu trong bộ nhớ là không cần thiết. Vậy tại sao chúng ta không nén vào bộ nhớ?”
Câu trả lời là chúng tôi không có thời gian. Nén một tệp lớn để lưu trữ (hoặc mã hóa tệp, như chúng tôi nói khi đó là video hoặc âm thanh) là một tác vụ có thể mất vài giây, vài phút hoặc vài giờ tùy theo nhu cầu của bạn. Nhưng dữ liệu đi qua bộ nhớ chỉ trong một phần rất nhỏ của giây, được chuyển vào và ra nhanh nhất có thể của CPU. Sự chậm trễ một phần triệu giây để loại bỏ các bit “không cần thiết” trong một khối dữ liệu đi vào hệ thống bộ nhớ sẽ là thảm họa đối với hiệu suất.
Bộ nhớ không nhất thiết phải tăng cùng tốc độ với tốc độ CPU, mặc dù cả hai (cùng với nhiều thành phần chip khác) được kết nối chặt chẽ với nhau. Nếu bộ xử lý quá chậm, dữ liệu sẽ sao lưu vào bộ nhớ – và nếu bộ nhớ quá chậm, bộ xử lý sẽ lãng phí chu kỳ chờ đợi ở đống bit tiếp theo. Tất cả đều hoạt động đồng bộ, như bạn có thể mong đợi.
Mặc dù khả năng nén bộ nhớ siêu nhanh đã được chứng minh nhưng nó lại gây ra vấn đề thứ hai: Về cơ bản, bạn phải giải nén dữ liệu nhanh như khi bạn nén dữ liệu, đưa dữ liệu về trạng thái ban đầu, nếu không hệ thống sẽ không biết làm cách nào. để xử lý nó. Vì vậy, trừ khi bạn chuyển đổi toàn bộ kiến trúc của mình sang chế độ bộ nhớ nén mới này, điều đó sẽ vô nghĩa.
ZeroPoint tuyên bố đã giải quyết được cả hai vấn đề này bằng cách nén bộ nhớ ở mức độ thấp, siêu nhanh mà không yêu cầu thay đổi thực sự nào đối với phần còn lại của hệ thống máy tính. Bạn thêm công nghệ của họ vào chip của mình và điều đó giống như thể bạn đã tăng gấp đôi bộ nhớ của mình.
Mặc dù những chi tiết thực tế có thể chỉ những người trong lĩnh vực này mới hiểu được, nhưng những điều cơ bản vẫn đủ dễ dàng để những người mới bắt đầu nắm bắt, như Moreau đã chứng minh khi anh ấy giải thích cho tôi.
Ông nói: “Những gì chúng tôi làm là lấy một lượng dữ liệu rất nhỏ – một dòng bộ nhớ đệm, đôi khi là 512 bit – và xác định các mẫu trong đó”. “Bản chất của dữ liệu là nó chứa nhiều thông tin không hiệu quả, thông tin nằm rải rác. Nó phụ thuộc vào dữ liệu: Càng ngẫu nhiên thì khả năng nén càng ít. Nhưng khi xem xét hầu hết các lượt tải dữ liệu, chúng tôi thấy rằng chúng tôi đang ở trong khoảng hai đến bốn lần [more data throughput than before].”
Không có gì bí mật rằng bộ nhớ có thể được nén. Moreau nói rằng tất cả mọi người trong lĩnh vực điện toán quy mô lớn đều biết về khả năng này (anh ấy đã cho tôi xem một bài báo từ năm 2012 chứng minh điều đó), nhưng ít nhiều đã coi nó là học thuật, không thể thực hiện trên quy mô lớn. Nhưng ông cho biết, ZeroPoint đã giải quyết được các vấn đề về nén – sắp xếp lại dữ liệu nén để vẫn hiệu quả hơn – và tính minh bạch, vì vậy công nghệ này không chỉ hoạt động mà còn hoạt động khá liền mạch trong các hệ thống hiện có. Và tất cả diễn ra chỉ trong vài nano giây.
“Hầu hết các công nghệ nén, cả phần mềm và phần cứng, đều ở mức hàng nghìn nano giây. CXL [compute express link, a high-speed interconnect standard] có thể hạ con số đó xuống hàng trăm,” Moreau nói. “Chúng ta có thể giảm xuống còn ba hoặc bốn.”
Đây là CTO Angelos Arelakis giải thích theo cách của mình:
Sự ra mắt của ZeroPoint chắc chắn là đúng lúc, khi các công ty trên toàn cầu đang tìm kiếm khả năng tính toán nhanh hơn và rẻ hơn để đào tạo một thế hệ mô hình AI khác. Hầu hết các nhà sản xuất siêu tỷ lệ (nếu chúng ta phải gọi chúng như vậy) đều quan tâm đến bất kỳ công nghệ nào có thể cung cấp cho họ nhiều năng lượng hơn trên mỗi watt hoặc giúp họ giảm hóa đơn tiền điện một chút.
Lời cảnh báo chính cho tất cả những điều này chỉ đơn giản là, như đã đề cập, điều này cần phải được đưa vào chip và tích hợp từ đầu – bạn không thể chỉ nhét một dongle ZeroPoint vào giá đỡ. Để đạt được mục tiêu đó, công ty đang làm việc với các nhà sản xuất chip và nhà tích hợp hệ thống để cấp phép kỹ thuật và thiết kế phần cứng cho các chip tiêu chuẩn dành cho điện toán hiệu năng cao.
Tất nhiên đó là Nvidia và Intel của bạn, nhưng ngày càng có nhiều công ty như Meta, Google và Apple, những công ty đã thiết kế phần cứng tùy chỉnh để chạy nội bộ AI và các tác vụ chi phí cao khác của họ. Tuy nhiên, ZeroPoint đang định vị công nghệ của mình là một giải pháp tiết kiệm chi phí chứ không phải cao cấp: Có thể hình dung, bằng cách tăng gấp đôi bộ nhớ một cách hiệu quả, công nghệ này sẽ sớm tự trả giá.
Vòng A trị giá 5 triệu euro vừa kết thúc được dẫn dắt bởi Matterwave Ventures, trong đó Industrifonden đóng vai trò là người dẫn đầu địa phương ở Bắc Âu và các nhà đầu tư hiện tại Climentum Capital và Chalmers Ventures cũng tham gia.
Moreau nói rằng số tiền này sẽ cho phép họ mở rộng sang thị trường Mỹ, cũng như tăng gấp đôi thị trường Thụy Điển mà họ đang theo đuổi.