Meta Llama: Mọi thứ bạn cần biết về mô hình AI tạo ra mở

Meta Llama: Mọi thứ bạn cần biết về mô hình AI tạo ra mở

Giống như mọi công ty công nghệ lớn hiện nay, Meta có mô hình AI tạo ra hàng đầu của riêng mình, được gọi là Llama. Llama có phần độc đáo trong số các mô hình lớn ở chỗ nó “mở”, nghĩa là các nhà phát triển có thể tải xuống và sử dụng nó theo bất kỳ cách nào họ muốn (với một số hạn chế nhất định). Điều đó trái ngược với các mô hình như Claude của Anthropic, GPT-4o của OpenAI (cung cấp năng lượng cho ChatGPT) và Gemini của Google, chỉ có thể truy cập thông qua API.

Tuy nhiên, vì lợi ích của việc cung cấp cho các nhà phát triển sự lựa chọn, Meta cũng đã hợp tác với các nhà cung cấp, bao gồm AWS, Google Cloud và Microsoft Azure, để cung cấp các phiên bản Llama được lưu trữ trên đám mây. Ngoài ra, công ty đã phát hành các công cụ được thiết kế để giúp tinh chỉnh và tùy chỉnh mô hình dễ dàng hơn.

Sau đây là mọi thứ bạn cần biết về Llama, từ khả năng và phiên bản cho đến nơi bạn có thể sử dụng nó. Chúng tôi sẽ cập nhật bài đăng này khi Meta phát hành bản nâng cấp và giới thiệu các công cụ phát triển mới để hỗ trợ việc sử dụng mô hình.

Llama là gì?

Llama là một gia đình người mẫu — không chỉ một người mẫu:

  • Lạc đà không bướu 8B
  • Lạc đà không bướu 70B
  • Lạc đà không bướu 405B

Các phiên bản mới nhất là Lạc đà không bướu 3.1 8B, Lạc đà không bướu 3.1 70BLạc đà không bướu 3.1 405Bđược phát hành vào tháng 7 năm 2024. Chúng được đào tạo trên các trang web bằng nhiều ngôn ngữ, mã công khai và tệp trên web cũng như dữ liệu tổng hợp (tức là dữ liệu do các mô hình AI khác tạo ra).

Llama 3.1 8B và Llama 3.1 70B là những mô hình nhỏ gọn, có thể chạy trên các thiết bị từ máy tính xách tay đến máy chủ. Mặt khác, Llama 3.1 405B là một mô hình quy mô lớn yêu cầu (nếu không có một số sửa đổi) phần cứng trung tâm dữ liệu. Llama 3.1 8B và Llama 3.1 70B có khả năng kém hơn Llama 3.1 405B, nhưng nhanh hơn. Trên thực tế, chúng là phiên bản “được tinh chế” của 405B, được tối ưu hóa để có chi phí lưu trữ và độ trễ thấp.

Tất cả các mô hình Llama đều có cửa sổ ngữ cảnh 128.000 mã thông báo. (Trong khoa học dữ liệu, mã thông báo là các bit dữ liệu thô được chia nhỏ, như các âm tiết “fan”, “tas” và “tic” trong từ “fantastic.”) Ngữ cảnh hoặc cửa sổ ngữ cảnh của mô hình đề cập đến dữ liệu đầu vào (ví dụ: văn bản) mà mô hình xem xét trước khi tạo đầu ra (ví dụ: văn bản bổ sung). Ngữ cảnh dài có thể ngăn các mô hình “quên” nội dung của các tài liệu và dữ liệu gần đây, cũng như tránh lạc đề và suy diễn sai.

128.000 token đó tương đương với khoảng 100.000 từ hoặc 300 trang, tương đương với độ dài của “Đồi gió hú”, “Du ký Gulliver” và “Harry Potter và tên tù nhân ngục Azkaban”.

Llama có thể làm gì?

Giống như các mô hình AI tạo sinh khác, Llama có thể thực hiện một loạt các nhiệm vụ hỗ trợ khác nhau, như mã hóa và trả lời các câu hỏi toán học cơ bản, cũng như tóm tắt tài liệu bằng tám ngôn ngữ (tiếng Anh, tiếng Đức, tiếng Pháp, tiếng Ý, tiếng Bồ Đào Nha, tiếng Hindi, tiếng Tây Ban Nha và tiếng Thái). Hầu hết các khối lượng công việc dựa trên văn bản — hãy nghĩ đến việc phân tích các tệp như PDF và bảng tính — đều nằm trong phạm vi của nó; không có mô hình Llama nào có thể xử lý hoặc tạo hình ảnh, mặc dù điều đó có thể thay đổi trong tương lai gần.

Tất cả các mô hình Llama mới nhất đều có thể được cấu hình để tận dụng các ứng dụng, công cụ và API của bên thứ ba để hoàn thành nhiệm vụ. Chúng được đào tạo ngay lập tức để sử dụng Brave Search để trả lời các câu hỏi về các sự kiện gần đây, API Wolfram Alpha cho các truy vấn liên quan đến toán học và khoa học và trình thông dịch Python để xác thực mã. Ngoài ra, Meta cho biết các mô hình Llama 3.1 có thể sử dụng một số công cụ mà chúng chưa từng thấy trước đây (nhưng liệu chúng có thể đáng tin cậy sử dụng những công cụ đó lại là một vấn đề khác).


Tôi có thể sử dụng Llama ở đâu?

Nếu bạn chỉ muốn trò chuyện với Llama, thì đây là nền tảng hỗ trợ trải nghiệm chatbot Meta AI trên Facebook Messenger, WhatsApp, Instagram, Oculus và Meta.ai.

Các nhà phát triển xây dựng với Llama có thể tải xuống, sử dụng hoặc tinh chỉnh mô hình trên hầu hết các nền tảng đám mây phổ biến. Meta tuyên bố có hơn 25 đối tác lưu trữ Llama, bao gồm Nvidia, Databricks, Groq, Dell và Snowflake.

Một số đối tác này đã xây dựng các công cụ và dịch vụ bổ sung trên Llama, bao gồm các công cụ cho phép các mô hình tham chiếu dữ liệu độc quyền và chạy ở độ trễ thấp hơn.

Meta đề xuất sử dụng các mô hình nhỏ hơn của mình, Llama 8B và Llama 70B, cho các ứng dụng mục đích chung như cung cấp năng lượng cho chatbot và tạo mã. Công ty cho biết Llama 405B được dành riêng cho việc chưng cất mô hình — quá trình chuyển kiến ​​thức từ mô hình lớn sang mô hình nhỏ hơn, hiệu quả hơn — và tạo dữ liệu tổng hợp để đào tạo (hoặc tinh chỉnh) các mô hình thay thế.

Điều quan trọng là giấy phép Llama hạn chế cách các nhà phát triển triển khai mô hình: Các nhà phát triển ứng dụng có hơn 700 triệu người dùng hàng tháng phải yêu cầu Meta cấp giấy phép đặc biệt mà công ty sẽ cấp theo quyết định của mình.

Meta cung cấp những công cụ nào cho Llama?

Bên cạnh Llama, Meta cung cấp các công cụ nhằm mục đích làm cho mô hình “an toàn hơn” khi sử dụng:

  • Bảo vệ Llamamột khuôn khổ điều tiết
  • Đội bảo vệ nhanh chóngmột công cụ bảo vệ chống lại các cuộc tấn công tiêm nhiễm nhanh chóng
  • Đánh giá an ninh mạngmột bộ đánh giá rủi ro an ninh mạng

Llama Guard cố gắng phát hiện nội dung có khả năng gây vấn đề được đưa vào — hoặc được tạo ra — bởi mô hình Llama, bao gồm nội dung liên quan đến hoạt động tội phạm, bóc lột trẻ em, vi phạm bản quyền, thù hận, tự làm hại bản thân và lạm dụng tình dục. Các nhà phát triển có thể tùy chỉnh các danh mục nội dung bị chặn và áp dụng các lệnh chặn cho tất cả các ngôn ngữ mà Llama hỗ trợ ngay lập tức.

Giống như Llama Guard, Prompt Guard có thể chặn văn bản dành cho Llama, nhưng chỉ chặn văn bản có mục đích “tấn công” mô hình và khiến nó hoạt động theo những cách không mong muốn. Meta tuyên bố rằng Llama Guard có thể bảo vệ chống lại các lời nhắc rõ ràng là độc hại (tức là bẻ khóa cố gắng vượt qua các bộ lọc an toàn tích hợp của Llama) ngoài các lời nhắc có chứa “đầu vào được tiêm”.

Đối với CyberSecEval, nó không phải là một công cụ mà là một tập hợp các chuẩn mực để đo lường tính bảo mật của mô hình. CyberSecEval có thể đánh giá rủi ro mà mô hình Llama gây ra (ít nhất là theo tiêu chí của Meta) cho các nhà phát triển ứng dụng và người dùng cuối trong các lĩnh vực như “kỹ thuật xã hội tự động” và “mở rộng hoạt động tấn công mạng”.

Những hạn chế của Llama

Llama cũng có những rủi ro và hạn chế nhất định, giống như tất cả các mô hình AI tạo sinh khác.

Ví dụ, không rõ liệu Meta có đào tạo Llama về nội dung có bản quyền hay không. Nếu có, người dùng có thể phải chịu trách nhiệm về hành vi vi phạm nếu họ vô tình sử dụng một đoạn trích có bản quyền mà mô hình đã trích xuất.

Meta tại một thời điểm đã sử dụng sách điện tử có bản quyền để đào tạo AI bất chấp cảnh báo của luật sư riêng, theo báo cáo gần đây của Reuters. Công ty gây tranh cãi khi đào tạo AI của mình trên các bài đăng, ảnh và chú thích trên Instagram và Facebook, và khiến người dùng khó có thể từ chối. Hơn nữa, Meta, cùng với OpenAI, là chủ đề của một vụ kiện đang diễn ra do các tác giả đệ trình, bao gồm cả diễn viên hài Sarah Silverman, về việc các công ty bị cáo buộc sử dụng trái phép dữ liệu có bản quyền để đào tạo mô hình.

Lập trình là một lĩnh vực khác mà bạn nên cân nhắc cẩn thận khi sử dụng Llama. Bởi vì Llama có thể — giống như các đối tác AI tạo sinh của nó — tạo ra mã lỗi hoặc không an toàn.

Như thường lệ, tốt nhất là nên nhờ một chuyên gia xem xét bất kỳ mã nào do AI tạo ra trước khi đưa mã đó vào dịch vụ hoặc phần mềm.