Top 10 open source LLMs for 2025. 4. Mistral-8x22b
Theo: https://www.instaclustr.com/education/open-source-ai/top-10-open-source-llms-for-2025/
Mô hình Ngôn ngữ Lớn - LLM (Large Language Model) là mô hình máy học có thể hiểu được và tạo ra ngôn ngữ con người dựa vào các tập dữ liệu phạm vi rộng.
4. Mistral-8x22b
Mixtral-8x22B là một mô hình Hỗn hợp Chuyên gia thưa thớt - SMoE (Sparse Mixture-of-Experts), tận dụng 39 tỷ tham số hoạt động trong tổng số 141 tỷ tham số. Nó có thể xử lý các tác vụ NLP bằng nhiều ngôn ngữ và có khả năng mạnh mẽ về toán học và lập trình.
Thông tin dự án:
Giấy phép: Apache 2.0
Số sao trên GitHub: 9,2 nghìn (Mistral AI)
Nhà tài trợ chính: Mistral AI
Liên kết kho lưu trữ chính thức: https://huggingface.co/mistralai/Mixtral-8x22B-Instruct-v0.1
Tính năng:
Ngôn ngữ ngôn ngữ: Thành thạo tiếng Anh, Pháp, Ý, Đức và Tây Ban Nha, cho phép giao tiếp và hiểu hiệu quả giữa các ngôn ngữ chính này.
Cửa sổ ngữ cảnh: 64 nghìn mã thông báo.
Toán học và lập trình: Hỗ trợ các tác vụ giải quyết vấn đề phức tạp và phát triển phần mềm.
Gọi hàm: Có khả năng gọi hàm gốc, được tăng cường bởi chế độ đầu ra hạn chế được triển khai trên la Plateforme, cho phép phát triển ứng dụng quy mô lớn và hiện đại hóa ngăn xếp công nghệ.
Source: Mistral
Về mục lục ………. Phần trước ………. Phần tiếp theo
Tác giả: admin
Ý kiến bạn đọc
Những tin cũ hơn
Trang Web này được thành lập theo Quyết định số 142/QĐ-HH do Chủ tịch Hiệp hội các trường đại học, cao đẳng Việt Nam – AVU&C (Association of Vietnam Universities and Colleges), GS.TS. Trần Hồng Quân ký ngày 16/09/2019, ngay trước thềm của Hội thảo ‘Xây dựng và khai thác tài nguyên giáo dục mở’ do 5...