Một cuộc khảo sát đang diễn ra, bao gồm hơn 100.000 người tham gia, cho thấy sự ưu tiên dành cho các công cụ AI nguồn mở hơn là các lựa chọn thay thế thương mại độc quyền trong số những người đam mê trí tuệ nhân tạo.
Tác động hỗn hợp 8x7B:
Mixtral 8x7B của Mistral AI, một mô hình nguồn mở, đã tạo nên làn sóng trong bối cảnh AI, được Decrypt công nhận là một trong những Mô hình ngôn ngữ lớn (LLM) tốt nhất năm 2023. Thiết kế nhẹ nhưng mạnh mẽ của nó đã thu hút được sự chú ý, đặc biệt là nhờ hiệu suất vượt trội trong các bài kiểm tra điểm chuẩn, đặc biệt là xuất sắc trong Chatbot Arena.
Cách tiếp cận độc đáo của Chatbot Arena:
Chatbot Arena, dựa trên hơn 130.000 phiếu bầu của người dùng, tính toán xếp hạng Elo cho các mô hình AI. Khác với các phương pháp tiêu chuẩn hóa thông thường, nó áp dụng phương pháp "con người" cách tiếp cận này, yêu cầu người dùng lựa chọn một cách mù quáng giữa hai câu trả lời từ LLM không xác định. Phương pháp độc đáo này đã làm nổi bật sức mạnh của Mixtral, vượt qua những gã khổng lồ trong ngành như Claude 2.1 của Anthropíc và GPT-3.5 của OpenAI.
Thứ hạng của Chatbot Arena. LLM của Mistral AI đứng thứ 6 trong danh sách. Hình ảnh: Ôm mặt
Sự khác biệt của Mixtral:
Mixtral nổi bật là LLM nguồn mở duy nhất trong top 10 của Chatbot Arena, cho thấy sự thay đổi đáng chú ý hướng tới các mô hình AI hướng đến cộng đồng và dễ tiếp cận. Mistral AI khẳng định Mixtral vượt trội so với các đối thủ như LlaMA 2 70B, mang lại khả năng suy luận nhanh hơn và phù hợp hoặc vượt qua GPT-3.5 về điểm chuẩn tiêu chuẩn.
Lợi thế về kiến trúc:
Thành công của Mixtral là nhờ vào 'Sự kết hợp của các chuyên gia'; (MoE) kiến trúc. Kỹ thuật này sử dụng các mô hình chuyên gia ảo, mỗi mô hình chuyên về một chủ đề cụ thể. Mạng bộ định tuyến chọn các chuyên gia phù hợp nhất để xử lý hiệu quả và chính xác, kiểm soát chi phí và độ trễ.
Thành thạo đa ngôn ngữ:
Sự xuất sắc của Mixtral còn mở rộng đến khả năng đa ngôn ngữ, vượt trội trong các ngôn ngữ như tiếng Pháp, tiếng Đức, tiếng Tây Ban Nha, tiếng Ý và tiếng Anh. Theo giấy phép Apache 2.0, bản chất nguồn mở của nó trao quyền cho các nhà phát triển khám phá, sửa đổi và nâng cao mô hình một cách cộng tác.
Ý nghĩa đối với AI nguồn mở:
Thành công của Mixtral đánh dấu một chiến thắng cho cộng đồng AI nguồn mở. Ngoài sức mạnh công nghệ, nó còn báo trước một tương lai nơi sự cộng hưởng với người dùng trở thành yếu tố quyết định, vượt qua những cân nhắc về thông số và khả năng của mô hình.