一项正在进行的调查显示,在人工智能爱好者中,开源人工智能工具比专有的商业替代工具更受欢迎。
Mixtral 8x7B Impact:
Mistral AI'Mixtral 8x7B是一个开源模型,在人工智能领域掀起了波澜,被Decrypt评为2023年最佳大型语言模型(LLM)之一。其轻巧而强大的设计备受关注,尤其是在基准测试中表现出色,在聊天机器人竞技场(Chatbot Arena)中表现尤为突出。
Chatbot Arena's 的独特方法:
聊天机器人竞技场(Chatbot Arena)依靠 130,000 多次用户投票,为人工智能模型计算 Elo 评分。与传统的标准化方法不同,它采用了 "人性化 "的方法,要求用户在两个身份不明的 LLM 的回复中做出盲目选择。这种非常规方法凸显了Mixtral'的实力,超越了Anthropíc'的Claude 2.1和OpenAI'的GPT-3.5等行业巨头。
Chatbot Arena 的排名。Mistral AI 的 LLM 在榜单中排名第 6。图片拥抱脸
Mixtral'的区别:
Mixtral 是 Chatbot Arena'top 10 中唯一的开源 LLM,这表明人工智能模型正在向可访问和社区驱动的方向转变。Mistral AI 声称,Mixtral 的性能优于 LlaMA 2 70B 等竞争对手,推理速度更快,在标准基准上与 GPT-3.5 相当或超过 GPT-3.5。
建筑优势:
Mixtral'的成功归功于其'专家混合'(MoE)架构。该技术利用虚拟专家模型,每个模型都擅长特定主题。路由器网络选择最相关的专家,进行高效、准确的处理,控制成本和延迟。
精通多种语言:
Mixtral'的卓越之处还体现在多语言功能上,在法语、德语、西班牙语、意大利语和英语等语言方面表现出色。Mixtral 采用 Apache 2.0 许可,其开源特性使开发人员能够共同探索、修改和增强该模型。
对开源人工智能的意义
Mixtral的成功标志着开源人工智能社区的胜利。除了技术实力,它还预示着未来与用户的共鸣将成为决定性因素,超越对模型参数和能力的考虑。