11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
腾讯云
12-20
MistralAI近日发布了首个开源MoE模型Mixtral8x7B,并宣布在魔搭社区上线。Mixtral8x7B是一个混合专家模型,由8个拥有70亿参数的专家网络组成,能够处理32ktoken上下文长度,支持多种语言,具有优秀的代码生成能力。该模型在MT-Bench评测上达到了8.3分,与GPT3.5相当。
Mistral最近发布了Mixtral8x7B模型,这一举动在AI圈引起了巨大反响。这一模型超越了业界知名的GPT-3.5和Meta的Llama2家族,在开源AI领域掀起了轩然大波。但正如宾夕法尼亚大学沃顿商学院教授兼AI影响者EthanMollick在X上指出的那样,Mistral8x7B似乎“没有安全防护栏”,这意味着那些受够OpenAI日益严格的内容政策的用户,现在有了一个性能相当的模型可供选择,但也引发了对安全性的担