版本名称:Mixtral-8x7B-Instruct-v0.1
所属模型:Mixtral
所属公司:其他
发布时间:2024年1月11日
最新版本:Mixtral-8x7B-Instruct-v0.1
参数规模:未知
上下文长度:未知
支持语言:英文,小语种,中文
授权协议:未知
体验方式:https://cloud.baidu.com/doc/qianfan-api/s/3m7of64lb

简介

由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。

应用

12
热度
相关模型
人工导购
咨询服务