全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
starcoder
多模态
16K

由BigCode研发的15.5B参数模型,基于The Stack (v1.2)的80+编程语言训练,训练语料来自Github。[了解更多>](https://huggingface.co/bigcode/starcoder)

CodeLlama-7b-Instruct
多模态

Code Llama是由Meta AI研发并开源的一系列文本生成模型,旨在用于一般代码合成和理解。该模型参数规模为70亿。[了解更多>](https://huggingface.co/codellama/CodeLlama-7b-Instruct-hf)

sqlcoder-7b
多模态

由Defog研发、基于Mistral-7B微调的语言模型,用于将自然语言问题转换为SQL语句,具备优秀的生成效果。[了解更多>](https://huggingface.co/defog/sqlcoder-7b)

AquilaChat-7B
多模态
16K

由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。[了解更多>](https://huggingface.co/BAAI)

AquilaCode-multi
多模态
16K

由智源研究院研发的中英双语语言模型,继承了GPT-3和LLaMA的架构优点,基于中英文高质量语料训练,实现了高效训练,获得了比其他开源模型更优的性能,并符合国内数据合规需要。[了解更多>](https://huggingface.co/BAAI)

XVERSE-13B-Chat
多模态
16K

由深圳元象科技自主研发的支持多语言的大语言模型,支持8k上下文、40多种语言,具备训练效率高、稳定性强、算力利用率高等特点。[了解更多>](https://huggingface.co/xverse/XVERSE-13B-Chat)

Baichuan2-13B-Chat
多模态
16K

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。[了解更多>](https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)

Baichuan2-7B-Chat
多模态
16K

Baichuan 2 是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练,在权威的中文和英文 benchmark 上均取得同尺寸领先的效果。[了解更多>](https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat)

chatglm2-6b
多模态
16K

智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。[了解更多>](https://huggingface.co/THUDM/chatglm2-6b)

chatglm2-6b-32k
多模态
16K

智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。[了解更多>](https://huggingface.co/THUDM/chatglm2-6b)

chatglm2-6b-int4
多模态
16K

智谱AI与清华KEG实验室发布的中英双语对话模型,具备强大的推理性能、效果、较低的部署门槛及更长的上下文,在MMLU、CEval等数据集上相比初代有大幅的性能提升。[了解更多>](https://huggingface.co/THUDM/chatglm2-6b)

chatglm3-6b
多模态
16K

智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。[了解更多>](https://huggingface.co/THUDM/chatglm3-6b)

chatglm3-6b-32k
多模态
16K

智谱AI与清华KEG实验室发布的中英双语对话模型,相比前两代,具备更强大的基础模型,同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。[了解更多>](https://huggingface.co/THUDM/chatglm3-6b)

glm-Z1-32b-0414
向量表示
16K

GLM-Z1-32B-0414是具有深度思考能力的推理模型,这是在 GLM-4-32B-0414 的基础上,通过冷启动和扩展强化学习,以及在数学、代码和逻辑等任务上对模型的进一步训练得到的。

glm-Z1-rumination-32b-0414
向量表示
16K

GLM-Z1-Rumination-32B-0414是具有沉思能力的深度推理模型(对标Open AI的Deep Research)。

人工导购
咨询服务