全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
Qianfan-Chinese-Llama-2-13B-v2
多模态
16K

由Meta AI研发并开源的13B参数大语言模型,在编码、推理及知识应用等场景表现优秀。[了解更多>](https://huggingface.co/meta-llama)

Llama-2-7b-chat
多模态
16K

由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。[了解更多>](https://huggingface.co/meta-llama)

Linly-Chinese-LLaMA-2-7B
多模态
16K

由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。[了解更多>](https://huggingface.co/meta-llama)

Qianfan-Chinese-Llama-2-7B
多模态
16K

由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。[了解更多>](https://huggingface.co/meta-llama)

Qianfan-Chinese-Llama-2-7B-32K
多模态
16K

由Meta AI研发并开源的7B参数大语言模型,在编码、推理及知识应用等场景表现优秀。[了解更多>](https://huggingface.co/meta-llama)

Qianfan-Chinese-Llama-2-1.3B
多模态
16K

Qianfan-Chinese-Llama-2-1.3B是由千帆团队基于Llama2架构开发的13亿参数预训练大语言模型,在1T+ tokens的高质量自有语料上从零开始训练,支持中英双语,上下文窗口长度为4K。推理效果整体优于同参数量级开源模型。

Meta-Llama-3-70B-Instruct
多模态
16K

Meta AI于2024年4月18日发布的Meta Llama 3系列70B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。[了解更多>](https://huggingface.co/meta-llama)

Meta-Llama-3.1-8B-Instruct
多模态
16K

Meta AI于2024年7月23日发布的Meta Llama 3.1系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。[了解更多>](https://huggingface.co/meta-llama)

Meta-Llama-3-8B-Instruct
多模态
16K

Meta AI于2024年4月18日发布的Meta Llama 3系列8B参数大语言模型,擅长语言细微差别、上下文理解、代码生成以及翻译和对话生成等复杂任务。[了解更多>](https://huggingface.co/meta-llama)

Llama-4-Scout-17B-16E-Instruct
多模态
16K

Llama 4 系列模型是原生的多模态 AI 模型,能够提供文本和多模态体验。这些模型利用了专家混合架构(mixture-of-experts architecture),在文本和图像理解方面提供了行业领先的性能。

Llama-4-Maverick-17B-128E-Instruct
多模态
16K

Llama 4 系列模型是原生的多模态 AI 模型,能够提供文本和多模态体验。这些模型利用了专家混合架构(mixture-of-experts architecture),在文本和图像理解方面提供了行业领先的性能。

Mistral-7B-Instruct-v0.1
多模态
16K

由Mistral AI研发并开源的7B参数大语言模型,具备强大的推理性能和效果,对硬件需求更少、在各项评测基准中超越同规模模型。[了解更多>](https://huggingface.co/mistralai/Mistral-7B-Instruct-v0.1)

Mixtral-8x7B-Instruct-v0.1
多模态

由Mistral AI发布的首个高质量稀疏专家混合模型 (MOE),模型由8个70亿参数专家模型组成,在多个基准测试中表现优于Llama-2-70B及GPT3.5,能够处理32K上下文,在代码生成任务中表现尤为优异。

Yi-34B
多模态
16K

Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。[了解更多>](https://huggingface.co/01-ai/Yi-34B)

Yi-34B-Chat
多模态
16K

Yi-34B是由零一万物开发并开源的双语大语言模型,使用4K序列长度进行训练,在推理期间可扩展到32K;模型在多项评测中全球领跑,取得了多项 SOTA 国际最佳性能指标表现。[了解更多>](https://huggingface.co/01-ai/Yi-34B)

人工导购
咨询服务