全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
glm-4v-9b
行业大模型

GLM-4V-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。

glm-4-32b-0414
多模态
16K

GLM-4-32B-0414系列,320 亿参数,效果比肩 OpenAI 的 GPT 系列和 DeepSeek 的 V3/R1 系列。

Qwen3-Coder-30B-A3B-Instruct
多模态
16K

基于Qwen3的代码生成模型,继承Qwen3-Coder-480B-A35B-Instruct的coding agent能力,代码能力达到同尺寸规模模型SOTA。

Qwen3-Coder-480B-A35B-Instruct
多模态
16K

基于Qwen3的代码生成模型,具有强大的Coding Agent能力,代码能力达到开源模型 SOTA。

ChatGLM4-9B-8K
多模态
16K

GLM-4-9B 是智谱 AI 推出的最新一代预训练模型 GLM-4 系列中的开源版本。

jina-embeddings-v3
图像理解
16K

基于Jina-XLM-RoBERTa架构,该模型支持旋转位置嵌入(RoPE),能够处理长达8192个标记的长输入序列。 此外,它还具备5个LoRA适配器,以高效生成特定任务的嵌入。

bge-large-en
图像理解
4K

由智源研究院研发的英文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

bge-large-zh
图像理解
4K

由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

bge-large-zh-v1.5
图像理解
4K

由智源研究院研发的中文版文本表示模型,可将任意文本映射为低维稠密向量,以用于检索、分类、聚类或语义匹配等任务,并可支持为大模型调用外部知识。

jina-reranker-v2-base-multilingual
重排序

基于Transformer的模型,已经针对文本重排序任务进行了微调,这是许多信息检索系统中的关键组件。

bge-reranker-v2-m3
重排序

北京智源人工研究院研发的轻量级重排序模型,具备强大的多语言能力,易于部署,具有快速推理能力。

Qwen3-Reranker-4B
重排序

基于 Qwen3 系列的密集基础模型,专门设计用于排序任务。继承了基础模型卓越的多语言能力、长文本理解和推理技能,在排序任务中取得了显著进展。

bce-reranker-base_v1
重排序
4K

由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。[了解更多>](https://huggingface.co/maidalun1020/bce-reranker-base_v1)

tao-8k
图像理解
16K

tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 [了解更多>](https://huggingface.co/amu/tao-8k)

Embedding-V1
图像理解
4K

Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。

人工导购
咨询服务