全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
jina-reranker-v2-base-multilingual
重排序

基于Transformer的模型,已经针对文本重排序任务进行了微调,这是许多信息检索系统中的关键组件。

bge-reranker-v2-m3
重排序

北京智源人工研究院研发的轻量级重排序模型,具备强大的多语言能力,易于部署,具有快速推理能力。

Qwen3-Reranker-4B
重排序

基于 Qwen3 系列的密集基础模型,专门设计用于排序任务。继承了基础模型卓越的多语言能力、长文本理解和推理技能,在排序任务中取得了显著进展。

bce-reranker-base_v1
重排序
4K

由网易有道开发的跨语种语义表征算法模型,擅长优化语义搜索结果和语义相关顺序精排,支持中英日韩四门语言,覆盖常见业务领域,支持长package rerank(512~32k)。[了解更多>](https://huggingface.co/maidalun1020/bce-reranker-base_v1)

tao-8k
图像理解
16K

tao-8k是由Huggingface开发者amu研发并开源的长文本向量表示模型,支持8k上下文长度,模型效果在C-MTEB上居前列,是当前最优的中文长文本embeddings模型之一。 [了解更多>](https://huggingface.co/amu/tao-8k)

Embedding-V1
图像理解
4K

Embedding-V1是基于百度文心大模型技术的文本表示模型,将文本转化为用数值表示的向量形式,用于文本检索、信息推荐、知识挖掘等场景。

gme-Qwen2-VL-2B-Instruct
图像理解
16K

GME-Qwen2VL系列统一的多模态Embedding模型基于Qwen2-VL 多模态大型语言模型 (MLLMs)训练。

Qwen3-Embedding-0.6B
图像理解
16K

Qwen3 Embedding 模型系列是 Qwen 家族的最新专有模型,专门设计用于文本嵌入和排序任务。基于 Qwen3 系列的密集基础模型,它提供了各种大小(0.6B、4B 和 8B)的全面文本嵌入和重排序模型。

Qwen3-Embedding-4B
图像理解
16K

Qwen3 Embedding 模型系列是 Qwen 家族的最新专有模型,专门设计用于文本嵌入和排序任务。基于 Qwen3 系列的密集基础模型,它提供了各种大小(0.6B、4B 和 8B)的全面文本嵌入和重排序模型。

Qwen3-Embedding-8B
图像理解
16K

Qwen3 Embedding 模型系列是 Qwen 家族的最新专有模型,专门设计用于文本嵌入和排序任务。基于 Qwen3 系列的密集基础模型,它提供了各种大小(0.6B、4B 和 8B)的全面文本嵌入和重排序模型。该系列继承了其基础模型卓越的多语言能力、长文本理解和推理技能。Qwen3 Embedding 系列表现出了在多种文本嵌入和排序任务中的显著进步,包括文本检索、代码检索、文本分类、文本聚类和双语文本挖掘。

stablelm-base-alpha-7b
多模态
16K

Stability AI开发的7B参数的NeoX transformer架构语言模型,支持4k上下文。[了解更多>](https://huggingface.co/stabilityai/stablelm-base-alpha-7b)

gpt-neox-20b
多模态
16K

由EleutherAI开发,使用GPT-NeoX库,基于Pile训练的200亿参数自回归语言模型,模型结构与GPT-3、GPT-J-6B类似。[了解更多>](https://huggingface.co/EleutherAI/gpt-neox-20b)

gpt-j-6b
多模态
16K

EleutherAI开发的6B参数transformer模型,基于[Mesh Transformer JAX训练](https://github.com/kingoflolz/mesh-transformer-jax/)。[了解更多>](https://huggingface.co/tiiuae/falcon-40b-instruct)

gpt4all-j
多模态
16K

EleutherAI开发的6B参数transformer模型,基于[Mesh Transformer JAX训练](https://github.com/kingoflolz/mesh-transformer-jax/)。[了解更多>](https://huggingface.co/tiiuae/falcon-40b-instruct)

pythia-12b
多模态
16K

由EleutherAI研发并开源,在Pile数据集上训练的12B参数transformer语言模型。[了解更多>](https://huggingface.co/EleutherAI/pythia-12b)

人工导购
咨询服务