全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
通义千问-Turbo-2024-11-01
文本生成
1024K

在qwen-turbo-2024-09-19模型的能力之上,qwen-turbo-2024-11-01模型主要的提升点在扩展上下文长度,模型支持的最大上下文长度从128k扩展到1M,该长度约为100万个英文单词或150万个汉字,相当于10本长篇小说,150小时的演讲稿,3万行代码。

通义千问-Turbo-2024-09-19
文本生成
131K

通义千问系列速度最快、成本很低的模型,适合简单任务。模型中英文综合能力显著提升,模型人类偏好显著提升,模型推理能力和复杂指令理解能力显著增强,困难任务上的表现更优,数学、代码能力显著提升。

通义千问-Turbo-2025-02-11
文本生成
1024K

通义千问系列速度最快、成本很低的模型,适合简单任务。长序列性能明显提升,回复风格面向人类偏好进行大幅调整。

通义千问2.5-VL-32B
图片理解
131K

Qwen2.5VL系列模型,在math和学科问题解答达到了接近Qwen2.5VL-72B的水平,回复风格面向人类偏好进行大幅调整,尤其是数学、逻辑推理、知识问答等客观类query,模型回复详实程度和格式清晰度明显改善。此版本为32B版本。

Moonshot-Kimi-K2-Instruct
文本生成
131K

Kimi-K2是月之暗面提供的国内首个开源万亿参数MoE模型,激活参数达 320 亿,具有卓越的编码和工具调用能力。

GLM-4.5-Air
文本生成
131K

GLM-4.5-Air采用混合专家(MoE)架构,总参数量为1060亿,激活参数120亿,相较GLM-4.5更紧凑、轻量,适用于对模型规模和资源消耗有一定限制的场景。

GLM-4.5
文本生成
131K

GLM-4.5采用混合专家(MoE)架构,总参数量为3550 亿,激活参数320亿,在复杂推理、代码生成及智能体交互等通用能力上实现了能力融合与技术突破。

DeepSeek-R1-0528
推理模型
131K

0528为R1模型的小版本升级,相较于旧版 R1,新版在复杂推理任务中的表现有了显著提升。在数学、编程与通用逻辑等多个基准测评中取得了优异成绩。

通义千问3-Coder-30B-A3B-Instruct
文本生成
262K

基于Qwen3的代码生成模型,继承Qwen3-Coder-480B-A35B-Instruct的coding agent能力,代码能力达到同尺寸规模模型SOTA。

通义千问3-Coder-480B-A35B-Instruct
文本生成
262K

基于Qwen3的代码生成模型,具有强大的Coding Agent能力,代码能力达到开源模型 SOTA。

通义千问-QVQ-Plus-2025-05-15
推理模型
视频理解
图片理解
131K

通义千问QVQ视觉推理模型增强版,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。此版本为2025年5月15日快照模型。

通义千问-QVQ-Plus-Latest
推理模型
视频理解
图片理解
131K

通义千问QVQ视觉推理模型增强版,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。此版本为动态更新版本。

通义千问-QVQ-Plus
推理模型
视频理解
图片理解
131K

通义千问QVQ视觉推理模型增强版,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力

通义千问-QVQ-Max-2025-03-25
图片理解
推理模型
131K

通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。该模型为QVQ-Max的2025年03月25号的历史快照,预期维护到下个快照版本发布时间(待定)后一个月。

通义千问-QVQ-Max-2025-05-15
推理模型
视频理解
图片理解
131K

通义千问QVQ视觉推理模型,支持视觉输入及思维链输出,在数学、编程、视觉分析、创作以及通用任务上都表现了更强的能力。该模型为QVQ-Max的2025年05月15号的历史快照。

人工导购
咨询服务