全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
通义千问3-0.6B
推理模型
文本生成
33K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列。

通义千问3-1.7B
推理模型
文本生成
33K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。通用能力显著超过Qwen2.5小规模系列,模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。

通义千问3-4B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、模型人类偏好能力显著增强,创意写作、角色扮演、多轮对话、指令遵循能力均有明显提升,用户体验预期明显更佳。

通义千问3-8B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。

通义千问3-14B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-14B。

通义千问3-32B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。

通义千问3-30B-A3B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。

通义千问3-235B-A22B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。

通义千问3-235B-A22B-Instruct-2507
文本生成
131K

基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-235B-A22B)主观创作能力与模型安全性均有小幅度提升。

通义千问3-235B-A22B-Thinking-2507
推理模型
文本生成
131K

基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-235B-A22B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。

通义千问3-30B-A3B-Thinking-2507
推理模型
文本生成
131K

基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-30B-A3B)复杂推理类任务性能优秀,包括逻辑推理、数学、科学、代码类等具有一定难度的任务场景,指令遵循、文本理解、多语言翻译等能力显著提高。

通义千问3-30B-A3B-Instruct-2507
文本生成
131K

基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-30B-A3B)中英文和多语言整体通用能力有大幅提升。主观开放类任务专项优化,显著更加符合用户偏好,能够提供更有帮助性的回复。

通义千问-Turbo
推理模型
文本生成
1024K

Qwen3系列Turbo模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-Turbo,达到同规模业界SOTA水平。

通义千问-Plus
推理模型
文本生成
131K

Qwen3系列Plus模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-Plus,达到同规模业界SOTA水平。

LLaVA-v1.6-13B
行业大模型

LLaVA是由一种端到端训练的多模态大模型,结合了一个视觉编码器和Vicuna,用于通用视觉和语言理解。

人工导购
咨询服务