全部
多模态
文本
图片
视频
语音
推理模型
排序模型
向量模型
行业模型
其他
全部
<=8k
<=32k
<=64k
<=128k
>128k
全部
DeepSeek
GPT
Llama
通义千问
GLM
通义千问3-30B-A3B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-14B,达到同规模业界SOTA水平。

通义千问3-235B-A22B
推理模型
文本生成
131K

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-72B-Instruct,达到同规模业界SOTA水平。

通义千问3-235B-A22B-Instruct-2507
文本生成
131K

基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-235B-A22B)主观创作能力与模型安全性均有小幅度提升。

通义千问3-235B-A22B-Thinking-2507
推理模型
文本生成
131K

基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-235B-A22B)逻辑能力、通用能力、知识增强及创作能力均有大幅提升,适用于高难度强推理场景。

通义千问3-30B-A3B-Thinking-2507
推理模型
文本生成
131K

基于Qwen3的思考模式开源模型,相较上一版本(通义千问3-30B-A3B)复杂推理类任务性能优秀,包括逻辑推理、数学、科学、代码类等具有一定难度的任务场景,指令遵循、文本理解、多语言翻译等能力显著提高。

通义千问3-30B-A3B-Instruct-2507
文本生成
131K

基于Qwen3的非思考模式开源模型,相较上一版本(通义千问3-30B-A3B)中英文和多语言整体通用能力有大幅提升。主观开放类任务专项优化,显著更加符合用户偏好,能够提供更有帮助性的回复。

通义千问-Turbo
推理模型
文本生成
1024K

Qwen3系列Turbo模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力以更小参数规模比肩QwQ-32B、通用能力显著超过Qwen2.5-Turbo,达到同规模业界SOTA水平。

通义千问-Plus
推理模型
文本生成
131K

Qwen3系列Plus模型,实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-Plus,达到同规模业界SOTA水平。

LLaVA-v1.6-13B
行业大模型

LLaVA是由一种端到端训练的多模态大模型,结合了一个视觉编码器和Vicuna,用于通用视觉和语言理解。

InternVL2_5-4B
行业大模型
16K

一个基于 InternVL 2.0 的先进多模态大语言模型(MLLM)系列,在保持其核心模型架构的同时,显著增强了训练和测试策略以及数据质量。

InternVL2_5-8B
行业大模型
16K

一个基于 InternVL 2.0 的先进多模态大语言模型(MLLM)系列,在保持其核心模型架构的同时,显著增强了训练和测试策略以及数据质量。

InternVL2_5-38B-MPO
行业大模型
16K

一个基于 InternVL 2.0 的先进多模态大语言模型(MLLM)系列,在保持其核心模型架构的同时,显著增强了训练和测试策略以及数据质量。

InternVL2-2B
行业大模型

与最先进的开源多模态大型语言模型相比,InternVL 2.0 超过了大多数开源模型。它在多种能力上表现出与专有商业模型相当的竞争性能,包括文档和图表理解、信息图问答、场景文本理解和 OCR 任务、科学和数学问题解决以及文化理解和综合多模态能力。

InternVL2-8B
行业大模型

与最先进的开源多模态大型语言模型相比,InternVL 2.0 超过了大多数开源模型。它在多种能力上表现出与专有商业模型相当的竞争性能,包括文档和图表理解、信息图问答、场景文本理解和 OCR 任务、科学和数学问题解决以及文化理解和综合多模态能力。

InternVL2-26B
行业大模型

与最先进的开源多模态大型语言模型相比,InternVL 2.0 超过了大多数开源模型。它在多种能力上表现出与专有商业模型相当的竞争性能,包括文档和图表理解、信息图问答、场景文本理解和 OCR 任务、科学和数学问题解决以及文化理解和综合多模态能力。

人工导购
咨询服务