通义千问VL-Max-1230(qwen-vl-max-1230),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能,本模型为2024年12月30日的快照版本。
通义千问VL-Max-1119(qwen-vl-max-1119),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能,本模型为2024年11月19日的快照版本。
通义千问VL-Max-1030(qwen-vl-max-1030),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能,本模型为2024年10月30日的快照版本。
通义千问超大规模视觉语言模型。相比Plus,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。本模型是动态更新版本,模型更新不会提前通知。
通义千问VL-Max-2025-04-02(qwen-vl-max-2025-04-02),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能,本模型为2025年04月02日的快照版本。
通义千问VL-Max-2025-01-25(qwen-vl-max-2025-01-25),即通义千问大规模视觉语言模型增强版。大幅提升细节识别能力和文字识别能力,支持超百万像素分辨率和任意长宽比规格的图像。在广泛的视觉任务上提供卓越的性能,本模型为2025年01月25日的快照版本。
通义千问VL-Max(qwen-vl-max),即通义千问超大规模视觉语言模型。相比增强版,再次提升视觉推理能力和指令遵循能力,提供更高的视觉感知和认知水平。在更多复杂任务上提供最佳的性能。
基于Qwen3的代码生成模型,继承Qwen3-Coder-Plus的coding agent能力,支持多轮工具交互,重点优化仓库级别理解能力并增加工具调用稳定性。本版本为2025年7月28日快照。
基于Qwen3的代码生成模型,具有强大的Coding Agent能力,擅长工具调用和环境交互,能够实现自主编程、代码能力卓越的同时兼具通用能力。本版本为2025年7月22日快照。
通义千问千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月3号的历史快照稳定版本,预期维护到下个快照版本发布时间(待定)后一个月。
通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。该模型为qwen-max的2024年4月28号的历史快照,预期维护到下个快照版本发布时间(待定)后一个月。
关注公众号
立刻获取最新消息及人工咨询