各位AITOP100平台的家人们,7月31日,阿里通义千问团队推出了Qwen3-30B-A3B模型的全新版本:Qwen3-30B-A3B-Thinking-2507。这款新模型不仅在推理能力上有了质的飞跃,还在通用能力和上下文理解方面实现了全面升级。对于开发者、研究人员以及AI爱好者来说,这无疑是一个值得关注的重大更新。
数学与代码能力双提升,超越同类竞品
先说说大家最关心的性能提升。Qwen3-30B-A3B-Thinking-2507在数学和编程领域的表现堪称惊艳。在AIME25数学评测中,它以85.0的高分力压群雄,甚至超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)这两款知名模型。这意味着,无论是解决复杂的数学问题,还是进行逻辑推理,新模型都能提供更精准的答案。
而在代码能力测试LiveCodeBench v6中,Qwen3-30B-A3B-Thinking-2507同样表现出色,取得了66.0的高分。对于程序员来说,这无疑是一个好消息——它可以帮助开发者更高效地编写代码,甚至在调试和优化过程中提供有价值的建议。
通用能力全面升级,自然语言处理更强大
除了数学和代码能力,新模型在通用能力上也实现了质的飞跃。在写作(WritingBench)、Agent能力(BFCL-v3)、多轮对话和多语言指令遵循(MultiIF)等评测中,Qwen3-30B-A3B-Thinking-2507均超越了Gemini2.5-Flash(thinking)和Qwen3-235B-A22B(thinking)。这意味着,无论是撰写文章、进行多轮对话,还是处理多语言任务,新模型都能表现得更加出色。
举个例子,如果你是一名内容创作者,Qwen3-30B-A3B-Thinking-2507可以帮助你快速生成高质量的文章大纲,甚至直接撰写初稿。而对于需要处理多语言任务的企业来说,新模型的多语言指令遵循能力也能大大提升工作效率。
上下文理解能力大增强,支持更长文本输入
在AI应用中,上下文理解能力往往决定了模型的实际表现。Qwen3-30B-A3B-Thinking-2507在这方面也进行了重大升级——原生支持256K tokens,并可扩展至1M tokens。这意味着,它能够处理更长的文本输入,从而更好地理解和生成复杂的内容。
比如,在阅读一篇长篇报告或分析一本小说时,新模型可以更准确地把握上下文关系,提供更有深度的分析。此外,开发团队还增加了思考长度(thinking length),并推荐在高度复杂的推理任务中设置更长的思考预算,以充分发挥模型的潜力。
开源+轻量化,消费级硬件也能轻松部署
对于开发者和研究人员来说,模型的易用性和可访问性同样重要。Qwen3-30B-A3B-Thinking-2507已经在魔搭社区和HuggingFace上开源,轻量化的体积使得它可以在消费级硬件上轻松实现本地部署。这意味着,即使你没有强大的计算资源,也能体验到这款顶尖模型的强大能力。
同时,开发团队还在Qwen Chat上同步上线了新模型,欢迎开发者们前往体验其推理和生成能力。无论是进行学术研究,还是开发实际应用,Qwen3-30B-A3B-Thinking-2507都能为你提供强有力的支持。
体验地址:通义千问官网入口
具体位置按照下图指示操作:
总结:AI推理能力的新标杆
总的来说,Qwen3-30B-A3B-Thinking-2507的推出,标志着阿里通义千问团队在AI推理领域又迈出了重要一步。无论是数学、代码、通用能力,还是上下文理解,新模型都展现出了卓越的性能。更重要的是,它的开源和轻量化设计,让更多人能够轻松使用和部署这款顶尖模型。
如果你对AI技术感兴趣,或者正在寻找一款强大的推理模型,不妨前往魔搭社区、HuggingFace或Qwen Chat体验一下Qwen3-30B-A3B-Thinking-2507的魅力。相信它会给你带来不少惊喜!
想了解AITOP100平台其它版块的内容,请点击下方超链接查看
AI创作大赛 | AI活动 | AI工具集 | AI资讯专区
AITOP100平台官方交流社群二维码: