
这次推出的两大新模型分别是:Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M。它们在处理长文本任务时展现出超越GPT-4o-mini的稳定性能,特别是在处理百万级别长文本输入时,能够实现近七倍的提速。这相当于能够在百万级别的文本内容中,如一本长篇小说、一天的工作量或者成千上万的代码行里,进行精确高效的信息检索和加工。这不仅标志着模型的一大突破,也意味着我国在自然语言处理领域的成就更上一层楼。而且随着语境扩展至上百万,全新的业务应用场景与方向都已被开启。现在相关的推理框架和技术报告已经对外发布。那么,这个模型究竟有哪些突出表现呢?让我们一起深入了解。
模型性能篇:对于Qwen系列新模型的表现,首先是在长上下文任务中的卓越性能。在Passkey Retrieval任务中,这些模型能够从长达百万的文档中精准检索出隐藏信息。特别值得一提的是,仅7B模型在少数任务现误差。在更复杂的长上下文理解任务中,其综合表现超越了之前版本的模型,显示出更强大的适应性和处理能力。与GPT-4o-mini的对比中,Qwen系列展现了一定的优势。而在短文本任务上,这些新模型同样表现出色,确保了基本能力不受影响。这样的性能不仅得益于其先进的架构设计和算法优化,也离不开阿里云团队的辛勤研发和创新精神。让我们来探究一下这些模型背后的关键技术吧。
