Qwen[1]

将上下文长度扩展至百万 Tokens !

简介 在 Qwen2.5 发布之后,我们听到社区对处理更长序列的需求。在这段时间,我们针对长序列处理能力以及长序列下的推理效率进行了很多优化。今天,我们隆重推出新的 Qwen2.5-Turbo 版本,其特点在于: 更长的上下文支持: 我们首次将模型的上下文长度从 128k 扩展到 1M,该长度约为