阿里云通义开源长文本模型及推理框架 百万Tokens处理速度提升近7倍

每经记者 叶晓丹    每经编辑 张海妮    

1月27日凌晨,阿里云通义开源支持100万Tokens上下文的Qwen2.5-1M模型,推出7B及14B两个尺寸,均在处理长文本任务中稳定超越GPT-4o-mini;同时开源推理框架,在处理百万级别长文本输入时可实现近7倍的提速。

百万Tokens长文本,可换算成10本长篇小说、150小时演讲稿或3万行代码。两个月前,Qwen2.5-Turbo升级了百万Tokens的上下文输入能力。如今,开源社区可基于全新的Qwen2.5-1M系列模型,进行长篇小说或多篇学术论文的解析,或是探索仓库级代码的分析和升级。

责编 张海妮

原标题: 阿里云通义开源长文本模型及推理框架 百万Tokens处理速度提升近7倍

Copyright© 2014 成都每日经济新闻社有限公司版权所有,未经许可不得转载使用,违者必究

互联网新闻信息服务许可证:51120190017  

网站备案号:蜀ICP备19004508号-2  

川公网安备 51019002002025号