證券日報(bào)微信

證券日報(bào)微博

您所在的位置: 網(wǎng)站首頁 > TMT頻道 > TMT行業(yè) > 正文

阿里云通義開源長文本模型及推理框架 百萬Tokens處理速度提升近7倍

2025-01-27 13:11  來源:證券日報(bào)網(wǎng) 

    本報(bào)訊 (記者袁傳璽)

    1月27日凌晨,阿里云通義重磅開源支持100萬Tokens上下文的Qwen2.5-1M模型,推出7B及14B兩個(gè)尺寸,均在處理長文本任務(wù)中穩(wěn)定超越GPT-4o-mini;同時(shí)開源推理框架,在處理百萬級別長文本輸入時(shí)可實(shí)現(xiàn)近7倍的提速。

    百萬Tokens長文本,可換算成10本長篇小說、150小時(shí)演講稿或3萬行代碼。兩個(gè)月前,Qwen2.5-Turbo升級了百萬Tokens的上下文輸入能力,廣受開發(fā)者和企業(yè)歡迎。如今,開源社區(qū)可基于全新的Qwen2.5-1M系列模型,進(jìn)行長篇小說或多篇學(xué)術(shù)論文的解析,或是探索倉庫級代碼的分析和升級。

    Qwen2.5-1M擁有優(yōu)異的長文本處理能力。在上下文長度為100萬Tokens的大海撈針(PasskeyRetrieval)任務(wù)中,Qwen2.5-1M能夠準(zhǔn)確地從1M長度的文檔中檢索出隱藏信息,僅有7B模型出現(xiàn)了少量錯(cuò)誤。在RULER、LV-Eval等基準(zhǔn)對復(fù)雜長上下文理解任務(wù)測試中,Qwen2.5-14B-Instruct-1M模型不僅擊敗了自家閉源模型Qwen2.5-Turbo,還穩(wěn)定超越GPT-4o-mini,為開發(fā)者提供了一個(gè)現(xiàn)有長上下文模型的優(yōu)秀開源替代。

    大模型的長文本訓(xùn)練需要消耗大量的計(jì)算資源,通義團(tuán)隊(duì)通過逐步擴(kuò)展長度的方法,從預(yù)訓(xùn)練到監(jiān)督微調(diào)再到強(qiáng)化學(xué)習(xí)等多個(gè)階段,高效地將Qwen2.5-1M的上下文長度從4K擴(kuò)展到256K;再通過長度外推的技術(shù),創(chuàng)新引入Dual Chunk Attention機(jī)制,在無須額外訓(xùn)練的情況下,將上下文長度高性能地穩(wěn)定擴(kuò)展到1M,從而在較低成本下實(shí)現(xiàn)了Qwen2.5-1M模型。

    同時(shí),為了加快推理速度,通義團(tuán)隊(duì)在vLLM推理引擎基礎(chǔ)上,引入基于Minference的稀疏注意力機(jī)制,并在分塊預(yù)填充、集成長度外推方案和稀疏性優(yōu)化等多環(huán)節(jié)創(chuàng)新改進(jìn)?;谶@些改進(jìn)的推理框架有效地加快了模型推理速度,在不同模型大小和GPU設(shè)備上,處理1M長度輸入序列的預(yù)填充速度提升了3.2倍到6.7倍。

    據(jù)了解,Qwen2.5-1M已經(jīng)在魔搭社區(qū)ModelScope和HuggingFace等平臺開源,開發(fā)者可前往下載或直接體驗(yàn)?zāi)P?;相關(guān)推理框架也已在GitHub上開源,幫助開發(fā)者更高效地部署Qwen2.5-1M模型。開發(fā)者和企業(yè)也可通過阿里云百煉平臺調(diào)用Qwen2.5-Turbo模型API,或是通過全新的Qwen Chat平臺體驗(yàn)?zāi)P托阅芗靶Ч?/p>

(編輯 張偉)

-證券日報(bào)網(wǎng)

版權(quán)所有證券日報(bào)網(wǎng)

互聯(lián)網(wǎng)新聞信息服務(wù)許可證 10120180014增值電信業(yè)務(wù)經(jīng)營許可證B2-20181903

京公網(wǎng)安備 11010202007567號京ICP備17054264號

證券日報(bào)網(wǎng)所載文章、數(shù)據(jù)僅供參考,使用前務(wù)請仔細(xì)閱讀法律申明,風(fēng)險(xiǎn)自負(fù)。

證券日報(bào)社電話:010-83251700網(wǎng)站電話:010-83251800

網(wǎng)站傳真:010-83251801電子郵件:xmtzx@zqrb.net

官方客戶端

安卓

IOS

官方微信

掃一掃,加關(guān)注

官方微博

掃一掃,加關(guān)注