1、引言
大語言模型(LLM)包含數千億參數,在大規(guī)模文本數據上訓練,展現出強大的自然語言理解和復雜任務解決能力。第一個重要里程碑是OpenAI發(fā)布的ChatGPT,它優(yōu)化了對話能力,能夠在多輪對話中準確追蹤上下文,且保持與人類價值觀的一致性。GPT-4在語言模型的基礎上進一步擴展到多模態(tài)信號,能夠解決復雜任務,顯著提升評估任務的性能。其他開源大語言模型如Llama-2、Falcon、ChatGLM3等也在迅速發(fā)展。LLM在金融領域展現出巨大潛力,逐漸成為處理金融問題的強大工具。金融大語言模型的起始是BloombergGPT,混合專業(yè)領域數據集的訓練使其在金融任務上表現優(yōu)秀,另外,首個針對中文金融領域優(yōu)化的千億級開源對話大模型是XUANYUAN,在金融場景的測評中,全面超越其他主流開源大模型。
金融證券領域的LLM應用對數據合規(guī)性、準確性、時效性要求高,需要私有化部署并進行個性化訓練,因此存在訓練數據和資源限制。我們嘗試利用小型高質量指令數據集微調LLM,驗證其在金融證券領域工作助手的有效性,構建了SecPile數據集用于微調訓練,包含金融和通用數據集。基于金融領域常見場景設計評測集,對微調后的模型在通用能力和金融能力方面進行SecScope評測。
2、證券行業(yè)大模型研發(fā)進展
Transformer模型自2017年提出以來,通過注意力機制和自監(jiān)督學習極大地提升了語言理解和生成能力,成為眾多大語言模型如BERT、RoBERTa、T5等的基礎。目前,技術如LoRA、P-tuning和Prompt-tuning展現了參數高效微調的優(yōu)勢,包括縮短訓練時間、減少顯存占用,并保持良好的泛化性,使用較少參數進行高效微調以獲得更佳效果是主流趨勢。
在金融領域,訓練數據集的構成對模型性能有顯著影響。研究表明多任務種類的微調數據,特別是COT數據,能進一步提升微調效果。數據質量被認為比數據集大小更重要,一個小規(guī)模高質量數據集可能優(yōu)于大規(guī)模低質量數據集。BloombergGPT和XUANYUAN金融大模型通過不同比例的垂直領域數據和通用數據平衡專業(yè)知識與多元應用能力。通過不同的預訓練模型和微調策略發(fā)掘金融領域大語言模型的潛力,例如通過混合調優(yōu)方法緩解災難性遺忘,為金融領域提供更加專業(yè)和精準的模型解決方案。
證券行業(yè)正處于推進金融與科技融合的關鍵階段,77家證券公司將數字化轉型作為公司發(fā)展的核心戰(zhàn)略,意在實現高質量發(fā)展并全面服務實體經濟。大模型技術在行業(yè)內的應用逐漸從零售經紀業(yè)務擴展到機構業(yè)務、資產管理、投資銀行等多個領域。一些頭部券商積極探索大模型技術在智能客服、數字化投行、智能投研、智能協作等細分應用領域的實際應用,中小券商也在積極利用AIGC技術提升自身的內容輸出水平?;诖竽P图夹g的語義理解和內容生成能力,行業(yè)內已有多家財富管理機構將其應用于生成符合要求的營銷文案和推廣策略,以提高營銷效果和用戶轉化率。此外,AI數字人等新技術也逐漸在證券行業(yè)落地,部分機構正探索將其嵌入到開戶流程、客戶服務等具體業(yè)務辦理中,與客戶進行實時互動和溝通。為了支撐上述的技術應用,部分券商正持續(xù)提升數據、算力、算法等能力,強化AI中臺技術沉淀和組件復用。但在實際應用中,合規(guī)、數據隱私保護等問題仍然需要重視。因此,行業(yè)需要進一步深度融合科技與業(yè)務,符合法律法規(guī),方能實現科技在金融領域的價值。
3、SecPile金融與通用數據集
SecPile數據集包含金融和通用兩個數據集,SecPile金融數據集由司內沉淀的問答數據和金融行業(yè)公開知識數據組成,經過預處理和迭代更新機制,保證時效性和準確性。數據集細分為金融從業(yè)考試知識點、金融基礎信息、行業(yè)知識數據和金融NLP任務數據。金融從業(yè)考試知識點包括高質量試題和教材資料,涵蓋證券、基金、期貨等專業(yè)科目。金融基礎信息來源于傳統(tǒng)金融數據平臺,包括上市公司、基金、債券等基礎信息。行業(yè)知識數據來自證監(jiān)會、證交所等,涵蓋專業(yè)知識、法律法規(guī)等。金融NLP任務數據收集自開源社區(qū)和比賽網站,包括文本摘要、實體識別、情感分析等任務,經過數據清洗和標準化處理,適用于模型微調和評測。
SecPile通用數據集由五個高質量的中英文微調數據集組成,覆蓋多輪對話、文本創(chuàng)作、中英翻譯、數據與編程等多領域任務。這些數據已在大型語言模型訓練中展現有效性,經過徹底清洗和預處理,提供豐富多樣性,支持模型在多領域、多場景下的訓練和優(yōu)化。數據集包括開放式問答與邏輯推理、文本生成與理解、交互式對話與翻譯等類型,來源多樣,通過自動化處理和人工審核確保數據質量。開放式問答與邏輯推理數據旨在提升模型的自然語言理解和邏輯推理能力;文本生成與理解數據集支持模型在復雜文本處理場景下的應用;交互式對話與翻譯數據集增強模型在語言轉換和邏輯編程方面的能力,確保了數據的高質量和實用性。
4、模型訓練與調優(yōu)過程
ChatGLM3-6B-Base是當前三個可選的開源基模型之一,以65.3分的最高綜合得分位列OpenCompass 1.0大語言模型榜單首位。該模型繼承并發(fā)展了前代模型的優(yōu)點,如流暢的對話體驗和低門檻部署要求,同時引入新特性如Prompt格式和函數調用功能,優(yōu)化多輪對話流暢性和連貫性,并支持復雜場景如代理任務。ChatGLM3通過多樣化訓練數據集、增加訓練步驟和采用合理訓練策略,提升學習效率和性能,在多任務上表現出色。ChatGLMForConditionalGeneration模型架構專為條件生成任務設計,包括詞嵌入層、旋轉位置嵌入技術、由28個GLMBlock組成的編碼器和輸出層,具備改進的長距離依賴處理能力、更高處理效率和準確性,以及更好的穩(wěn)定性和性能。訓練配置方面,優(yōu)化了多項參數以提高模型性能,采用混合精度訓練和Deepspeed框架,通過零冗余優(yōu)化和offload技術減少內存占用,實現更大參數量模型的訓練。
我們基于BloombergGPT的經驗,將初始學習率設定為6e-5,并使用帶線性預熱和線性衰減的學習率調度器,見圖一。通過不同學習率的控制變量訓練,發(fā)現2e-5的學習率在訓練過程中表現出更好的穩(wěn)定性和平滑性,見圖二。為應對學習率下降過快的問題,我們采用了WarmupCosineLR策略進行更緩慢的學習率衰減,但這一調整并未顯著改善損失曲線的最終值。進一步,我們通過調整weight_decay值從1e-6降低至1e-7,減小了損失函數的波動。綜合考慮損失下降速度、最終損失值和訓練過程的穩(wěn)定性,我們選擇了學習率為2e-5、調度器為cosine、權重衰減為1e-7的訓練方案,以優(yōu)化模型的性能和穩(wěn)定性,最終微調訓練成XCGLM證券垂類大語言模型。
5、SecScope通用與金融能力評測
大語言模型在通用能力方面需掌握跨學科知識進行推理,研究通過C-Eval、CMMLU、MMLU和AGIEval四個評測集評估模型的邏輯推理和數學計算能力,并構建專門的意圖識別評測集評估模型對文本意圖的理解能力。在金融領域,模型常應用于摘要生成、關鍵詞提取、實體識別和情感分析等任務,研究設計了SecScope測試集評估XCGLM在證券領域任務的表現,包括金融能力評估、摘要生成、關鍵詞提取、實體識別和情感分析五部分,使用XSum、LCSTS、CSL評測集和新浪新聞標注數據等作為評估基準,對FiQA SA和FPB金融情緒分析數據集進行清洗和校準,構建金融行業(yè)專用情感分析測試集。
圖3評測模型能力雷達圖
在參數量相近的情況下,大語言模型展現出了類似的性能水平,且隨著參數量的增加,性能有顯著提升。經過針對“遺忘性災難”專門化訓練的模型,如XCGLM和Tongyi-Finance-14B,在通用能力上略遜于原始基礎模型,但在金融領域的知識、從業(yè)能力和特定文本分析任務上表現卓越,尤其是在處理復雜特定提示詞的任務時,XCGLM能更全面地遵循指令,產出更高質量的結果,如圖3。這證明了專業(yè)化訓練對提升大語言模型在特定領域應用的實際效能的重要性,通過小型高質量數據集微調,能有效打造針對特定行業(yè)領域的工作助手,顯著提升從業(yè)人員的工作效率,發(fā)揮重要作用。
6、總結與展望
本文探討了大語言模型在證券領域的應用與優(yōu)化,通過構建綜合性的SecPile數據集,平衡模型的通用性和金融特性,提供豐富的微調和評測資源。選用ChatGLM3-6B-Base作為基模型,優(yōu)化其結構和訓練配置,提升模型在金融領域任務集上的表現。微調后的模型有效完成金融實體識別、問答、關鍵詞提取、情感分析等任務,提高金融從業(yè)人員工作效率。本文證明利用小型高質量指令數據集微調大語言模型的有效性,為構建特定領域工作助手提供經驗。同時,也凸顯了大語言模型在金融領域的潛力及持續(xù)探索優(yōu)化的重要性。
未來,大模型的發(fā)展更加側重垂直領域應用,或分為行業(yè)應用和創(chuàng)新創(chuàng)意兩個賽道,行業(yè)應用是對傳統(tǒng)業(yè)務的賦能和顛覆,創(chuàng)新創(chuàng)意應用則是利用AIGC邏輯創(chuàng)造出新質生產力。對于證券行業(yè),大模型賦能券商業(yè)務是我們接下來深入研究的方向,科技必須和業(yè)務場景結合,才能發(fā)揮相應的價值和能力。取經于互聯網+經驗,在AIGC+時代下,進一步幫助企業(yè)和個人提質增效。對于信息技術部門來說,通過數據、算力、算法能力研發(fā)大模型應用開發(fā)平臺是首要工作事項。在此平臺上,基于目前大模型成熟的語義理解和內容生成能力,證券行業(yè)或可以在營銷軟文創(chuàng)作、智能投顧、群聊智能助手、代碼助手等方向尋求應用落地。隨著大模型的能力逐步提升,大模型Agent與RPA機器人的結合是我們持續(xù)探索和落地的方向。
作者(姓名、單位、職務)
鄧綱 湘財證券股份有限公司總裁助理、信息技術中心總經理
李鵬 湘財證券股份有限公司、信息技術中心大數據開發(fā)崗
吳星諭 湘財證券股份有限公司、信息技術中心量化策略與數據分析崗
王鄭毅 湘財證券股份有限公司、信息技術中心大數據開發(fā)崗
劉文貴 湘財證券股份有限公司、信息技術中心需求分析管理崗
(CIS)
多地召開“新春第一會” 高質量發(fā)展、改革創(chuàng)新等被“置頂”
隨著春節(jié)假期結束,全國多地在蛇年首個工作……[詳情]
00:41 | 復星國際繼續(xù)退出重資產項目 未來... |
00:41 | 政策推動疊加廠商促銷 3月份多家車... |
00:41 | 老鋪黃金去年凈利潤同比增長254% ... |
00:41 | 博俊科技去年營收凈利齊增 擬擲16... |
00:41 | 折疊屏手機銷售火熱 產業(yè)鏈上下游... |
00:41 | 上市公司首季發(fā)布247條項目中標公... |
00:41 | 充換電設施建設迎政策利好 上市公... |
00:41 | 靈伴科技:“AI+AR”眼鏡讓虛實無... |
00:37 | 上市險企代理人數量基本企穩(wěn) |
00:37 | 3月份新成立股基數量創(chuàng)近十年單月... |
00:37 | 一季度公募基金分紅逾675億元 同比... |
00:37 | 基金年報曝光2024年券商研究業(yè)務“... |
版權所有證券日報網
互聯網新聞信息服務許可證 10120180014增值電信業(yè)務經營許可證B2-20181903
京公網安備 11010202007567號京ICP備17054264號
證券日報網所載文章、數據僅供參考,使用前務請仔細閱讀法律申明,風險自負。
證券日報社電話:010-83251700網站電話:010-83251800 網站傳真:010-83251801電子郵件:xmtzx@zqrb.net
安卓
IOS
掃一掃,加關注
掃一掃,加關注