AI大模型落地遇冷,金融機構加速探索技術路徑
年初以來,隨著DeepSeek爆火,金融機構競相開展大模型計劃。工商銀行近日宣布完成DeepSeek大模型私有化部署,“工銀智湧”體系已覆蓋信貸、風控等20余個業務條線,落地場景超200個,成為大行AI轉型標杆。截至3月10日,已有20余家銀行宣布接入Deepseek系列模型。目前,盡管金融機構對大模型的熱情高漲,實際應用效果卻並不如預期。
一方面,大模型在金融領域的應用效率並不理想,比如許多銀行在引入大模型後,發現生成的內容需要大量人工幹預,甚至在一些關鍵業務上,AI的可靠性不如人工處理。另一方面,盡管DeepSeek的開源特性推動金融業的“技術普惠”,但金融機構在應用過程中仍面臨數據安全與合規的挑戰。
業內人士表示,盡管金融機構對AI大模型的應用充滿期待,但目前仍面臨效率瓶頸、技術局限以及“幻覺”問題等多重挑戰,在提升效率的同時解決上述問題,成為金融行業亟待攻克的難題。
高投入、低產出的瓶頸
在采訪過程中,記者發現,AI大模型在金融行業的應用實際效果與預期仍有較大差距。
某大行員工對記者表示,在實際工作中,AI系統生成的內容常常需要大量人工幹預,在一些關鍵業務上,AI的表現還不如人工處理可靠。
某股份行的科技部門負責人也表示,目前銀行的業務主線流程中,大模型的切入還比較有限,主要集中在所謂的“邊緣業務”。例如,智能報告系統雖然被視為一個亮點,但目前仍需要通過人工幹預來解決幻覺等問題,無法完全依賴AIGC實現全自動化解決業務痛點。
比如,在輔助合同審核方面,盡管不少金融機構已經引入了AI大模型,但目前准確性欠佳。許多銀行雖然優化了櫃面流程,但由於機器的准確度不夠,人工還需要再檢查一遍,這並沒有達到省事的效果。一位銀行櫃員對記者說:“機器審核的結果我們不敢完全信任,最後還是要靠人工復核,反而增加了工作量。”
不僅如此,AI大模型在處理關鍵金融業務時的專業辨別能力仍存在不足。例如,在信貸審批領域,大模型可能無法准確區分正常的貸款審批和潛在的貸款詐騙行為。
記者還從多家證券機構了解到,盡管一些金融大模型早已深入行業操作流程,但在文件報送、高頻交易等重要環節,仍需依賴人工審核。一位證券機構交易員表示:“之前可能兩個人做一個環節,花上兩三個小時也就結束了,現在先讓大模型做,還要給關鍵詞、調整邏輯,最後還要核對一遍,前後花費的時間和自己做差不多,甚至還要多。”
此外,不少銀行員工還關心大模型在授信流程中的應用。他們希望大模型能夠生成盡調報告,並將數據整理成表格,從而減輕人工負擔。然而,目前這一功能的實現也不太理想。一位股份行授信部門員工對記者說:“大模型生成的盡調報告內容不完整,數據表格也經常出錯,我們只能當作參考,大部分工作還是要自己來。”
AI大模型“高投入、低產出”也成為金融機構面臨的挑戰。在成本方面,不少銀行科技部門引入大模型的投入巨大,無論是服務采買還是運行所需的硬件資源,都是一筆不小的開支,但效益卻難以量化。一位大行科技部門員工向記者透露:“我們引入大模型後,硬件設備的投入增加了近30%,但實際業務效率提升並不明顯,這讓管理層對後續投入產生了疑慮。”
某股份行員工還向記者透露,該行此前斥巨資打造AI系統,但運行結果不盡如人意。“我們投入了大量資源,但實際收益卻微乎其微。”該員工表示,這個系統一半的時間被用於演示PPT,另一半的時間則被用於修復系統漏洞。
去“幻覺”的探索
隨著人工智能技術在金融領域的廣泛應用,AI大模型的“幻覺”問題逐漸成為行業關注的焦點。所謂“幻覺”,是指AI大模型生成的內容與現實不符或缺乏依據的現象,這在金融領域可能導致嚴重的信息誤導和風險。
“大模型的幻覺現象主要由多個因素共同作用,其中訓練數據的質量、金融領域的復雜性以及模型架構設計是關鍵影響因素。”數字經濟學者、工信部信息通信經濟專家委員會委員、DCCI互聯網研究院院長劉興亮對記者表示。
北京國家金融科技認證中心副總經理李振指出,金融行業涉及復雜的金融工具、市場動態和專業術語,模型理解這些內容的難度較大。一方面,訓練數據的不准確可能導致模型出現缺陷;另一方面,存在偏差的對齊數據可能使模型傾向於迎合用戶觀點,而非依據客觀事實進行判斷。
華院計算蔡華博士對記者表示,自回歸文本生成方式由於缺乏外部知識驗證機制,容易出現幻覺問題。在處理長文本推理和復雜邏輯推理時,這種局限性尤為明顯。特別是在跨段落、跨文檔推理時,模型容易引入邏輯混亂或錯誤推斷,進一步加大了幻覺出現的概率。
為應對這一挑戰,金融機構和科技企業正在積極探索解決方案。記者了解到,目前,金融領域的解決方案主要圍繞RAG(搜索增強生成)、高質量指令參數數據集、結合格式化數據和計算能力進行優化。
“RAG技術可以通過改變提示的方式,有效提高回答的准確性。”華院計算董事長宣曉華對記者表示,大模型主要依賴歸納法進行學習和生成,在微調階段,如果使用高質量的數據集,且該數據集能夠全面覆蓋所屬領域的各個方面,那麼大模型的可靠性也會得到顯著提升。
大型金融機構更傾向於采用RAG+搜索的方式,結合專業數據庫進行金融數據庫的標注和分析。某大型外資銀行科技部門人士對記者表示,數據是AI大模型的基礎,質量直接影響模型的准確性和可靠性,采用RAG技術,讓AI在回答問題時能夠實時調用專業領域的知識和數據,從而提高輸出的准確性和可靠性。
例如,在專業的保險領域,往往需要投入大量人力與時間,對海量的保險條款、PDF文檔及Excel數據進行加工與標簽化處理,確保數據的准確性和可用性。上海燕道數科負責人婁道永對記者表示,保險大模型往往要通過積累海量數據並運用精算技術,將全國范圍內的保險產品、社保規則及相關法律法規等信息進行結構化處理,涵蓋全行業壽險產品、社保規則以及養老、醫療等多維度數據,這不僅需要強大的技術支持,更離不開專業精算團隊的深度參與。
定制化訓練與場景優化也是金融機構在去“幻覺”化中常用的辦法。金融機構通過定制化訓練,針對特定業務場景優化AI模型。例如,寧波銀行接入DeepSeek大模型後,通過業務人員的微調訓練和專業語料庫支持,嘗試降低“幻覺”問題。富國基金則通過將大語言模型應用於量化投資決策,利用情緒因子等技術提升業務效率。
上海人工智能研究院算法專家陸文韜總結,為了能有效避免AI大模型生成錯誤結果、產生“幻覺”,從技術實現角度應該注意三個方面問題,一是確保訓練數據的高質量和多樣性至關重要,二是調整模型架構與訓練策略,三是完善實時監控與反饋機制。
除了RAG架構之外,還可以采用多種方法來優化模型性能。蔡華對記者表示,例如,強化學習優化(RLHF),通過人類反饋提升輸出的真實性和專業性,減少錯誤。同時,是基於約束的生成,利用外部API校驗或規則模板約束,避免生成不符合事實的內容。此外,結合Agent技術,增強模型的工具調用和任務規劃能力,減少幻覺,提升在金融等領域的可靠性。
對於場景優化中保護行業核心技術和數據的問題,陸文韜提出,為保障金融科技領域的數據安全與合規,行業可借鑒數據脫敏與加密、可信數據生態構建、合規工具鏈完善等方法。例如,采用聯邦學習實現“數據可用不可見”,確保原始數據不外泄;利用區塊鏈技術進行語料共享存證,實現數據確權與溯源等。


分享: |
注: |