日韩精品一区第一页,久久精品亚洲一区二区,污的网站在线观看,亚洲精品中文字

科研進展

當前位置:首頁 > 科學研究 > 科研進展

科學島團隊提出一種面向大模型的低秩自適應微調框架GoRA

作者:吳銀亭發布時間:2025-11-20【打印】【關閉】

近日,中國科學院合肥物質院智能所仿生智能中心陳雷團隊聯合上海人工智能實驗室與香港中文大學,提出一種面向大模型的低秩自適應微調框架GoRA,相關論文“GoRA: Gradient-driven Adaptive Low Rank Adaptation”被國際機器學習三大頂級會議之一NeurlIPS 2025高分(Average Rating:4.50)錄用。智能所碩士研究生何浩楠與香港中文大學博士后葉鵬為共同第一作者。

GoRA是一種全新的低秩自適應微調框架,旨在同時解決低秩微調方法LoRA中的兩個關鍵瓶頸問題:秩的選擇與權重初始化。現有方法通常僅優化其一,或在提升性能的同時犧牲效率與實用性,而GoRA創新性地利用預訓練權重的梯度信息,在訓練前動態分配每個適配器的最優秩,并以梯度壓縮為基礎對低秩矩陣進行自適應初始化。這一設計不僅避免了對原始預訓練權重的修改,徹底消除了訓練與推理之間的“權重不一致”問題,還顯著提升了微調性能,同時幾乎不增加額外的計算或內存開銷。值得一提的是,GoRA保持了與標準LoRA完全兼容的結構設計,可無縫集成到現有大模型訓練流程中,并支持分布式訓練。其引入的自適應梯度累積與縮放因子自動調優策略,進一步降低了超參數調優負擔,顯著提升了方法的“開箱即用”能力。

在多項基準實驗中,GoRA展現出卓越的泛化能力。在Llama3.1-8B-Base模型上進行數學推理微調時,GoRA以參考秩 r=8 的設定即超越標準LoRA5.13個百分點(GSM8K);在更高秩設定下,其性能甚至反超全參數微調(full fine-tuning2.05個百分點。此外,GoRA在自然語言理解(GLUE)、代碼生成(HumanEval)、對話評估(MT-Bench)以及圖像分類(CLIP-ViT)等多個任務和模態上均優于現有LoRA變體,驗證了其跨架構、跨模態的強大適應性。

此項研究不僅為大模型高效微調提供了新范式,也為未來面向資源受限場景的輕量化模型部署開辟了新路徑,具有重要的理論價值與應用前景。本研究得到國家重點研發計劃與國家自然科學基金的支持。

論文鏈接:https://openreview.net/forum?id=d1dL1ymD6N

1 GoRA方法與其他方法的區別

附件下載

主站蜘蛛池模板: 达孜县| 利辛县| 增城市| 上高县| 台东市| 济南市| 平利县| 佳木斯市| 襄汾县| 玛纳斯县| 雅安市| 长宁区| 防城港市| 墨玉县| 凉城县| 普兰店市| 岑巩县| 鲁甸县| 陇南市| 宜兰县| 新绛县| 台中市| 禹州市| 广饶县| 德保县| 杭锦后旗| 高碑店市| 礼泉县| 锡林浩特市| 厦门市| 垫江县| 承德市| 上高县| 滕州市| 崇州市| 安顺市| 喜德县| 揭东县| 阿拉善右旗| 桃源县| 开原市|