昆侖萬維攜手南洋理工大學搶發(fā)Q*算法:百倍提升7B模型推理能力
自 OpenAI 的 Q* 項目曝光后,引發(fā)業(yè)內眾多討論。據現有信息匯總,Q* 項目被視作 OpenAI 在探索人工通用智能(Artificial General Intelligence, AGI)道路上的一次重大嘗試,有望在包括數學問題解決能力、自主學習和自我改進等多個層面對人工智能技術帶來革新性突破。
英偉達科學家 Jim Fan、圖靈獎得主 Yann LeCun 等參與討論 OpenAI 的 Q* 實現方式
Meta 科學家田淵棟則認為 Q* 是 Q-learning 和 A* 的結合,且天然地適合推理任務,尤其在數學推理方面
不過迄今為止 OpenAI 沒有公開關于 Q* 算法的具體細節(jié),其效果究竟如何我們并不得而知。
昆侖萬維自 Q* 項目曝光以來,一直密切關注 Q* 的動向,且在第一時間就成立研究小組嘗試開發(fā)自己的 Q* 算法,希望打破 OpenAI 的封鎖,提升現有開源模型的推理能力。
經過數月的嘗試,昆侖萬維攜手新加坡南洋理工大學成功開發(fā)了一個名為 Q* 的算法,能夠顯著提升現有大模型的推理能力。在 GSM8K 數據集上,Q* 幫助 Llama-2-7b 提升至 80.8% 的準確率,超越了 ChatGPT;在 MATH 數據集上,Q* 幫助 DeepSeek-Math-7b 提升至 55.4% 的準確率,超越了 Gemini Ultra;在 MBPP 數據集上,Q* 幫助 CodeQwen1.5-7b-Chat 提升至 77.0% 的準確率,縮小了與 GPT-4 的編程水平差距。
論文:Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning
論文鏈接:https://arxiv.org/abs/2406.14283
Q* 能夠幫助小模型達到參數量比其大數十倍、甚至上百倍模型的推理能力,這一算法不僅大幅提升了小模型的性能,還顯著降低了計算資源的需求,為人工智能的廣泛應用帶來了全新可能,開創(chuàng)了高效智能的新紀元。
復雜推理任務全盤規(guī)劃
在《Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning》論文中,研究人員首先將大語言模型的推理軌跡分解為若干個狀態(tài),對于每一個狀態(tài),參考 DeepCubeA 中的設計,通過將定義 Path Cost 的 g (s_t) 函數和定義 Accumulated Reward 的 Q*(s_t, a_t) 集成到同一個 f (s_t) 函數內,實現了對歷史狀態(tài)收益和未來期望收益的綜合考慮。最后利用 A* 搜索算法對狀態(tài)進行最佳優(yōu)先搜索,實現了對復雜推理任務的全盤規(guī)劃,從而提升開源模型在推理任務上的性能。
其中 g (s_t) 表示當前軌跡中的多個歷史狀態(tài),既 {s1,...,s_t},的聚合收益。
具體 g (s_t) 的函數形式可以通過人為定義,例如判斷當前代碼是否符合語法規(guī)則等,或者通過構建 Process Reward Model (PRM) 進行監(jiān)督學習得到;g (s_t) 中的聚合方式可以為求和,最大值,最小值等。
為了獲得狀態(tài) - 動作對 (s_t, a_t) 的最優(yōu) Q 值以實現規(guī)劃,研究人員在當前 LLM 策略生成的數據上通過監(jiān)督學習的方式訓練了一個代理 Q 值模型圖片。訓練過程中的真實標簽圖片可以由三種不同的方式得到,包括離線強化學習,蒙塔卡羅采樣估計和利用更強大的語言模型補全。
實驗結果表明,昆侖萬維本次所提出的 Q* 框架,可以顯著地提升 LLM 的推理能力,在 GSM8K 數據集上,Q* 幫助 Llama-2-7b 提升至 80.8% 的準確率,超越了 ChatGPT;在 MATH 數據集上,Q* 幫助 DeepSeek-Math-7b 提升至 55.4% 的準確率,超越了 Gemini Ultra; 在 MBPP 數據集上,Q* 幫助 CodeQwen1.5-7b-Chat 提升至 77.0% 的準確率,縮小了與 GPT-4 的編程水平差距。
研究證明,Q* 能夠幫助參數量僅為 7b 的小模型達到參數量比其大數十倍甚至百倍模型的推理能力,大幅提升模型的性能,并顯著降低了計算資源的需求。目前,Q* 的研究尚在初級階段,算法在各個環(huán)節(jié)還有進一步的改進空間。未來,昆侖萬維會繼續(xù)深入此項研究,不斷提升國產開源模型推理能力,打破 OpenAI 閉源封鎖,為人工智能前沿技術發(fā)展帶來全新可能。