華為雲研究團隊提出PanGu-Coder2 模型和RRTF 框架,提升大模型性能

據站長之家8 月1 日報導,華為雲、中國科學院和北京大學的研究人員最近提出了一種名為RRTF(Rank Responses to align Test&Teacher Feedback)的新框架,能夠有效地提升預訓練的大型語言模型(LLM)在代碼生成方面的性能。 RRTF 框架通過自然語言LLM 對齊技術和排名反饋的方式來改進代碼生成LLM 的表現。研究團隊還引入了PanGu-Coder2 模型,該模型在OpenAI HumanEval 基準測試中取得了出色的62.20% 的通過率。該研究通過在StarCoder15B 上應用RRTF 框架,超越了PanGu-Coder 並獲得了所有記錄的代碼LLM 中最佳性能,證明了RRTF 的有效性。對三個基準測試(HumanEval、CoderEval 和LeetCode)的全面分析表明,代碼LLM 在代碼生成任務中可能能夠超過相同或更大規模的自然語言模型。研究還強調了高質量數據對提高模型遵循指令和編寫代碼能力的價值。

Total
0
Shares
Related Posts