近期,一項創新的人工智能技術引起了廣泛關注。據一項4月4日發布的最新研究顯示,該技術采用了一種獨特的遞歸架構,使得模型在推理過程中能夠自我修正輸出,極大地提升了準確性和效率。
這項名為SPCT的技術分為兩個階段實施。在第一階段,即冷啟動階段,通過拒絕式微調,讓模型適應不同類型的輸入,并以正確的格式生成原則和點評內容。隨后進入第二階段,即基于規則的在線強化學習階段,這一階段采用規則獎勵機制,鼓勵模型生成更加精準的原則和點評,從而增強了推理階段的可擴展性。
在實際測試中,使用了擁有270億參數的DeepSeek-GRM模型。通過每查詢32次采樣的推理計算,該模型的表現達到了671B規模模型的性能水平。這一硬件感知設計融合了混合專家系統(MoE),支持高達128k token的上下文窗口,并且單查詢延遲僅為1.4秒,表現出色。
研究報告進一步指出,SPCT技術顯著降低了高性能模型的部署成本。以DeepSeek-GRM模型為例,其訓練成本約為1.2萬美元(按當前匯率約合87871元人民幣),在MT-Bench測試中的得分高達8.35。相比之下,擁有340B參數的Nemotron-4模型需要120萬美元的訓練成本才能獲得8.41的得分,而OpenAI的GPT-4o模型,盡管得分高達8.72,但其訓練成本更是高達630萬美元(按當前匯率約合4613.2萬元人民幣),是DeepSeek-GRM成本的525倍之多。
SPCT技術還帶來了其他顯著優勢。據研究團隊介紹,該技術減少了90%的人工標注需求,并且在能耗方面相比傳統方法降低了73%。這一突破為實時機器人控制等動態場景提供了新的可能性,預示著人工智能技術在未來將有更加廣泛的應用。