近期,彭博社披露了一則關(guān)于螞蟻集團在AI技術(shù)領(lǐng)域的最新動向。據(jù)悉,螞蟻集團正積極采用中國自主研發(fā)的芯片,以推動其AI模型訓練技術(shù)的發(fā)展,這一舉措有望將成本降低約20%。
報道指出,螞蟻集團選用的芯片包括阿里巴巴集團和華為技術(shù)有限公司的產(chǎn)品,并運用了混合專家模型(MoE)這一先進的機器學習方法。MoE模型通過將任務(wù)細分為更小的數(shù)據(jù)集,類似于組建一個由各領(lǐng)域?qū)<覙?gòu)成的團隊,從而顯著提升了訓練效率。
尤為值得注意的是,螞蟻集團所使用的國產(chǎn)芯片在AI模型訓練方面的表現(xiàn),已經(jīng)能夠媲美英偉達公司的H800芯片。盡管螞蟻集團仍在繼續(xù)使用英偉達的芯片進行AI開發(fā),但如今它已更多地轉(zhuǎn)向包括AMD以及國內(nèi)其他品牌在內(nèi)的替代品。
這一轉(zhuǎn)變反映出中國企業(yè)在尋求使用本土芯片替代國際先進半導體方面的努力。螞蟻集團在本月發(fā)布的一份研究報告中,聲稱其AI模型在某些基準測試中超越了meta公司的表現(xiàn)。若這一技術(shù)能夠如預期般發(fā)揮作用,那么螞蟻集團的平臺無疑將為中國AI領(lǐng)域的發(fā)展增添新的動力。
隨著AI領(lǐng)域的投資不斷增加,MoE模型因其高效性而備受青睞,谷歌和DeepSeek等科技巨頭也紛紛采用這一技術(shù)。螞蟻集團則在此基礎(chǔ)上,進一步探索更加高效的LLMs訓練方法,并努力突破高性能芯片的限制。事實上,螞蟻集團在其研究論文中已明確表明,其目標是實現(xiàn)“在不依賴高端GPU的情況下”擴展AI模型。
然而,螞蟻集團的這一策略與英偉達公司的理念存在顯著差異。英偉達CEO黃仁勛認為,盡管出現(xiàn)了DeepSeek R1等更加高效的模型,但計算需求仍將持續(xù)增長。他堅信,各大公司需要更先進的芯片來創(chuàng)造更多價值,而非通過采用更便宜的芯片來降低成本。因此,英偉達仍堅持研發(fā)具有更多處理核心和晶體管的大型GPU。