蘋果發(fā)布OpenELM開源語言模型,推進設(shè)備端AI發(fā)展

蘋果發(fā)布OpenELM開源語言模型,推進設(shè)備端AI發(fā)展

在人工智能領(lǐng)域,蘋果公司今日邁出重要一步,發(fā)布了一系列名為OpenELM開源大型語言模型LLM),旨在直接在設(shè)備上運行,而非依賴云服務(wù)器。這一創(chuàng)新舉措標(biāo)志著蘋果在人工智能領(lǐng)域持續(xù)深化,并將為自然語言處理研究與應(yīng)用帶來革命性變化。

OpenELM的發(fā)布,不僅豐富了Hugging Face平臺上的AI資源,更通過其開源特性,為全球研究人員和開發(fā)者提供了一個共享與創(chuàng)新的平臺。此次發(fā)布的OpenELM模型共有八個版本,其中四個基于CoreNet庫進行了預(yù)訓(xùn)練,另外四個為指令調(diào)整模型,以滿足不同應(yīng)用場景的需求。

蘋果在OpenELM的開發(fā)中采用了分層擴展策略,這一策略在transformer模型的每一層中有效地分配參數(shù),顯著提高了模型的準(zhǔn)確性。在大約十億個參數(shù)的預(yù)算下,OpenELM相較于OLMo模型,在準(zhǔn)確率上提升了2.36%,而所需的預(yù)訓(xùn)練數(shù)據(jù)量卻減少了整整一倍。

值得一提的是,蘋果在發(fā)布OpenELM時,不僅提供了模型的源代碼和預(yù)訓(xùn)練權(quán)重,還分享了完整的訓(xùn)練日志、多個檢查點以及預(yù)訓(xùn)練配置。這種全面的開放方式,不僅方便了研究人員和開發(fā)者對模型進行復(fù)現(xiàn)和優(yōu)化,更有助于推動自然語言人工智能領(lǐng)域的快速發(fā)展。

蘋果公司表示,OpenELM的發(fā)布旨在通過最先進的語言模型“授權(quán)和豐富開放研究社區(qū)”,為研究人員提供了一種調(diào)查風(fēng)險、數(shù)據(jù)和模型偏差的方法。開發(fā)人員和公司可以原樣使用模型或進行修改,以適應(yīng)各種實際應(yīng)用場景。

此外,蘋果通過OpenELM的開源,也在招募頂級工程師、科學(xué)家和專家方面獲得了新的優(yōu)勢。開放的信息共享政策為研究人員提供了發(fā)表研究論文的機會,這在蘋果以往較為保密的政策下是難以實現(xiàn)的。

盡管蘋果尚未將其AI功能全面應(yīng)用于設(shè)備,但業(yè)界普遍預(yù)期,iOS 18將集成眾多新的人工智能功能。特別是傳言稱,蘋果正計劃出于隱私保護的目的,在設(shè)備上直接運行其大型語言模型,這將為用戶帶來更加流暢和安全的體驗。

OpenELM的發(fā)布無疑為蘋果在人工智能領(lǐng)域的進一步發(fā)展奠定了堅實基礎(chǔ)。隨著越來越多的企業(yè)和研究機構(gòu)加入到這一開源項目中,相信未來自然語言處理領(lǐng)域?qū)⒂瓉砀鄤?chuàng)新和突破。同時,蘋果通過擁抱開源,也展示了其在推動科技進步和開放合作方面的決心和擔(dān)當(dāng)。

原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請注明出處:http://leeannwhittemore.com/article/650351.html

AI的頭像AI認(rèn)證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論