蘋果推出300億參數(shù)多模態(tài)AI大模型MM1.5:擁有圖像識別、自然語言推理能力

蘋果公司推出了300億參數(shù)的多模態(tài)AI大模型MM1.5,該版本是在前代MM1的架構基礎上發(fā)展而來的。

近日,蘋果公司推出了300億參數(shù)的多模態(tài)AI大模型MM1.5,該版本是在前代MM1的架構基礎上發(fā)展而來的。

蘋果推出300億參數(shù)多模態(tài)AI大模型MM1.5:擁有圖像識別、自然語言推理能力

該模型繼續(xù)遵循數(shù)據(jù)驅(qū)動的訓練原則,著重探究在不同訓練周期中混合各類數(shù)據(jù)對模型性能產(chǎn)生的影響,相關模型文檔已在Hugging Face上發(fā)布。

MM1.5提供了從10億到300億的多種參數(shù)規(guī)模,擁有圖像識別和自然語言推理能力。

在新版本中,蘋果公司的研發(fā)人員改進了數(shù)據(jù)混合策略,極大地增強了模型在多文本圖像理解、視覺引用與定位以及多圖像推理等方面的能力。

參考論文可知,團隊在MM1.5的持續(xù)預訓練階段引入了高質(zhì)量的OCR數(shù)據(jù)和合成圖像描述,這顯著提高了模型對包含大量文本的圖像的理解水平。

此外,研究人員在監(jiān)督式微調(diào)階段深入分析了不同數(shù)據(jù)類型對模型表現(xiàn)的作用,優(yōu)化了視覺指令微調(diào)數(shù)據(jù)的混合方式,使得即便是小規(guī)模的模型(如10億、30億參數(shù)版本)也能有出色的發(fā)揮,實現(xiàn)了更高的效率。

值得一提的是,蘋果公司這次還推出了專門用于視頻理解的MM1.5-Video模型和專門處理移動設備用戶界面(UI)理解的MM1.5-UI模型。

其中,MM1.5-UI模型未來有望成為iOS背后的“蘋果牌”AI,能夠處理各種視覺引用與定位任務,還能總結屏幕上的功能,或者通過與用戶的對話進行交互。

盡管MM1.5模型在多項基準測試中表現(xiàn)優(yōu)異,但蘋果團隊仍計劃通過進一步融合文本、圖像和用戶交互數(shù)據(jù),并設計更復雜的架構,來提升模型對移動設備UI的理解能力,從而讓“蘋果牌”AI更強大。

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://leeannwhittemore.com/article/685869.html

蘋果派的頭像蘋果派管理團隊

相關推薦

發(fā)表回復

登錄后才能評論