谷歌聲稱能“偷窺”O(jiān)penAI大模型秘密,GPT-3.5核心信息遭“泄露”!

谷歌聲稱能“偷窺”O(jiān)penAI大模型秘密,GPT-3.5核心信息遭“泄露”!

近日,谷歌的一項(xiàng)最新研究引發(fā)了業(yè)界的廣泛關(guān)注。該研究團(tuán)隊(duì)聲稱通過簡單調(diào)用API的方式,成功還原了OpenAI大型語言模型的關(guān)鍵信息,包括整個投影矩陣和隱藏維度大小,且成本極低,最低僅需約150元人民幣。

谷歌的這項(xiàng)研究針對的是OpenAI的大型語言模型,尤其是GPT系列。通過巧妙地利用API訪問模型,并發(fā)出大量有針對性的查詢,谷歌的研究團(tuán)隊(duì)成功地提取出了模型的嵌入投影層的關(guān)鍵參數(shù)。嵌入投影層是模型的最后一層,負(fù)責(zé)將隱藏維度映射到logits向量,是模型輸出的重要部分。

研究團(tuán)隊(duì)表示,他們通過向模型發(fā)送特定查詢,并觀察模型的響應(yīng),從而推斷出模型的隱藏維度大小。這種方法不僅適用于GPT系列的基礎(chǔ)模型Ada和Babbage,同樣適用于更高級的GPT-3.5和GPT-4模型。

值得注意的是,谷歌的研究團(tuán)隊(duì)在進(jìn)行這項(xiàng)研究之前,已經(jīng)得到了OpenAI的同意。在完成攻擊后,他們也與OpenAI確認(rèn)了方法的有效性,并刪除了所有與攻擊相關(guān)的數(shù)據(jù)。

盡管谷歌的研究團(tuán)隊(duì)僅通過API調(diào)用就獲取了模型的部分關(guān)鍵信息,但這一發(fā)現(xiàn)仍然引起了業(yè)界的震驚。這意味著即使OpenAI等大型語言模型提供商采取了嚴(yán)格的安全措施,其模型仍然可能面臨潛在的安全風(fēng)險。

針對這一發(fā)現(xiàn),OpenAI已經(jīng)采取了相應(yīng)的防御措施,包括修改模型API和隱藏維度等。然而,這也引發(fā)了關(guān)于大型語言模型安全性和開放性的新一輪討論。

谷歌的這項(xiàng)研究不僅揭示了大型語言模型的安全漏洞,也為未來的模型安全研究提供了新的思路。隨著人工智能技術(shù)的不斷發(fā)展,如何確保模型的安全性和隱私性將成為業(yè)界面臨的重要挑戰(zhàn)。

對于OpenAI來說,這一事件也提醒了他們需要更加重視模型的安全性,并采取更加嚴(yán)格的措施來保護(hù)模型的關(guān)鍵信息。同時,他們也需要與業(yè)界共同合作,共同推動人工智能技術(shù)的健康發(fā)展。

總之,谷歌的這項(xiàng)研究為我們提供了一個新的視角來看待大型語言模型的安全問題。未來,我們期待看到更多的研究和創(chuàng)新,以推動人工智能技術(shù)的不斷進(jìn)步和發(fā)展。

原創(chuàng)文章,作者:AI,如若轉(zhuǎn)載,請注明出處:http://leeannwhittemore.com/article/636340.html

AI的頭像AI認(rèn)證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論