0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大模型沒有“知識圍城”

腦極體 ? 來源:腦極體 ? 作者:腦極體 ? 2024-08-27 11:06 ? 次閱讀
wKgZombNQq6AMYaEAAl7e05UIyo071.jpg

最近,兩大知識平臺開始“反擊”大模型。

一是知網(wǎng)。就是引發(fā)學術界震動、開啟“天臨元年”的那個知網(wǎng),要求秘塔AI搜索終止對他們內容的搜索和鏈接。

二是知乎。網(wǎng)友發(fā)現(xiàn)在微軟必應搜索、谷歌搜索的結果中,知乎內容的標題和正文都可能是亂碼,極大可能是為了避免內容被用來訓練AI模型。

這兩大平臺區(qū)別于其他互聯(lián)網(wǎng)社區(qū)的一大特點,就是知識內容豐富、質量較高。

對于大模型來說,“知識密度”是一個非常關鍵的指標,就像集成電路領域的“先進制程”一樣,如果說高制程芯片能夠在同樣面積上集成更多的晶體管,那么“知識密度高”的大模型,能夠在同樣的參數(shù)空間內學習并存儲更多的知識,從而更好地完成特定領域的任務。

半導體領域的“先進制程”封鎖,一直是拿捏中國芯片的有效手段。

那么,頭部知識平臺對大模型采取“關門政策”,會影響到大模型及AI產(chǎn)品的先進性嗎?

我們的觀點如標題所示,大模型是不會被“知識圍城”而封鎖的

比起結論,更值得進一步探討的是,既然大模型訓練對平臺內容并沒有高度依賴,模廠和平臺的矛盾是從何而起呢?

wKgZombNQrCAMSuzAAIz-cwzV1I704.jpg

很多讀者都聽說過AI三要素,是數(shù)據(jù)、算力、算法。知識處于什么地位呢?憑什么大模型知識密度,具有半導體“先進制程”一樣的重要性呢?

清華大學張鈸院士說過,當前大模型存在難以逾越的天花板,“推動AI的創(chuàng)新應用與產(chǎn)業(yè)化,四個要素肯定都要發(fā)揮知識、數(shù)據(jù)、算法、算力,但是我們最主張的,就必須重視知識的作用,所以我們把知識放在第一位”。

可能有人又會問,院士說得就一定對嗎?當然不一定。我們還可以來看看一線的從業(yè)者,又是怎么想的。

我聽過某AI創(chuàng)業(yè)公司,在交付產(chǎn)品時,發(fā)現(xiàn)即便是基于GPT4-Turbo這樣性能領先的基座模型,AI也對很多問題答不上來。因為有些場景會用到一些隱性知識,這些知識是下一步推理所必需的,但模型經(jīng)常get不到。

wKgaombNQrCADzJsAACJ8BZXr9s881.jpg

比如生成一道菜譜,其中提到了“加辣椒”,但辣椒有點辣(隱性知識),就需要詢問用戶“喜不喜歡吃辣”,人類廚師早就了解這個基礎知識,但讓AI主動意識到并詢問就很難。

這是因為缺少“通識知識”。

某金融券商想用大模型來替代人類理財師,發(fā)現(xiàn)大模型給出的理財觀點和建議很泛泛,是一些常識性內容,而用戶在決策時,需要的是人類專家那樣犀利的洞見。

一位金融從業(yè)者說,有些場景,大模型fine tuning還不如傳統(tǒng)的小模型,怎么把業(yè)務知識注入大模型中,做了各種嘗試也沒有特別好的方法,只能把飄在上面的問題數(shù)據(jù),收集來達標給LLM,希望它下次不要再犯錯網(wǎng)絡。

而另一個創(chuàng)業(yè)公司發(fā)現(xiàn),如果從小處著手,將LLM與行業(yè)知識融合,可以獲得97%以上的準確率,基本能達到行業(yè)客戶的驗收標準。實際上,很多AI創(chuàng)業(yè)公司的大模型ToB項目,都是幫助企業(yè)構建定制化知識庫(KB系統(tǒng))。

領域知識,則是關乎大模型處理復雜專項任務、收獲商業(yè)成功的第二道壁壘。

所以,很多模廠都希望模型通過持續(xù)學習,來不斷吸收新知識,這又帶來了新的問題——修改核心參數(shù),這可能影響到模型的原有性能,有可能直接崩掉,不work了,這是業(yè)務的大敵。

咋辦呢?還是得靠知識。

一方面,原本知識密度就高的大模型,相當于人類具備很強的通識基礎,提前了解了很多背景知識,所以泛化能力很強,可以在面對新領域、陌生任務時,快速學習、舉一反三。所以,知識密度可以讓大模型具備跨領域、自學習的能力,通過“知識回路”就能學會新知識了。這就減少了人工干預,從而降低了故障率。

另外,高效、精準的知識編輯,可以對大模型中的知識進行新增、擦除等操作,就可以用很小的代價,實現(xiàn)模型的迭代升級。讓模廠在保持模型先進性的同時,也不影響到現(xiàn)有業(yè)務的持續(xù)性。對于業(yè)務不能中斷的金融、政務、電力、工廠等行業(yè)客戶,簡直不要太有吸引力。

此外,一些實際業(yè)務中,不希望大模型在生成時說出來的話,比如一些隱私信息,或者有害有毒內容、政治偏見等,都需要知識編輯技術來進行“祛毒”,精準地識別毒性區(qū)域并擦除有毒內容,真正做到給大模型“洗腦”。

由此可見,知識是AI商業(yè)化全流程都必須關注的。業(yè)界一度有著“得知識者得天下”的風向。有模廠提出了大模型知識的“摩爾定律”,認為大模型的知識密度,應該每隔8個月就翻一倍,同等知識量的模型參數(shù)量減半。

那反過來想一想,失知識者豈不是要失天下了?

wKgaombNQrKAK4o5AAHUiaMcQLM672.jpg

知識平臺,是人類知識匯聚的重要渠道,OpenAI、谷歌等海外AI公司都與優(yōu)質媒體內容平臺有商業(yè)化合作,用授權內容來訓練自家模型。

既然如此,為什么我們會說,大模型其實并不擔心平臺的“知識封鎖”呢?

因為人類知識平臺,不再是模型不得不進的“圍城”。

如果說原始數(shù)據(jù)是“草”,而知識是牛奶,那么傳統(tǒng)知識獲取,是讓機器“喝的是奶,產(chǎn)的也是奶”。就像20世紀的專家系統(tǒng),根據(jù)一個或者多個專家提供的知識和經(jīng)驗,通過模擬專家的思維過程,讓機器能夠解決問題。

這種情況下,實現(xiàn)機器智能就必須依賴由人類領域專家,以及專家知識庫。要“進城”獲取知識,必須給平臺“城主”交過路費。

但大模型不一樣的地方,一是“不是必須喝奶,吃草也行”,可以直接從原始數(shù)據(jù)中挖掘知識、抽取知識。DeepMind聯(lián)合創(chuàng)始人哈薩比斯曾經(jīng)設想過,未來的大模型可以直接從與客觀世界的感知交互過程中,利用深度學習算法來總結知識,并直接用于決策。

二是“不依賴人產(chǎn)奶,自己也行”,通過數(shù)據(jù)驅動的大規(guī)模自動化的知識獲取,反哺模型。

ChatGPT、GPT4都具備較強的知識圖譜建構能力,按照要求抽取知識,正確率可以達到88%,這種“生產(chǎn)效率”可比人類寫論文、在問答平臺“謝邀,剛下飛機,答一下”,要快得多。

更進一步,業(yè)界還在研究能夠大規(guī)模編碼和處理各種知識表示結構的大型知識模型(Large Knowledge Model)。從LLM到LKM,對現(xiàn)有人類知識的依賴越來越低了。

所以,是否收錄基于人類知識的平臺內容,其實對大模型訓練來說,影響已經(jīng)很小了。

“吃的是草,吐的是奶”的模型,可以在大數(shù)據(jù)的曠野上生存,并不一定要進知識平臺這座“圍城”,“關門”也就關門吧。

wKgaombNQrOAKqmXAAB0ZlM_MNM451.jpg

所以我們看到的后續(xù)就是,秘塔AI搜索在收到知網(wǎng)的函件之后,表示“學術”版塊僅收錄了論文的文獻摘要和題錄,并未收錄文章內容本身。而且還主動“斷鏈”,不再收錄知網(wǎng)文獻的題錄及摘要數(shù)據(jù),轉而收錄其他中英文權威知識庫的文獻題錄及摘要數(shù)據(jù)。類似的,被知乎以亂碼干擾的谷歌搜索、微軟必應搜索,模型能力依然領先。

wKgZombNQrSAHvUOAAJM_NBM_4A531.jpg

那么,知識平臺的反應,難道是過度反應、虛空索敵嗎?平臺究竟想“鎖”住什么,恐怕才是值得關注的真問題。

首先,沒必要利用人類知識來訓練模型,并不是說大模型廠商就一定不會侵權。

目前,全球模廠都面臨高質量語料匱乏的隱憂,數(shù)據(jù)焦渴之下,在未授權的情況下,用到有知識產(chǎn)權的數(shù)據(jù)是可能發(fā)生的。

在某次采訪中,OpenAI的CTO就對“視頻訓練數(shù)據(jù)是否來自YouTube等公開網(wǎng)站”等問題避而不談。此前,《紐約時報》曾因商談“內容付費”沒有成效,將OpenAI和微軟告上法庭,指控他們未經(jīng)授權就使用該機構的數(shù)百萬篇文章來訓練AI模型。

而前不久,微軟就與學術出版商Taylor & Francis簽署了一項價值1000萬美元的協(xié)議,允許微軟訪問其數(shù)據(jù)來改進AI系統(tǒng)。

由此可見,雖然AI領域的知識產(chǎn)權問題仍然有很多盲區(qū),但與知識平臺達成版權合作,應該被模廠及其客戶,納入AI合規(guī)和持續(xù)性經(jīng)營的考量中。

此外,即使侵權問題并不存在,但價值沖擊也會發(fā)生。

具體來說,AI搜索等新一代AI產(chǎn)品,對知識平臺的沖擊有兩方面:

一是流量價值沖擊。盡管秘塔AI搜索聲明中提到,向用戶提供的是知網(wǎng)的學術文獻題錄及摘要數(shù)據(jù),用戶要進一步瀏覽正文,要通過來源鏈接跳轉至網(wǎng)站獲取。但搜索引擎將觸角伸到網(wǎng)站,用戶就會減少訪問與站內搜索,從而影響平臺的流量和潛在收益,類似于微信此前阻止百度搜索到公眾號內容一樣。

二是知識價值沖擊。基于大模型的AI搜索具備總結、生成等能力,而由于模型可能存在“過擬合”問題,也就是AI自己“腦補”,最終可能輸出給用戶的內容與原文高度一致,沒直接侵權但勝似侵權。

此前就有很多小說作者發(fā)現(xiàn),模型生成的故事大綱與走向與自己寫的高度類似,懷疑云文檔被用來訓練AI模型,但極有可能是AI跟人類作者“撞腦”了。

大模型經(jīng)濟的核心價值,是知識的創(chuàng)造與分發(fā)。

一位朋友說,“以前有問題,我會上網(wǎng)問知乎,但有些問題我不想讓公眾知道,以后我就問基礎大模型+領域知識+AI Agent打造的專業(yè)bot,一次到位”。Perplexity CEO曾明確說過,“我們想成為世界上最以知識為中心的公司”,秘塔AI搜索經(jīng)常被比作中國的Perplexity。

可以看到,即使沒有侵權糾紛,AI企業(yè)及產(chǎn)品,也與知識平臺,在商業(yè)層面形成了直接的替代和競爭關系。

失知識者失天下,從這個角度來說,的確成立。

大模型在數(shù)據(jù)曠野上狂飆突進,知識平臺能否靠“關門上鎖”來守住核心價值呢?或許大家心中已經(jīng)有答案。

解鎖關鍵信息

知識平臺封鎖,鎖不住AI獲取知識的腳步

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    29522

    瀏覽量

    267836
  • 大模型
    +關注

    關注

    2

    文章

    2240

    瀏覽量

    2289
收藏 人收藏

    評論

    相關推薦

    【實操文檔】在智能硬件的大模型語音交互流程中接入RAG知識

    本帖最后由 jf_40317719 于 2024-9-29 17:13 編輯 智能硬件的語音交互接入大模型后可以直接理解自然語言內容,但大模型作為一個語言模型,對專業(yè)領域知識
    發(fā)表于 09-29 17:12

    想要了解下大模型知識

    工作需要,想要了解一下大模型算力建設知識
    發(fā)表于 08-20 15:31

    【《大語言模型應用指南》閱讀體驗】+ 基礎知識學習

    今天來學習大語言模型在自然語言理解方面的原理以及問答回復實現(xiàn)。 主要是基于深度學習和自然語言處理技術。 大語言模型涉及以下幾個過程: 數(shù)據(jù)收集:大語言模型通過從互聯(lián)網(wǎng)、書籍、新聞、社交媒體等多種渠道
    發(fā)表于 08-02 11:03

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    ,了解此書的主要內容: 書分四篇,基礎、入門、進階和展望。 基礎篇從人工智能起源開始、之后又介紹了機器學習、神經(jīng)網(wǎng)絡和大語言模型的基礎知識,如果讀者學習過機器學習相關課程,那這個基礎篇的閱讀就會很輕
    發(fā)表于 07-21 13:35

    知識圖譜與大模型之間的關系

    在人工智能的廣闊領域中,知識圖譜與大模型是兩個至關重要的概念,它們各自擁有獨特的優(yōu)勢和應用場景,同時又相互補充,共同推動著人工智能技術的發(fā)展。本文將從定義、特點、應用及相互關系等方面深入探討知識圖譜與大
    的頭像 發(fā)表于 07-10 11:39 ?797次閱讀

    阿里達摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達摩院(湖畔實驗室)攜手新加坡南洋理工大學等研究機構,共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答
    的頭像 發(fā)表于 05-10 11:46 ?628次閱讀

    【大語言模型:原理與工程實踐】大語言模型的應用

    和微調的積累,無需額外知識。然而,大模型所掌握的世界知識具有時效性,對于訓練后發(fā)生的事件或訓練集中未涵蓋的知識,大語言模型往往無法應對。當面
    發(fā)表于 05-07 17:21

    AI大模型知識產(chǎn)權博弈:矛與盾的較量

    模型復制與非法分發(fā):這是最直接的竊取方式。第三方通過復制AI模型,并將其非法分發(fā)或銷售,直接侵犯了原始模型開發(fā)者的知識產(chǎn)權。這種方式常見于那些易于訪問和下載的
    的頭像 發(fā)表于 12-10 11:12 ?1213次閱讀

    線路板知識之pcb有沒有3層板?

    線路板知識之pcb有沒有3層板?
    的頭像 發(fā)表于 12-06 14:39 ?2653次閱讀

    一種新穎的大型語言模型知識更新微調范式

    我們使用LLAMA2-7B作為實驗的基礎模型。我們主要評估將舊知識更新為新知識的能力,因此模型將首先在舊知識上進行為期3個時期的微調。表1中
    發(fā)表于 12-01 15:10 ?404次閱讀
    一種新穎的大型語言<b class='flag-5'>模型</b><b class='flag-5'>知識</b>更新微調范式

    ADCMP580為什么沒有SPICE模型

    我想問一下,ADCMP580為什么沒有SPICE模型?還是忘了給鏈接了(雖然這種可能性很?。?,而且很多快速比較器都沒有給出SPICE模型是什么原因?
    發(fā)表于 11-23 06:51

    AD539沒有spice模型,該如何仿真?

    最近需要用到AD539乘法器,由于Multisim里面沒有該仿真器件,在ADI官網(wǎng)上找AD539的spice模型沒有找到,無法仿真。根據(jù)數(shù)據(jù)手冊上的電路圖在面包板上進行測試,輸入1mv,1KHZ
    發(fā)表于 11-21 08:03

    請問AD8230沒有spice模型嗎?

    如題,在AD8230網(wǎng)頁上沒有看到spice模型。 請問在哪里可以找到?
    發(fā)表于 11-17 06:03

    沒有AD8271的仿真模型?求分享

    最近在看CN-0312電路筆記,想仿真看一下,有沒有AD8271的仿真模型?
    發(fā)表于 11-13 06:23

    線性回歸模型的基礎知識

    我準備使用scikit-learn給大家介紹一些模型的基礎知識,今天就來講講 線性回歸模型 。 1.準備 開始之前,你要確保Python和pip已經(jīng)成功安裝在電腦上,如果沒有,可以訪問
    的頭像 發(fā)表于 10-31 10:54 ?492次閱讀
    線性回歸<b class='flag-5'>模型</b>的基礎<b class='flag-5'>知識</b>