圣塔菲學(xué)者:AI 大語(yǔ)言模型真的理解人類(lèi)語(yǔ)言嗎?
導語(yǔ)
盡管大語(yǔ)言模型表現出近似人類(lèi)的理解能力,但 AI 系統真的可以像人類(lèi)一樣理解語(yǔ)言嗎?機器理解的模式必須和人類(lèi)理解相同嗎?近日,圣塔菲研究所前所長(cháng)克拉考爾和研究員梅拉尼·米歇爾在 PNAS 發(fā)表文章,探討大型預訓練語(yǔ)言模型(LLMs)是否能夠以類(lèi)似人類(lèi)的方式理解語(yǔ)言及其所編碼的物理和社會(huì )情境。?
本文分別討論贊成和反對的觀(guān)點(diǎn),并進(jìn)一步探討了更廣泛的智能科學(xué)的關(guān)鍵問(wèn)題。作者認為,進(jìn)一步拓展人工智能與自然科學(xué)的交叉研究,有望拓展多學(xué)科的審視角度,總結不同方法的優(yōu)勢邊界,應對交叉認知理念的融合挑戰。
關(guān)鍵詞:人工智能,大語(yǔ)言模型,心智模型
(相關(guān)資料圖)
----
什么是“理解”?這個(gè)問(wèn)題長(cháng)期以來(lái)一直吸引著(zhù)哲學(xué)家、認知科學(xué)家和教育家們的關(guān)注。對“理解”的經(jīng)典研究幾乎都是以人類(lèi)和其他動(dòng)物為參照。然而,隨著(zhù)大規模人工智能系統,特別是大型語(yǔ)言模型的崛起,AI社區中出現了熱烈的討論:機器現在是否可以理解自然語(yǔ)言,從而理解語(yǔ)言所描述的物理和社會(huì )情境。
這場(chǎng)討論不僅僅局限在自然科學(xué)的范疇;機器理解我們世界的程度和方式?jīng)Q定了我們在多大程度上能夠相信AI與人類(lèi)交互任務(wù)中的穩健和透明行為能力,包括AI駕駛汽車(chē)、AI診斷疾病、AI照顧老年人、AI教育兒童等等。同時(shí),當前的討論展現了一個(gè)智能系統進(jìn)行“理解”的關(guān)鍵問(wèn)題:如何判別統計相關(guān)性和因果機制?
盡管AI系統在許多具體任務(wù)中表現出似乎智能的行為,但直到最近,人工智能研究界依然普遍認為機器無(wú)法像人類(lèi)那樣理解它們所處理的數據。
例如:人臉識別軟件不理解面部是身體的一部分、面部表情在社交互動(dòng)中的作用、"面對"不愉快的情境意味著(zhù)什么,或者做鬼臉的方式方法。同樣,語(yǔ)音轉文字和機器翻譯程序不理解它們處理的語(yǔ)言,自動(dòng)駕駛系統也不理解駕駛員和行人在規避事故時(shí)的微表情和肢體語(yǔ)言。因此,這些AI系統常常被認為是脆弱的,缺乏“理解”的關(guān)鍵證據是,它們不可預測錯誤、泛化能力缺乏魯棒性[1]。
大語(yǔ)言模型真的理解語(yǔ)言嗎?
然而,過(guò)去幾年情況發(fā)生了轉變,一種新型的AI系統在研究界廣受歡迎并產(chǎn)生了影響,改變了一些人對機器理解語(yǔ)言的前景和看法。這些系統被稱(chēng)為大型語(yǔ)言模型(LLMs)、大型預訓練模型或基礎模型[2],它們是具有數十億到數萬(wàn)億參數(權重)的深度神經(jīng)網(wǎng)絡(luò ),被“預訓練”于數TB的巨大自然語(yǔ)言語(yǔ)料庫上,包括大量網(wǎng)絡(luò )快照、在線(xiàn)圖書(shū)和其他內容。在訓練期間,這些網(wǎng)絡(luò )的任務(wù)是預測輸入句子中的隱藏部分,這種方法被稱(chēng)為“自監督學(xué)習”。最終的網(wǎng)絡(luò )是其訓練數據中的單詞和短語(yǔ)之間相關(guān)性的復雜統計模型。
這些模型可以用來(lái)生成自然語(yǔ)言,進(jìn)行特定語(yǔ)言任務(wù)的微調[3],或進(jìn)一步訓練以更好地匹配“用戶(hù)意圖”[4]。例如,OpenAI的著(zhù)名GPT-3[5]、更近期的ChatGPT[6]和Google的PaLM[7]這樣的LLMs能夠產(chǎn)生驚人的類(lèi)人文本和對話(huà);此外,盡管這些模型并沒(méi)有以推理為目的開(kāi)展訓練,一些研究認為它們具有類(lèi)人的推理能力[8]。
LLMs 如何完成這些壯舉對于普通人和科學(xué)家來(lái)說(shuō)都是個(gè)謎。這些網(wǎng)絡(luò )內部的運作方式大都不透明,即使是構建它們的研究人員對于如此巨大規模的系統也只有些許直觀(guān)感受。神經(jīng)科學(xué)家 Terrence Sejnowski 這樣描述LLM的出現:“奇點(diǎn)降臨,似天外來(lái)客,忽紛沓而來(lái),語(yǔ)四國方言。我們唯一清楚的是,LLMs 不是人類(lèi)……它們的某些行為看起來(lái)是智能的,但如果不是人類(lèi)的智能,又是什么呢?”[9]
盡管最先進(jìn)的LLMs很令人印象深刻,它們仍然容易出現不像人類(lèi)的脆弱性和錯誤。然而,這樣的網(wǎng)絡(luò )缺陷在其參數數量和訓練數據集規模擴大時(shí)顯著(zhù)改進(jìn)[10],因而一些研究者認為L(cháng)LMs(或者其多模態(tài)版本)將在足夠大的網(wǎng)絡(luò )和訓練數據集下實(shí)現人類(lèi)級別的智能和理解能力,出現了一個(gè)AI新口號:“規模就是一切”[11, 12]。
上述主張是AI學(xué)界在LLMs討論中的一個(gè)流派。一部分人認為這些網(wǎng)絡(luò )真正理解了語(yǔ)言,并且能夠以一種普遍的方式進(jìn)行推理(雖然“尚未”達到人類(lèi)水平)。例如,谷歌的LaMDA系統通過(guò)預先訓練文本,再微調對話(huà)的方式構造了一個(gè)談吐流暢的對話(huà)系統[13],某AI研究者甚至認為這樣的系統“對大量概念具備真實(shí)理解能力”[14],甚至“朝著(zhù)有意識的方向邁進(jìn)”[15]。
另一位機器語(yǔ)言專(zhuān)家將LLMs視為通向一般人類(lèi)水平AI的試金石:“一些樂(lè )觀(guān)研究者認為,我們見(jiàn)證了具有一定普遍智能程度的知識注入系統誕生”[16]。另一些人士認為,LLMs很可能捕捉到了意義的重要方面,而且其工作方式近似于人類(lèi)認知的一個(gè)引人注目的解釋?zhuān)匆饬x來(lái)源于概念角色?!盵17]。反對者被掛上“AI否認主義”標簽[18]。
另一方面,有人認為盡管像GPT-3或LaMDA這樣的大型預訓練模型的輸出很流利,但仍然不能具備理解能力,因為它們沒(méi)有世界的經(jīng)驗或思維模式;LLMs的文本預測訓練只是學(xué)會(huì )了語(yǔ)言的形式,而不是意義[19-21]。
最近一篇文章認為:“即使從現在開(kāi)始一直訓練到宇宙熱寂,單憑語(yǔ)言訓練的系統永遠也不會(huì )逼近人類(lèi)智能,而且這些系統注定只能擁有膚淺的理解,永遠無(wú)法逼近我們在思考上的全面性”[22]。還有學(xué)者認為,把“智能”、“智能體”和“理解”等概念套用在LLMs身上是不對的,因為L(cháng)LMs更類(lèi)似于圖書(shū)館或百科全書(shū),是在打包人類(lèi)的知識存儲庫,而不是智能體[23]。
例如,人類(lèi)知道“撓癢癢”會(huì )讓我們笑,是因為我們有身體。LLMs可以使用“撓癢癢”這個(gè)詞,但它顯然從未有過(guò)這種感覺(jué)。理解撓癢癢不是兩個(gè)詞之間的映射,而是詞和感覺(jué)之間的映射。
那些持“LLMs無(wú)法真正理解”立場(chǎng)的人認為,我們驚訝的不是LLMs流暢程度本身,而是流暢程度隨模型規模的增長(cháng)超乎直覺(jué)這件事情。任何將理解或意識歸因于LLMs的人都是“伊萊扎效應(Eliza effect)”的受害者[24]?!耙寥R扎效應”是指我們人類(lèi)傾向于將理解和代理能力歸因于具有即使是微弱的人類(lèi)語(yǔ)言或行為跡象的機器,得名于Joseph Weizenbaum在1960年代開(kāi)發(fā)的聊天機器人“Eliza”,盡管非常簡(jiǎn)單,仍然欺騙了人們相信它理解了他們[25]。
2022年對自然語(yǔ)言處理領(lǐng)域活躍學(xué)者的一項調查亦佐證了這場(chǎng)討論的觀(guān)點(diǎn)分歧。其中一項調查內容是詢(xún)問(wèn)受訪(fǎng)者是否同意以下關(guān)于LLMs是否在原則上理解語(yǔ)言的說(shuō)法:“一些僅在文本上訓練的生成模型(即語(yǔ)言模型),在給定足夠的數據和計算資源的情況下,可以在某些非平凡意義上理解自然語(yǔ)言?!?80人的答案幾乎一半(51%)對一半(49%)[26]。
支持者佐證當前LLMs具備理解能力的重要依據是模型能力表現:既包括對模型根據提示詞生成文本的主觀(guān)質(zhì)量判斷(盡管這種判斷可能容易受到Eliza效應的影響),亦包括在用于評估語(yǔ)言理解和推理能力的基準數據集客觀(guān)評價(jià)。例如,評估LLMs的兩個(gè)常用基準數據集是通用語(yǔ)言理解評估(GLUE)[27]及其后繼者SuperGLUE[28],它們包括大規模的數據集和任務(wù),如“文本蘊含”(給定兩個(gè)句子,第二個(gè)句子的意思是否可以從第一個(gè)句子推斷出來(lái)?),“情景含義”(在兩個(gè)不同的句子中,給定的詞語(yǔ)是否有相同的意義?)和邏輯回答等。
OpenAI的GPT-3(具有1750億個(gè)參數)在這些任務(wù)上表現出人意料之外的好[5],而Google的PaLM(具有5400億個(gè)參數)在這些任務(wù)上表現得更好[7],能夠達到甚至超越人類(lèi)在相同任務(wù)上的表現。?
機器理解必須重現人類(lèi)理解嗎?
這些結果對LLMs的理解有何啟示?從“泛化語(yǔ)言理解”,“自然語(yǔ)言推理”,“閱讀理解”和“常識推理”等術(shù)語(yǔ)的選擇不難看出,上述基準數據集的測試暗含機器必須重現人類(lèi)理解方式的前提假設。
但這是“理解”必須的嗎?并非一定如此。以“論證推理理解任務(wù)”基準評估為例[29],在每個(gè)任務(wù)示例中,都會(huì )給出一個(gè)自然語(yǔ)言的“論據”,以及兩個(gè)陳述句;任務(wù)是確定哪個(gè)陳述句與論據一致,如下例所示:
論點(diǎn):罪犯應該有投票權。一個(gè)在17歲時(shí)偷了一輛車(chē)的人不應該被終身剝奪成為完整公民的權利。
推斷A:盜竊汽車(chē)是一項重罪。
推斷B:盜竊汽車(chē)不是一項重罪。
BERT在這項基準任務(wù)中獲得了近似人類(lèi)的表現[31]?;蛟S我們能夠由此得出結論,即BERT可以像人類(lèi)一樣理解自然語(yǔ)言。但一個(gè)研究小組發(fā)現,在推斷語(yǔ)句中出現的某些線(xiàn)索詞(例如“not”)能夠輔助模型預測出正確答案。當研究人員變換數據集來(lái)避免這些線(xiàn)索詞出現時(shí),BERT的表現性能變得和隨機猜測無(wú)異。
這是一個(gè)明顯的依靠捷徑學(xué)習(shortcut learning)的例子——一個(gè)在機器學(xué)習中經(jīng)常被提及的現象,即學(xué)習系統通過(guò)分析數據集中的偽相關(guān)性,而不是通過(guò)類(lèi)人理解(humanlike understanding),來(lái)獲得在特定基準任務(wù)上的良好表現[32-35]。
通常情況下,這種相關(guān)性對于執行相同任務(wù)的人類(lèi)來(lái)說(shuō)表現得并不明顯。雖然捷徑學(xué)習現象在評估語(yǔ)言理解和其他人工智能模型的任務(wù)中已經(jīng)被發(fā)現,但仍可能存在很多未被發(fā)現的“捷徑”存在。像谷歌的LaMDA和PaLM這種擁有千億參數規模、在近萬(wàn)億的文本數據上進(jìn)行訓練的預訓練語(yǔ)言模型,擁有強大的編碼數據相關(guān)性的能力。
因此,用于評估人類(lèi)理解能力的基準任務(wù)或許對這類(lèi)模型評估來(lái)說(shuō)并不適用[36-38]。對于大規模LLMs(以及LLMs可能的衍生模型)來(lái)說(shuō),通過(guò)復雜的統計相關(guān)性計算能夠讓模型繞開(kāi)類(lèi)人理解能力,獲得近乎完美的模型表現。
雖然“類(lèi)人理解”一詞沒(méi)有嚴格的定義,但它本質(zhì)上并不是基于當下LLMs所學(xué)習的這類(lèi)龐大的統計模型;相反,它基于概念——外部類(lèi)別、情況和事件的內部心智模型,以及人類(lèi)自身的內部狀態(tài)和“自我”的內部心智模型。對于人類(lèi)來(lái)說(shuō),理解語(yǔ)言(以及其他非語(yǔ)言信息)依賴(lài)于對語(yǔ)言(或其他信息)表達之外的概念的掌握,并非局限于理解語(yǔ)言符號的統計屬性。
事實(shí)上,在認知科學(xué)領(lǐng)域的過(guò)往研究歷史中,一直強調對概念本質(zhì)的理解以及理解力是如何從條理清晰、層次分明且包含潛在因果關(guān)系的概念中產(chǎn)生的。這種理解力模型幫助人類(lèi)對過(guò)往知識和經(jīng)驗進(jìn)行抽象化以做出穩健的預測、概括和類(lèi)比;或是進(jìn)行組合推理、反事實(shí)推理;或是積極干預現實(shí)世界以檢驗假設;又或是向他人闡述自己所理解的內容。
毫無(wú)疑問(wèn),盡管有些規模越來(lái)越大的LLMs零星地表現出近似人類(lèi)的理解能力,但當前的人工智能系統并不具備這些能力,包括最前沿的LLMs。有人認為,這種理解能力能夠賦予人類(lèi)純統計模型無(wú)法獲得的能力。
盡管大模型展現出了非凡的形式語(yǔ)言能力(formal linguistic competence)——即產(chǎn)生語(yǔ)法流利、類(lèi)人語(yǔ)言的能力,它仍然缺乏基于概念理解的類(lèi)人功能語(yǔ)言能力(humanlike functional language abilities)——即在現實(shí)世界中正確理解和使用語(yǔ)言的能力。有趣的是,物理學(xué)研究中也有類(lèi)似的現象,即數學(xué)技法的成功運用和這種功能理解能力之間的矛盾。
例如,一直以來(lái)關(guān)于量子力學(xué)的一個(gè)爭議是,它提供了一種有效的計算方法,而沒(méi)有提供概念性理解。
關(guān)于概念的本質(zhì)理解一直以來(lái)是學(xué)界爭論的主題之一。對于概念在多大程度上是領(lǐng)域特定的和先天的,而不是更通用的和習得的[55-60],或者概念在多大程度上是基于具象隱喻的,并通過(guò)動(dòng)態(tài)的、基于情境的模擬在大腦中呈現[64],又或者概念在何種條件下是由語(yǔ)言[65–67]、社會(huì )學(xué)習[68–70]和文化支撐的[71–73],研究人員在這些方面存在分歧。
盡管存在以上爭論,概念——就像前文所述的那樣以因果心智模型的形式存在——一直以來(lái)被認為是人類(lèi)認知能力的理解單元。毫無(wú)疑問(wèn),縱觀(guān)人類(lèi)理解能力的發(fā)展軌跡,不論是個(gè)人理解還是集體理解,都可以抽象為對世界進(jìn)行高度壓縮的、基于因果關(guān)系的模型,類(lèi)似于從托勒密的行星公轉理論到開(kāi)普勒的橢圓軌道理論,再到牛頓根據引力對行星運動(dòng)的簡(jiǎn)明和因果關(guān)系的解釋。
與機器不同的是,人類(lèi)似乎在科學(xué)研究以及日常生活中都有追求這種理解形式的強烈內驅力。我們可以將這種動(dòng)力描述為需要很少的數據,極簡(jiǎn)的模型,明確的因果依賴(lài)性和強大的機械直覺(jué)。
關(guān)于LLMs理解能力的爭論主要集中以下幾個(gè)方面:
1)這些模型系統的理解能力是否僅僅為一種類(lèi)別錯誤?(即,將語(yǔ)言符號之間的聯(lián)系混淆為符號與物理、社會(huì )或心智體驗之間的聯(lián)系)。簡(jiǎn)而言之,這些模型系統永遠無(wú)法獲得類(lèi)人的理解能力嗎?
或者,相反地,2)這些模型系統(或者它們近期的衍生模型)真的會(huì )在缺乏現實(shí)世界經(jīng)驗的情況下,創(chuàng )造出對人類(lèi)理解來(lái)說(shuō)至關(guān)重要的大量的基于概念的心智模型嗎?如果是的話(huà),增大模型規模是否會(huì )創(chuàng )造出更好的概念?
或者,3)如果這些模型系統無(wú)法創(chuàng )造這樣的概念,那么它們難以想象的龐大的統計相關(guān)性系統是否能產(chǎn)生與人類(lèi)理解功能相當的能力呢?又或者,這是否意味著(zhù)人類(lèi)無(wú)法達到的新形式的高階邏輯能力成為可能?從這一角度上看,將這種相關(guān)性稱(chēng)為“偽相關(guān)性”或質(zhì)疑“捷徑學(xué)習”現象是否仍然合適?將模型系統的行為視為一系列新興的、非人類(lèi)的理解活動(dòng),而不是“沒(méi)有理解能力”,是否行得通?
這些問(wèn)題已不再局限于抽象的哲學(xué)探討,而是涉及到人工智能系統在人類(lèi)日常生活中扮演的越來(lái)越重要的角色所帶來(lái)的能力、穩健性、安全性和倫理方面的非?,F實(shí)的擔憂(yōu)。
雖然各派研究者對于“LLMs理解能力”的爭論都有自身的見(jiàn)解,但目前用于獲得理解洞察力的基于認知科學(xué)的方法不足以回答關(guān)于LLMs的這類(lèi)問(wèn)題。事實(shí)上,一些研究人員已經(jīng)將心理測試應用于LLMs,這些測試最初是用來(lái)評估人類(lèi)理解和推理機制的。
發(fā)現LLMs在某些情況下確實(shí)在心理理論測試[14, 75]中表現出類(lèi)似人類(lèi)的反應,以及在推理評估中表現出類(lèi)似人類(lèi)的能力和偏好 [76–78]。雖然這種測試被認為是評估人類(lèi)通用能力的替代性測試,但對人工智能模型系統來(lái)說(shuō)可能并非如此。
一種新興的理解能力
正如前文所提到的,LLMs有一種難以解釋的能力,可以在訓練數據和輸入中學(xué)習信息符號之間的相關(guān)性,并且可以使用這種相關(guān)性來(lái)解決問(wèn)題。相比之下,人類(lèi)似乎應用了反映他們現實(shí)世界經(jīng)驗的被壓縮的概念。當把為人類(lèi)設計的心理測試應用于LLMs時(shí),其解釋結果往往依賴(lài)于對人類(lèi)認知的假設,而這些假設對于模型來(lái)說(shuō)可能根本不正確。
為了取得進(jìn)展,科學(xué)家們需要設計新的基準任務(wù)和研究方法,以深入了解不同類(lèi)型的智能和理解機制,包括我們已經(jīng)創(chuàng )造的“異類(lèi)的、類(lèi)似思維實(shí)體”(exotic, mind-like entities)[79] 的新形式,或許我們正在踏上通往挖掘“理解”本質(zhì)的正確道路上[80, 81]。
隨著(zhù)關(guān)于LLMs理解能力的討論聲音越來(lái)越多,以及更多有能力的模型系統的出現,這一切似乎都在強調未來(lái)有必要加強對于智能科學(xué)的研究,以便對人類(lèi)和機器的更廣泛理解概念進(jìn)行理解。正如神經(jīng)科學(xué)家Terrence Sejnowski 所指出的,“專(zhuān)家們對LLMs智能的分歧表明,我們基于自然智能的傳統觀(guān)念是不夠充分的。[9]
”如果LLMs和其他模型成功地利用了強大的統計相關(guān)性,也許也可以被認為是一種新興的“理解”能力,一種能夠實(shí)現非凡的、超人的預測能力。比如DeepMind的AlphaZero和AlphaFold模型系統 [82, 83],它們似乎分別為國際象棋和蛋白質(zhì)結構預測領(lǐng)域帶來(lái)了一種來(lái)自“外星”的直覺(jué)形式[84, 85]。
因此可以這樣說(shuō),近年來(lái)在人工智能領(lǐng)域出現了具有新興理解模式的機器,這或許是一個(gè)更大的相關(guān)概念動(dòng)物園(zoo of related concepts)中的新物種。隨著(zhù)我們在追求智能本質(zhì)的過(guò)程中所取得的研究進(jìn)展,這些新興的理解模式將不斷涌現。正如不同的物種適應于不同的環(huán)境一樣,我們的智能系統也將更好地適應于不同的問(wèn)題。
依賴(lài)大量的歷史的編碼知識(encoded knowledge)的問(wèn)題(強調模型性能表現)將繼續青睞大規模的統計模型,如LLMs,而那些依賴(lài)有限知識和強大因果機制的問(wèn)題將更青睞人類(lèi)智能。未來(lái)的挑戰是開(kāi)發(fā)出新的研究方法,以詳細揭示不同智能形式的理解機制,辨別它們的優(yōu)勢和局限性,并學(xué)習如何整合這些不同的認知模式。?
參考文獻從略
本文作者:Melanie Mitchella, David C. Krakauera,范思雨、張驥翻譯,文章來(lái)源:集智俱樂(lè )部,原文標題:《圣塔菲學(xué)者:AI 大語(yǔ)言模型真的理解人類(lèi)語(yǔ)言嗎?》
原文地址:https://www.pnas.org/doi/10.1073/pnas.2215907120
關(guān)鍵詞: