国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

State of GPT: OpenAI 大神Andrej Karpathy 揭秘大模型原理和訓練全過(guò)程

前言


(資料圖)

OpenAI的創(chuàng )始人之一,大神Andrej Karpathy剛在微軟Build 2023開(kāi)發(fā)者大會(huì )上做了專(zhuān)題演講:State of GPT(GPT的現狀)。

在這個(gè)樸實(shí)無(wú)華的題目之下,Andrej帶來(lái)的是一場(chǎng)超級精彩的分享。

他詳細介紹了如何從GPT基礎模型一直訓練出ChatGPT這樣的助手模型(assistant model)。作者不曾在其他公開(kāi)視頻里看過(guò)類(lèi)似的內容,這或許是OpenAI官方第一次詳細闡述其大模型內部原理和RLHF訓練細節。

難能可貴的是,Andrej不僅深入了細節, 還高屋建瓴的抽象了大模型實(shí)現中的諸多概念,牛人的洞察就是不一樣。

比如,Andrej非常形象的把當前LLM大語(yǔ)言模型比喻為人類(lèi)思考模式的系統一(快系統),這是相對于反應慢但具有更長(cháng)線(xiàn)推理的系統二(慢系統)而言。這只是演講里諸多閃光點(diǎn)的其中一個(gè)。

并且,Andrej真的有當導師的潛力,把非常技術(shù)的內容講得深入淺出,而又異常透徹。這個(gè)演講完全可以讓非專(zhuān)業(yè)人士也能理解,并且,認真看完演講后會(huì )有一種醍醐灌頂的感覺(jué)。

這場(chǎng)主題演講是如此精彩,以至于作者認為,所有關(guān)心LLM大語(yǔ)言模型的人都不容錯過(guò)。所以,在制作視頻之余,特以此文整理,和大家分享。

此外,在本文最后還有一些拓展閱讀,同樣非常推薦,有興趣的讀者可以自取。

本次演講的精校完整中文版視頻的B站傳送門(mén):

演講全文

大家好。

我很高興在這里向您介紹 GPT 的狀態(tài),更廣泛地介紹大型語(yǔ)言模型快速發(fā)展的生態(tài)系統。

我想把演講分成兩部分:

在第一部分我想告訴你我們是如何訓練 GPT 助手的;

然后在第二部分中,我們將了解如何將這些助手有效地用于您的應用程序。

首先讓我們看一下如何訓練這些助手的新興秘訣,并記住這一切都是非常新的,并且仍在迅速發(fā)展。

但到目前為止,食譜看起來(lái)像這樣。這是一張有點(diǎn)復雜的幻燈片,我將逐一介紹它。

粗略地說(shuō),我們有四個(gè)主要階段:預訓練、有監督微調、獎勵建模、強化學(xué)習,依次類(lèi)推。

現在在每個(gè)階段我們都有一個(gè)數據集來(lái)支持。我們有一個(gè)算法,我們在不同階段的目的,將成為訓練神經(jīng)網(wǎng)絡(luò )的目標。然后我們有一個(gè)結果模型,然后在上圖底部有一些注釋。

Pretraining 預訓練

我們要開(kāi)始的第一個(gè)階段是預訓練階段。

這個(gè)階段在這個(gè)圖中有點(diǎn)特殊:這個(gè)圖沒(méi)有按比例縮放,這個(gè)階段實(shí)際上是所有計算工作基本上發(fā)生的地方,相當于訓練計算時(shí)間的 99%。因此,這就是我們在超級計算機中使用數千個(gè) GPU 以及可能進(jìn)行數月的訓練來(lái)處理互聯(lián)網(wǎng)規模數據集的地方。其他三個(gè)階段是微調階段,更多地遵循少量 GPU 和數小時(shí)或數天的路線(xiàn)。那么讓我們來(lái)看看實(shí)現基礎模型的預訓練階段。

首先,我們要收集大量數據。這是我們稱(chēng)之為數據混合的示例,該示例來(lái)自 Meta 發(fā)布的這篇論文,他們發(fā)布了這個(gè) Llama 基礎模型。

可以大致看到進(jìn)入這些集合的數據集的種類(lèi),我們有common crawl這只是一個(gè)網(wǎng)絡(luò )爬取,C4也是common crawl,然后還有一些高質(zhì)量的數據集。例如,GitHub、維基百科、書(shū)籍、ArXiv論文存檔、StackExchange問(wèn)答網(wǎng)站等。這些都混合在一起,然后根據給定的比例進(jìn)行采樣,形成 GPT 神經(jīng)網(wǎng)絡(luò )的訓練集。

現在,在我們實(shí)際訓練這些數據之前,我們需要再經(jīng)過(guò)一個(gè)預處理步驟,即標記化(tokenization)。

這基本上是將我們從互聯(lián)網(wǎng)上抓取的原始文本翻譯成整數序列,因為這是 GPT 運行的原生表示。標記化是文本片段和標記與整數之間的一種無(wú)損轉換,這個(gè)階段有許多算法。通常您可以使用諸如字節編碼之類(lèi)的東西,它迭代地合并小文本塊并將它們分組為標記。在這里我展示了這些標記的一些示例塊,然后這是將實(shí)際饋入Transformer的原始整數序列。

現在我在這里展示了兩個(gè)類(lèi)似的例子,用于控制這個(gè)階段的超參數。

GPT4,我們沒(méi)有發(fā)布太多關(guān)于它是如何訓練的信息,所以我使用 GPT3 的數字;GPT3 現在有點(diǎn)老了,大約三年前。但是Llama是 Meta 的一個(gè)相當新的模型。這些大致是我們在進(jìn)行預訓練時(shí)要處理的數量級:詞匯量通常是幾萬(wàn)個(gè)標記。

上下文長(cháng)度通常是 2,000、4,000,現在甚至是 100,000,這決定了 GPT 在嘗試預測序列中的下一個(gè)整數時(shí)將查看的最大整數數。

你可以看到,Llama 的參數數量大概是 650 億?,F在,盡管與 GPT3 的 1750 億個(gè)參數相比,Llama 只有 65 個(gè) B 參數,但 Llama 是一個(gè)明顯更強大的模型,直觀(guān)地說(shuō),這是因為該模型的訓練時(shí)間明顯更長(cháng),訓練了1.4 萬(wàn)億標記而不是 3000 億標記。

所以你不應該僅僅通過(guò)模型包含的參數數量來(lái)判斷模型的能力。這里我展示了一些粗略的超參數表,這些超參數通常用于指定 Transformer 神經(jīng)網(wǎng)絡(luò )。比如頭的數量,尺寸大小,層數等等。在底部,我展示了一些訓練超參數。

例如,為了訓練 65 B 模型,Meta 使用了 2,000 個(gè) GPU,大約訓練了 21 天,大約花費了數百萬(wàn)美元。這是您在預訓練階段應該記住的粗略數量級。

現在,當我們實(shí)際進(jìn)行預訓練時(shí),會(huì )發(fā)生什么?一般來(lái)說(shuō),我們將獲取我們的標記并將它們放入數據批次中。

我們有這些數組將饋入Transformer,這些數組是 B,批量大小,這些都是按行堆疊的獨立示例,B 乘以 T,T 是最大上下文長(cháng)度。在我的這個(gè)圖里,長(cháng)度只有十個(gè),實(shí)際工作里這可能是 2,000、4,000 等等。

這些是非常長(cháng)的行。我們所做的是獲取這些文檔并將它們打包成行,然后用這些特殊的文本結束標記將它們分隔開(kāi),基本上是為了告訴Transformer新文檔從哪里開(kāi)始。

這里我有幾個(gè)文檔示例,然后將它們擴展到這個(gè)輸入中?,F在,將把所有這些數字輸入到 Transformer 中。

我們只關(guān)注一個(gè)特定的單元格,但同樣的事情會(huì )發(fā)生在這個(gè)圖中的每個(gè)單元格上。讓我們看看綠色單元格。綠色單元會(huì )查看它之前的所有標記,所有標記都是黃色的,我們將把整個(gè)上下文輸入到 Transformer 神經(jīng)網(wǎng)絡(luò )中,Transformer 將嘗試預測 序列中的下一個(gè)標記,在本例中為紅色。

不幸的是,我現在沒(méi)有太多時(shí)間來(lái)詳細介紹Transformer這個(gè)神經(jīng)網(wǎng)絡(luò )架構。(注:特別棒和巧的,Andrej做過(guò)一次斯坦福課程,專(zhuān)門(mén)深入講解了Transformer神經(jīng)網(wǎng)絡(luò )架構,同樣非常推薦,中文版視頻附在本文結尾)對于我們的目的來(lái)說(shuō),Transformer只是一大堆神經(jīng)網(wǎng)絡(luò )的東西,通常有幾百億個(gè)參數,或者類(lèi)似的東西。

當然,當您調整這些參數時(shí),您會(huì )得到這些單元格中的每一個(gè)單元格的預測分布略有不同。例如,如果我們的詞匯表大小是 50,257 個(gè)標記,那么我們將擁有那么多數字,因為我們需要為接下來(lái)發(fā)生的事情指定概率分布?;旧?,我們有可能發(fā)生任何事情。

現在,在這個(gè)特定的例子中,對于這個(gè)特定的單元格,513 將是下一個(gè)標記,因此我們可以將其用作監督源來(lái)更新Transformer的權重。將同樣的做法應用于并行中的每個(gè)單元格,并且不斷交換批次,并且試圖讓Transformer對序列中接下來(lái)出現的標記做出正確的預測。

讓我更具體地向您展示當您訓練其中一個(gè)模型時(shí)的情況。

這實(shí)際上來(lái)自紐約時(shí)報,他們在莎士比亞上訓練了一個(gè)小的 GPT,這是莎士比亞的一小段,他們在上面訓練了一個(gè) GPT。

一開(kāi)始,在初始化時(shí),GPT 以完全隨機的權重開(kāi)始,因此也將獲得完全隨機的輸出。但是,隨著(zhù)時(shí)間的推移,當訓練 GPT 的時(shí)間越來(lái)越長(cháng)時(shí),我們會(huì )從模型中獲得越來(lái)越連貫和一致的樣本。當然,你從中抽樣的方式是預測接下來(lái)會(huì )發(fā)生什么,你從那個(gè)分布中抽樣,然后不斷將其反饋到過(guò)程中,基本上就是對大序列進(jìn)行抽樣。

到最后,你會(huì )看到 Transformer 已經(jīng)學(xué)會(huì )了單詞,以及在哪里放置空格,在哪里放置逗號等等。隨著(zhù)時(shí)間的推移,模型正在做出越來(lái)越一致的預測。然后以下這些,是您在進(jìn)行模型預訓練時(shí)會(huì )查看的圖類(lèi)型。

實(shí)際上,我們在訓練時(shí)查看隨時(shí)間變化的損失函數,低損失意味著(zhù)我們的Transformer正在預測正確 - 為序列中正確的下一個(gè)整數提供更高的概率。

訓練一個(gè)月后,我們將如何處理這個(gè)模型?我們注意到的第一件事,在這個(gè)領(lǐng)域,這些模型基本上在語(yǔ)言建模過(guò)程中學(xué)習了非常強大的通用表示,并且可以非常有效地微調它們以用于您可能感興趣的任何下游任務(wù)。

舉個(gè)例子,如果對情感分類(lèi)感興趣,過(guò)去的方法是收集一堆正面和負面的信息,然后為此訓練某種 NLP 模型,但新方法是忽略情感分類(lèi),直接去進(jìn)行大型語(yǔ)言模型預訓練,訓練大型Transformer,然后你可能只有幾個(gè)例子,已經(jīng)可以非常有效地為該任務(wù)微調你的模型。

這在實(shí)踐中非常有效。這樣做的原因基本上是?Transformer 被迫在語(yǔ)言建模任務(wù)中同時(shí)處理大量任務(wù),因為就預測下一個(gè)標記而言,它被迫了解很多關(guān)于文本的結構和其中所有不同的概念。這就是 GPT-1。

在 GPT-2 前后,人們注意到比微調更好的是,你可以非常有效地提示(prompt)這些模型。這些是語(yǔ)言模型,它們想要完成文檔,所以你可以通過(guò)排列這些假文檔來(lái)欺騙它們執行任務(wù)。

在這個(gè)例子中,例如,我們有一些段落,然后我們做 QA(問(wèn)和答),QA,QA,幾次提示,然后我們做 Q,然后,當 Transformer 試圖完成文檔時(shí),它實(shí)際上是在回答我們的問(wèn)題。這就是一個(gè)提示工程(prompt engineering)基礎模型的示例,通過(guò)提示工程讓模型相信它正在模仿文檔并讓它執行特定的任務(wù)。

這開(kāi)啟了提示高于微調(prompt over finetuning)的時(shí)代。我們看到,即使沒(méi)有對任何神經(jīng)網(wǎng)絡(luò )進(jìn)行微調,它也可以在很多問(wèn)題上非常有效。

從那時(shí)起,我們就看到了每個(gè)人都知道的,基礎模型的完整進(jìn)化樹(shù):

并非所有這些模型型號都可用。例如,GPT-4 基礎模型從未發(fā)布。您可能通過(guò) API 與之交互的 GPT-4 模型不是基礎模型,而是輔助模型,我們稍后將介紹如何獲取這些模型;

GPT-3 基礎模型可通過(guò)名為 DaVinci 的 API 獲得;GPT-2 基礎模型可在我們的 GitHub 存儲庫上作為權重獲得;目前最好的(可以公開(kāi)獲得的)基礎模型是 Meta 的 Llama 系列,盡管它沒(méi)有商業(yè)許可。

需要指出的一件事是,基礎模型不是助手(assistant,即類(lèi)似ChatGPT的問(wèn)答助手),它們不想回答你的問(wèn)題,它們只是想完成文件(笑)。

所以如果你告訴基礎模型:“寫(xiě)一首關(guān)于面包和奶酪的詩(shī)”,它會(huì )用更多的問(wèn)題來(lái)回答問(wèn)題。它只是在完成它認為是文檔的內容。但是,您可以在基礎模型里以特定方式提示以更可能得到結果。例如,“這是一首關(guān)于面包和奶酪的詩(shī)"。在這種情況下,它將正確地自動(dòng)完成。

你甚至可以欺騙基礎模型成為助手,你這樣做的方法是創(chuàng )建一個(gè)特定的小提示,讓它看起來(lái)像是人和助手之間有一份文件,他們正在交換信息。

然后,在底部,您將查詢(xún)放在最后,基礎模型將自我調整為有用的助手和某種答案(生成這種形式的文檔)。這不是很可靠,在實(shí)踐中也不是很好,盡管它可以做到。

Supervised Finetuning 監督微調

相反,我們有不同的途徑來(lái)制作實(shí)際的 GPT 助手(GPT Assistant),而不僅僅是基礎模型文檔完成器。這將我們帶入有監督的微調。

在有監督的微調階段,我們將收集少量但高質(zhì)量的數據集。在這種情況下,我們要求人工承包商收集及時(shí)和理想響應形式的數據。我們收集很多這樣的東西,通常是類(lèi)似數萬(wàn)個(gè)這種數量。然后我們仍將對這些數據進(jìn)行語(yǔ)言建模,因此算法上沒(méi)有任何改變。我們只是換出一個(gè)訓練集。

它曾經(jīng)是互聯(lián)網(wǎng)文檔,那是一種量很大但質(zhì)量不高的數據,我們換成用QA即時(shí)響應的數據。那是低數量但高質(zhì)量的。我們還是做語(yǔ)言建模,然后,訓練之后,我們得到一個(gè)SFT(Supervised Finetuning 監督微調)模型。你可以實(shí)際部署這些模型,它們是實(shí)際的助手,它們在一定程度上起作用。

讓我向您展示示例演示的樣子。這里有一個(gè)人類(lèi)承包商可能會(huì )想出的東西,這是一個(gè)隨機的演示:

你寫(xiě)了一篇關(guān)于壟斷一詞的相關(guān)性的簡(jiǎn)短介紹,或者類(lèi)似的東西,然后承包商也寫(xiě)下了一個(gè)理想的回應。當他們寫(xiě)下這些回復時(shí),他們遵循大量的標簽文檔,并且要求他們生成提供幫助、真實(shí)且無(wú)害的回答。這是這里的標簽說(shuō)明。你可能看不懂,我也看不懂,它們很長(cháng),人們按照說(shuō)明并試圖完成這些提示。這就是數據集的樣子,你可以訓練這些模型,這在一定程度上是有效的。

Reward Modeling 獎勵建模

現在,我們可以從這里繼續流程,進(jìn)入 RLHF,即“從人類(lèi)反饋中強化學(xué)習”,它包括獎勵建模和強化學(xué)習。

讓我介紹一下,然后我將回過(guò)頭來(lái)討論為什么您可能想要完成額外的步驟,以及這與 僅有SFT 模型相比如何。在獎勵建模步驟中,我們現在要做的是將數據收集轉變?yōu)楸容^形式。

下面是我們的數據集的示例。

頂部是相同的提示,它要求助手編寫(xiě)一個(gè)程序或一個(gè)函數來(lái)檢查給定的字符串是否為回文。然后我們做的是采用已經(jīng)訓練過(guò)的 SFT 模型,并創(chuàng )建多個(gè)補全。在這種情況下,我們有模型創(chuàng )建的三個(gè)補全。然后我們要求人們對這些補全進(jìn)行排名。

如果你盯著(zhù)它看一會(huì )兒——順便說(shuō)一下,要比較其中的一些預測是非常困難的事情,而且這可能需要人們甚至幾個(gè)小時(shí)來(lái)完成一個(gè)提示補全的比較。但假設我們決定,其中一個(gè)比其他的好得多,依此類(lèi)推,我們對它們進(jìn)行排名。

然后,我們可以對這些補全之間的所有可能對,進(jìn)行看起來(lái)非常像二元分類(lèi)的東西(以進(jìn)行排序)。

接著(zhù),要做的是將提示按行排列,這里所有三行的提示都是相同的,但補全方式不同,黃色標記來(lái)自 SFT 模型,我們在最后附加另一個(gè)特殊的獎勵讀出標記,基本上只在這個(gè)單一的綠色標記上監督Transformer。Transformer會(huì )根據提示的完成程度預測一些獎勵。

Transformer對每個(gè)補全的質(zhì)量進(jìn)行了猜測,然后,一旦對每個(gè)補全進(jìn)行了猜測,我們就有了模型對它們排名的基本事實(shí),而我們實(shí)際上可以強制其中一些數字應該比其他數字高得多,我們將其制定為損失函數,并訓練我們的模型,使得模型做出與來(lái)自人類(lèi)承包商的比較事實(shí)數據相一致的獎勵預測。

這就是我們訓練獎勵模型的方式。這使我們能夠對提示的完成程度進(jìn)行評分。

Reinforcement Learning 強化學(xué)習

現在我們有了獎勵模型,但我們還不能部署它。因為它本身作為助手不是很有用,但是它對于現在接下來(lái)的強化學(xué)習階段非常有用。

因為我們有一個(gè)獎勵模型,所以我們可以對任何給定提示(prompt)的任意完成/補全(completion)質(zhì)量進(jìn)行評分。

我們在強化學(xué)習期間所做的基本上是再次獲得大量提示,然后針對獎勵模型進(jìn)行強化學(xué)習。

這就是它的樣子:

我們接受一個(gè)提示,將其排成行,現在我們使用想要訓練的模型,將該模型初始化為 SFT 模型,以創(chuàng )建一些黃色的補全。然后,再追加獎勵標記,按照已經(jīng)固定不變的獎勵模型讀出獎勵分數,現在這個(gè)獎勵模型的評分不再變化。

獎勵模型告訴我們這些提示的每一次完成的質(zhì)量。我們現在基本上可以用(和前面)相同的語(yǔ)言建模損失函數,但我們目前正在對黃色標記進(jìn)行訓練,并且我們正在通過(guò)獎勵模型指示的獎勵來(lái)權衡語(yǔ)言建模目標。

例如,在第一行中,獎勵模型表示這是一個(gè)相當高的完成度,因此我們碰巧在第一行采樣的所有標記都將得到強化,它們將 獲得更高的未來(lái)概率。相反,在第二行,獎勵模型真的不喜歡這個(gè)完成,負 1.2,因此我們在第二行采樣的每個(gè)標記在未來(lái)都會(huì )有更低的概率。

我們在很多提示、很多批次上一遍又一遍地這樣做,基本上,我們得到一個(gè)在這里創(chuàng )建黃色標記的策略,讓所有完成標記都會(huì )根據我們在前一階段訓練的獎勵模型獲得高分。這就是我們訓練的方式——這就是 RLHF 流程。

最后,您得到了一個(gè)可以部署的模型。例如,ChatGPT 是 RLHF 模型。您可能會(huì )遇到其他一些模型,例如 Kuna 13B 等,這些都是 SFT 模型。我們有基礎模型、SFT 模型和 RLHF 模型,這基本上是可用模型列表的事物狀態(tài)。

你為什么想要做 RLHF?一個(gè)不太令人興奮的答案是它的效果更好。

以上這個(gè)圖來(lái)自instructGPT論文。這些 PPO 模型是 RLHF,根據前一段時(shí)間的這些實(shí)驗,我們看到把它們提供給人類(lèi)時(shí),它們在很多比較中更受歡迎。與提示為助手的基礎模型相比,與 SFT 模型相比,人類(lèi)基本上更喜歡來(lái)自 RLHF 模型的標記(輸出文字)。它就是工作得更好。

但你可能會(huì )問(wèn)為什么?為什么效果更好?我不認為社區有一個(gè)一致的令人驚奇的答案,但我可能提供一個(gè)原因:它與計算比較容易程度與生成容易程度之間的不對稱(chēng)有關(guān)。

讓我們以生成俳句為例。假設我請模特寫(xiě)一首關(guān)于回形針的俳句。如果你是一個(gè)試圖提供訓練數據的承包商,那么想象一下,作為一個(gè)為 SFT 階段收集基本數據的承包商,你應該如何為一個(gè)回形針創(chuàng )建一個(gè)漂亮的俳句?

你可能不太擅長(cháng)這個(gè)。

但是,如果我給你舉幾個(gè)俳句的例子,你可能會(huì )比其他人更能欣賞其中的一些俳句。

因此,判斷其中哪一個(gè)是好的是一項容易得多的任務(wù)。

基本上,這種不對稱(chēng)性使得比較成為一種更好的方式,可以潛在地利用你作為一個(gè)人和你的判斷力來(lái)創(chuàng )建一個(gè)稍微更好的模型。

但是,RLHF 模型在某些情況下并不是對基礎模型的嚴格改進(jìn)。特別是,我們注意到,例如,RLHF模型失去了一些熵,這意味著(zhù)它們給出了更多的峰值結果。

它們可以輸出更低的變化,可以輸出比基礎模型變化更少的樣本。

基礎模型有更多熵,會(huì )給出很多不同的輸出。我仍然更喜歡使用基礎模型的一種地方是。。。比如有 n 個(gè)東西并且想要生成更多類(lèi)似東西的場(chǎng)景中。

這是我剛剛編造的一個(gè)例子。我想生成很酷的口袋妖怪名字。我給了它七個(gè)口袋妖怪的名字,讓基礎模型完成了文檔。它給了我更多的口袋妖怪名字。

這些都是虛構的,我還試圖查找它們,確定它們不是真正的口袋妖怪。這是我認為基礎模型擅長(cháng)的任務(wù),因為它仍然有很多熵,并且會(huì )給你很多不同的、很酷的、更多的東西,看起來(lái)像你以前給它的任何東西。

說(shuō)了這么多,這些是你現在可以使用的輔助模型,有一些數字:

伯克利有一個(gè)團隊對許多可用的助手模型進(jìn)行排名,并基本上給了它們 ELO 評級。目前最好的模型毫無(wú)疑問(wèn)是 GPT-4,其次是 Claude,GPT-3.5,然后是一些模型,其中一些可能作為權重提供,比如 Kuna、Koala 等。這里排名前三的是 RLHF 模型,據我所知,我相信所有其他模型都是 SFT 模型。

將GPT助手模型應用于問(wèn)題

以上是我們在高層次上訓練這些模型的方式?,F在我要換個(gè)方向,讓我們看看如何最好地將 GPT 助手模型應用于您的問(wèn)題?,F在我想在一個(gè)具體示例的場(chǎng)景里展示。

讓我們在這里使用一個(gè)具體示例。假設你正在寫(xiě)一篇文章或一篇博客文章,你打算在最后寫(xiě)這句話(huà)。

加州的人口是阿拉斯加的 53 倍。因此出于某種原因,您想比較這兩個(gè)州的人口。想想我們自己豐富的內心獨白和工具的使用,以及在你的大腦中實(shí)際進(jìn)行了多少計算工作來(lái)生成這最后一句話(huà)。這可能是你大腦中的樣子:好的。對于下一步,讓我寫(xiě)博客——在我的博客中,讓我比較這兩個(gè)人群。

好的。首先,我顯然需要得到這兩個(gè)人群?,F在我知道我可能根本不了解這些人群。我有點(diǎn),比如,意識到我知道或不知道我的自我知識;正確的?我去了——我做了一些工具的使用,然后我去了維基百科,我查找了加利福尼亞的人口和阿拉斯加的人口?,F在我知道我應該把兩者分開(kāi)。

同樣,我知道用 39.2 除以 0.74 不太可能成功。那不是我腦子里能做的事情。因此,我將依靠計算器。我打算用一個(gè)計算器,把它打進(jìn)去,看看輸出大約是 53。然后也許我會(huì )在我的大腦中做一些反思和理智檢查。那么53有意義嗎?

好吧,這是相當大的一部分,但是加利福尼亞是人口最多的州,也許這看起來(lái)還可以。這樣我就有了我可能需要的所有信息,現在我開(kāi)始寫(xiě)作的創(chuàng )造性部分了。我可能會(huì )開(kāi)始寫(xiě)類(lèi)似,加利福尼亞有 53 倍之類(lèi)的東西,然后我對自己說(shuō),這實(shí)際上是非常尷尬的措辭,讓我刪除它,然后再試一次。

在我寫(xiě)作的時(shí)候,我有一個(gè)獨立的過(guò)程,幾乎是在檢查我正在寫(xiě)的東西,并判斷它是否好看。然后也許我刪除了,也許我重新構造了它,然后也許我對結果感到滿(mǎn)意?;旧?,長(cháng)話(huà)短說(shuō),當你創(chuàng )造這樣的句子時(shí),你的內心獨白會(huì )發(fā)生很多事情。

但是,當我們在其上訓練 GPT 時(shí),這樣的句子是什么樣的?從 GPT 的角度來(lái)看,這只是一個(gè)標記序列。因此,當 GPT 讀取或生成這些標記時(shí),它只會(huì )進(jìn)行分塊、分塊、分塊,每個(gè)塊對每個(gè)標記的計算工作量大致相同。

這些 Transformer 都不是很淺的網(wǎng)絡(luò ),它們有大約 80 層的推理,但 80 仍然不算太多。這個(gè)Transformer將盡最大努力模仿...但是,當然,這里的過(guò)程看起來(lái)與你采用的過(guò)程非常非常不同。特別是,在我們最終的人工制品中,在創(chuàng )建并最終提供給 LLM 的數據集中,所有內部對話(huà)都被完全剝離(只給出最后結果作為訓練數據)。

并且與您不同的是,GPT 將查看每個(gè)標記并花費相同的算力去計算它們中的每一個(gè),實(shí)際上,你不能指望它對每個(gè)標記做太多的工作。

基本上,這些Transformer就像標記模擬器。它們不知道自己不知道什么,它們只是模仿(預測)下一個(gè)標記;它們不知道自己擅長(cháng)什么,不擅長(cháng)什么,只是盡力模仿(預測)下一個(gè)標記。

它們不反映在循環(huán)中,它們不檢查任何東西,它們在默認情況下不糾正它們的錯誤,它們只是對標記序列進(jìn)行采樣。

它們的頭腦中沒(méi)有單獨的內心獨白流,它們正在評估正在發(fā)生的事情。

現在它們確實(shí)有某種認知優(yōu)勢,我想說(shuō),那就是它們實(shí)際上擁有大量基于事實(shí)的知識,涵蓋大量領(lǐng)域,因為它們有幾百億個(gè)參數,這是大量存儲和大量事實(shí)。而且我認為,它們也有相對大而完美的工作記憶。

因此,任何適合上下文窗口的內容都可以通過(guò)其內部自注意機制立即供Transformer使用,它有點(diǎn)像完美的記憶。它的大小是有限的,但Transformer可以非常直接地訪(fǎng)問(wèn)它,它可以無(wú)損地記住其上下文窗口內的任何內容。這就是我比較這兩者的方式。

我之提出所有這些,是因為我認為在很大程度上,提示只是彌補了這兩種架構之間的這種認知差異。就像我們人類(lèi)大腦和 LLM 大腦(的比較),你可以這么看。

人們發(fā)現有一件事,在實(shí)踐中效果很好。

特別是如果您的任務(wù)需要推理,您不能指望Transformer對每個(gè)標記進(jìn)行太多推理,因此您必須真正將推理分散到越來(lái)越多的標記上。

例如,您不能向Transformer提出一個(gè)非常復雜的問(wèn)題并期望它在一個(gè)標記中得到答案。(用于計算的)時(shí)間不夠。

這些Transformer需要標記來(lái)思考,我有時(shí)喜歡這樣說(shuō)。這是一些實(shí)踐中運作良好的事情:例如,您可能有一個(gè)few-shot prompt提示,向Transformer顯示它在回答問(wèn)題時(shí)應該展示其工作,如果您給出幾個(gè)示例,Transformer將模仿該模板,然后它就會(huì )在評估方面做得更好。

此外,您可以通過(guò)說(shuō)“l(fā)et"s think step by step"從Transformer中引發(fā)這種行為,因為這使Transformer變得有點(diǎn)像展示它的工作。而且,因為它有點(diǎn)進(jìn)入一種顯示其工作的模式,它會(huì )為每個(gè)標記做更少的計算工作,因此它更有可能成功,因為隨著(zhù)時(shí)間的推移,它的推理速度會(huì )變慢。

這是另一個(gè)例子。這稱(chēng)為自我一致性。

我們看到我們有能力開(kāi)始寫(xiě),然后如果沒(méi)有成功,我可以再試一次,我可以多次嘗試,也許會(huì )選擇一個(gè)最好的。因此,在這些類(lèi)型的實(shí)踐中,您可能不僅會(huì )抽樣一次,還會(huì )抽樣多次,然后有一些過(guò)程來(lái)找到好的樣本,只保留這些樣本或者進(jìn)行多數表決,類(lèi)似這樣的事情。

而在這個(gè)過(guò)程中,這些 Transformer 在預測下一個(gè)標記時(shí),就像你一樣,它們可能會(huì )倒霉,它們可能會(huì )采樣到一個(gè)不太好的標記,它們可能會(huì )在推理方面像死胡同一樣走下坡路。因此,與您不同,它們無(wú)法從中恢復過(guò)來(lái)。它們被它們采樣的每一個(gè)標記所困,所以它們會(huì )繼續這個(gè)序列,即使它們知道這個(gè)序列不會(huì )成功。讓它們有某種能力能夠回顧、檢查或嘗試。?;旧蠂@它進(jìn)行抽樣,這也是一種技術(shù)。

事實(shí)證明,實(shí)際上LLM像是知道什么時(shí)候搞砸了一樣。例如,假設您要求模型生成一首不押韻的詩(shī):

它可能會(huì )給你一首詩(shī),但它實(shí)際上是押韻的。事實(shí)證明,特別是對于更大的模型,比如 GPT-4,你可以問(wèn)它,“你完成任務(wù)了嗎?”實(shí)際上,GPT-4 很清楚自己沒(méi)有完成任務(wù)。它只是在采樣方面有點(diǎn)不走運。它會(huì )告訴你,“不,我沒(méi)有完成任務(wù)。讓我再?lài)L試一次?!?/p>

但是如果你不提示它,它甚至不會(huì )——就像它不知道要重新訪(fǎng)問(wèn)等等,你必須在你的提示中彌補這一點(diǎn)。你必須推動(dòng)它來(lái)檢查。如果你不要求它檢查,它不會(huì )自己檢查。它只是一個(gè)標記模擬器。

我認為更一般地說(shuō),很多這些技術(shù)都屬于我所說(shuō)的重建我們人類(lèi)的系統二的范圍。你可能熟悉人類(lèi)思考的系統一和系統二模式。

系統一是一個(gè)快速的自動(dòng)過(guò)程,我認為有點(diǎn)對應于 LLM,只是對標記進(jìn)行抽樣。系統二是大腦中較慢的、經(jīng)過(guò)深思熟慮的計劃部分。這實(shí)際上是上周的一篇論文,這個(gè)領(lǐng)域正在迅速發(fā)展。它被稱(chēng)為思想樹(shù)(Tree of Thought)。

在思想樹(shù)中,這篇論文的作者建議為任何給定的提示維護多個(gè)完成,然后也會(huì )在整個(gè)過(guò)程中對它們進(jìn)行評分,并保留那些進(jìn)展順利的。大家看看這是否有意義。很多人真的在把玩一些prompt工程,基本上是希望讓LLM恢復一些我們大腦中具有的能力。

我想在這里指出的一件事是,這不僅僅是一個(gè)提示。這實(shí)際上是與一些 Python 膠水代碼一起使用的提示,因為你實(shí)際上要維護多個(gè)提示,你還必須在這里做一些樹(shù)搜索算法來(lái)找出擴展哪個(gè)提示等等。因此,它是 Python 膠水代碼和在 while 循環(huán)或更大算法中調用的各個(gè)提示的共生體。

我還認為這里與 AlphaGo 有一個(gè)非??岬南嗨浦?。AlphaGo下圍棋有一個(gè)放下一塊棋子的策略,這個(gè)策略本來(lái)就是模仿人訓練出來(lái)的。但是除了這個(gè)策略之外,它還會(huì )做蒙特卡洛搜索,它會(huì )在圍棋中打出多種可能性并評估所有這些,只保留那些運作良好的。我認為這有點(diǎn)類(lèi)似于A(yíng)lphaGo,但是針對于文本。

就像思想樹(shù)一樣,我認為更普遍的是,人們開(kāi)始真正探索更通用的技術(shù),不僅僅是簡(jiǎn)單的問(wèn)答提示,而是看起來(lái)更像是將許多提示串在一起的 Python 膠水代碼。

在右邊,我有一個(gè)來(lái)自這篇論文的例子,叫做 React,他們將提示的答案構造為一系列思考、行動(dòng)、觀(guān)察、思考、行動(dòng)、觀(guān)察,這是一個(gè)完整的展開(kāi),一種思考 回答查詢(xún)的過(guò)程。在這些動(dòng)作中,模型也被允許使用工具。

在左邊,我有一個(gè)AutoGPT 的例子。順便說(shuō)一句,AutoGPT 是一個(gè)我認為最近炒得沸沸揚揚的項目,但我仍然覺(jué)得它有點(diǎn)鼓舞人心。

它是一個(gè)允許 LLM 保留任務(wù)列表并繼續遞歸分解任務(wù)的項目,我認為目前效果不是很好,不建議人們在實(shí)際應用中使用它。但我認為,隨著(zhù)時(shí)間的推移,這是可以從中汲取靈感的東西。AutoGPT有點(diǎn)像讓我們的模型系統思考。

接下來(lái)一件事,我覺(jué)得有點(diǎn)意思的是 ,LLM 有種不想成功的心理怪癖。它們只是想模仿。如果你想成功,你應該要求它。

我的意思是,當 Transformer 被訓練時(shí),它們有訓練集,并且它們的訓練數據中可以有一個(gè)完整的性能質(zhì)量范圍。例如,可能有一些物理問(wèn)題或類(lèi)似問(wèn)題的提示,可能有一個(gè)學(xué)生的解決方案完全錯誤,但也可能有一個(gè)非常正確的專(zhuān)家答案。Transformer無(wú)法區分它們之間的區別——它們知道低質(zhì)量解決方案和高質(zhì)量解決方案,但默認情況下,它們想要模仿所有這些,因為它們只是接受過(guò)語(yǔ)言建模方面的訓練。在測試的時(shí)候,你必須要求一個(gè)好的表現。

上面論文中的這個(gè)例子,他們嘗試了各種提示,“l(fā)et"s think step by step”非常強大,因為它把推理分散到許多標記上但更好的提示方法是:"讓我們一步一步地解決這個(gè)問(wèn)題 確定我們有正確的答案"。

這就像獲得正確答案的條件一樣,這實(shí)際上使Transformer工作得更好,因為T(mén)ransformer現在不必在低質(zhì)量解決方案上對沖其概率質(zhì)量,盡管這聽(tīng)起來(lái)很荒謬。。。

基本上,請隨意尋求一個(gè)強有力的解決方案,說(shuō)出您是該主題的領(lǐng)先專(zhuān)家之類(lèi)的話(huà),假裝你有 IQ 120,等等。

不要試圖要求太多的智商,因為如果你要求 400 的智商,你可能會(huì )在數據分布之外;或者更糟糕的是,你可能會(huì )在一些科幻的數據分布中,它會(huì )開(kāi)始 進(jìn)行一些科幻角色扮演,或類(lèi)似的事情。我認為你必須找到合適的智商設定。那里有一些U形曲線(xiàn)。

接下來(lái),正如我們所看到的,當我們試圖解決問(wèn)題時(shí),我們知道自己擅長(cháng)什么,不擅長(cháng)什么,并且我們在計算上依賴(lài)工具。

你想對你的LLM做同樣的事情。特別是,我們可能希望為它們提供計算器、代碼解釋器等,以及進(jìn)行搜索的能力,并且有很多技術(shù)可以做到這一點(diǎn)。

再次要記住的一件事是,默認情況下這些Transformer可能不知道它們不知道的事情,你甚至可能想在提示中告訴Transformer,“你的心算不太好。每當您需要進(jìn)行大數加法、乘法或其他操作時(shí),請使用此計算器。以下是您如何使用計算器。使用這個(gè)標記組合,等等,等等?!蹦惚仨毎阉闯鰜?lái),因為默認情況下模型不知道它擅長(cháng)什么或不擅長(cháng)什么,就像你和我一樣。

接下來(lái),我認為一件非常有趣的事情是,我們從一個(gè)只有檢索的世界走到鐘擺擺動(dòng)的另一個(gè)極端,那里只有LLM的記憶

但實(shí)際上,在這兩者之間有檢索增強模型的整個(gè)空間,這在實(shí)踐中非常有效。

正如我所提到的,Transformer的上下文窗口是它的工作內存。如果您可以將與任務(wù)相關(guān)的任何信息加載到工作內存中,那么該模型將運行得非常好,因為它可以立即訪(fǎng)問(wèn)所有內存。我認為很多人對基本上檢索增強生成非常感興趣,在上圖底部,我有一個(gè)Llama索引的例子,它是許多不同類(lèi)型數據的一個(gè)數據連接器,你可以索引所有這些數據,讓 LLM 訪(fǎng)問(wèn)它。

新興的秘訣是獲取相關(guān)文檔,將它們分成塊,將它們全部嵌入,得到表示該數據的嵌入向量,將其存儲在向量存儲中;然后在測試時(shí),對矢量存儲進(jìn)行某種查詢(xún),獲取可能與您的任務(wù)相關(guān)的塊,然后將它們填充到提示中,然后生成。這在實(shí)踐中可以很好地工作。這類(lèi)似于你我解決問(wèn)題的時(shí)候,你可以憑記憶做任何事情,Transformer的記憶力非常大,但它有助于參考一些主要文件。

無(wú)論何時(shí),您發(fā)現自己要回到教科書(shū)上找東西,或者每當您發(fā)現自己要回到圖書(shū)館的文檔中查找東西時(shí),Transformer肯定也想這樣做。您對庫的某些文檔如何工作有一定的記憶,但最好查找一下。同樣的事情也適用于LLM。

接下來(lái),我想簡(jiǎn)單說(shuō)一下約束提示。我也覺(jué)得這很有趣。這是在 LLM 的輸出中強制使用特定模板的技術(shù),實(shí)際上這是 Microsoft 的一個(gè)示例。

在這里,我們強制 LLM 的輸出將是 JSON,這實(shí)際上將保證輸出將采用這種形式,因為它們進(jìn)入并擾亂了來(lái)自Transformer的所有不同標記的概率,并且固定住這些標記。然后Transformer只填充此處的空白,然后可以對可能進(jìn)入這些空白的內容實(shí)施額外的限制。這可能真的很有幫助,我認為這種約束抽樣也非常有趣。

我還想說(shuō)幾句微調。您可以通過(guò)快速prompt工程取得很大進(jìn)展,但也可以考慮微調您的模型。

微調模型意味著(zhù)你實(shí)際上要改變模型的權重?,F在在實(shí)踐中做到這一點(diǎn)變得越來(lái)越容易,這是因為最近開(kāi)發(fā)了許多技術(shù)并擁有庫調用。例如,像 Lora 這樣的參數高效微調技術(shù)可確保您只訓練模型的小而稀疏的部分。因此大部分模型都保持在基礎模型上,并且允許更改其中的一些部分, 這在經(jīng)驗上仍然很有效,并且使得僅調整模型的一小部分成本更低。

這也意味著(zhù),因為你的大部分模型都是固定的,你可以使用非常低的精度推理來(lái)計算這些部分,因為它們不會(huì )被梯度下降更新,這也使得一切都更加高效。

此外,我們還有許多開(kāi)源的高質(zhì)量基礎模型。目前,正如我提到的,我認為 Llama 相當不錯,盡管我認為它現在還沒(méi)有獲得商業(yè)許可。需要記住的是,微調在技術(shù)上涉及更多,它需要更多的技術(shù)專(zhuān)長(cháng)才能做對。它需要數據集和/或可能非常復雜的合成數據流程的人工數據承包商。這肯定會(huì )大大減慢你的迭代周期。我想在較高的層次上說(shuō),SFT 是可以實(shí)現的,因為你只是在繼續語(yǔ)言建模任務(wù)。

它相對簡(jiǎn)單;但 RLHF 是一個(gè)非常多的研究領(lǐng)域,而且它更難開(kāi)始工作。我可能不建議有人嘗試推出他們自己的 RLHF 實(shí)現。這些東西非常不穩定,很難訓練,現在對初學(xué)者來(lái)說(shuō)不是很友好,而且它也有可能變化得非???。

我認為以下這些是我現在的默認建議。

我會(huì )把你的任務(wù)分成兩個(gè)主要部分。第一,實(shí)現你的最佳表現,第二,按照這個(gè)順序優(yōu)化你的費用。

首先,目前最好的性能來(lái)自 GPT4 模型。它是迄今為止功能最強大的模型。然后, 讓提示里包含詳細的任務(wù)內容、相關(guān)信息和說(shuō)明。想想如果它們不能給你回郵件你會(huì )告訴它們什么。要記住任務(wù)承包商是人,他們有內心獨白,他們非常聰明;而LLM不具備這些品質(zhì)。因此,請務(wù)必仔細考慮LLM的心理,并迎合這一點(diǎn)。甚至向這些提示添加任何相關(guān)的上下文和信息。多參考很多提示工程技術(shù)。我在上面的幻燈片中突出顯示了其中一些,但這是一個(gè)非常大的空間,我只建議您在線(xiàn)尋找快速的Prompt工程技術(shù)。那里有很多內容。嘗試使用少樣本few-shots示例提示。這指的是你不只是想問(wèn),你還想盡可能地展示(你想要的),給它舉例子,如果可以的話(huà),幫助它真正理解你的意思。嘗試使用工具和插件來(lái)分擔 LLM 本身難以完成的任務(wù)。然后不僅要考慮單個(gè)提示和答案,還要考慮潛在的鏈條和反射,以及如何將它們粘合在一起,以及如何制作多個(gè)樣本等。最后,如果你認為你已經(jīng)最大化了提示工程的效果,我認為你應該堅持一段時(shí)間,看看一些可能對你的應用程序的模型微調,但預計這會(huì )更慢并且涉及更多。然后這里有一個(gè)脆弱的專(zhuān)家研究區,我想說(shuō)的是 RLHF,如果你能讓它工作的話(huà)。它目前確實(shí)比 SFT 好一點(diǎn),但是,我想說(shuō)的是,這非常復雜。為了優(yōu)化您的成本,請嘗試探索容量較低的模型或更短的提示等。

我還想談?wù)勎艺J為 LLM 目前非常適合的用例。特別要注意的是,今天的 LLM 有很多限制,我會(huì )在所有應用中牢記這一點(diǎn)。

模型,順便說(shuō)一句,這可能是一個(gè)完整的演講,我沒(méi)有時(shí)間詳細介紹它。模型可能有偏見(jiàn),它們可能捏造、產(chǎn)生幻覺(jué)信息,它們可能有推理錯誤,它們可能在整個(gè)類(lèi)別的應用程序中都掙扎,它們有知識截止日期,比如說(shuō),2021 年 9 月。

Twitter 每天都在發(fā)生大量對LLM的攻擊,包括即時(shí)注入、越獄攻擊、數據中毒攻擊等。我現在的建議是在低風(fēng)險應用程序中使用 LLM,將它們與始終與人工監督結合起來(lái),將它們用作靈感和建議的來(lái)源,并考慮副駕駛而不是在某處執行任務(wù)的完全自主的代理。目前尚不清楚這些模型是否合適。

最后我想說(shuō),GPT-4 是一個(gè)了不起的人工制品,我非常感謝它的存在。它很漂亮,它在很多領(lǐng)域都有大量的知識,它可以做數學(xué)、代碼等等。此外,還有一個(gè)蓬勃發(fā)展的生態(tài)系統,包括正在構建并納入生態(tài)系統的其他所有事物,其中一些我已經(jīng)談到了。

所有這些功能都觸手可及。

我和GPT-4說(shuō),“你能說(shuō)些什么來(lái)激勵 Microsoft Build 2023 的觀(guān)眾嗎?”我將其輸入 Python 并逐字記錄,GPT-4 說(shuō)了以下內容。

順便說(shuō)一句,我不知道它們在主題演講中使用了這個(gè)技巧,我以為我很聰明,但它真的很擅長(cháng)這個(gè)。它說(shuō):“女士們,先生們,微軟 Build 2023 的創(chuàng )新者和開(kāi)拓者,歡迎來(lái)到與眾不同的聰明才智的聚會(huì )。你們是未來(lái)的建筑師,是塑造人類(lèi)蓬勃發(fā)展的數字領(lǐng)域的遠見(jiàn)者。擁抱技術(shù)的無(wú)限可能性,讓您的想法像您的想象一樣飛翔。

讓我們一起為子孫后代創(chuàng )造一個(gè)聯(lián)系更緊密、更卓越、更具包容性的世界。準備好釋放您的創(chuàng )造力,探索未知,將夢(mèng)想變?yōu)楝F實(shí)。你的旅程從今天開(kāi)始?!敝x謝!

本文來(lái)源:Web3天空之城,原文標題:《State of GPT: OpenAI 大神Andrej Karpathy 揭秘大模型原理和訓練全過(guò)程》

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: