一次10萬(wàn)token!GPT4最強對手史詩(shī)升級,百頁(yè)資料一分鐘總結完畢
號稱(chēng)ChatGPT“最強競爭對手”的Claude,今天迎來(lái)史詩(shī)級更新——
模型記憶力原地起飛,現在1分鐘看完一本數萬(wàn)字的小說(shuō),已經(jīng)不在話(huà)下。
消息一出,評論區直接炸了,網(wǎng)友們蜂擁而至,“woc連連”:
(資料圖片)
瘋了瘋了!
事情進(jìn)展得太快了,又是為人類(lèi)擔心的一天!
原來(lái),這次更新,將模型的上下文窗口token數提到了足足10萬(wàn),相當于7.5萬(wàn)個(gè)單詞!
這意味著(zhù),大模型“記性”不好的缺陷現在得到補強,我們可以直接丟給它上百頁(yè)上萬(wàn)字的材料,比如財報、技術(shù)文檔甚至是一本書(shū)。
而它都能在一分鐘之內幫你分析總結完畢!
要知道,之前市面上幾乎所有AI聊天機器一次都只能讀取有限數量的文本,理解長(cháng)資料里的上下文關(guān)系非常災難。
而我們人類(lèi)自己去處理大篇幅的文本又太慢了,比如光是要讀完10萬(wàn)token的材料,就需要大約5個(gè)多小時(shí),更別提還要花更多的時(shí)間去理解去消化才能進(jìn)行總結。
現在,Claude直接一把搞定。
這波,簡(jiǎn)直是“五雷轟頂”、“反向開(kāi)卷”GPT-4,因為,剛剛后者也不過(guò)才做到3.2萬(wàn)token。
所以,一次性比GPT-4多出3倍的處理量,Claude效果提升究竟如何?
Claude重磅更新:一次記憶10萬(wàn)token
據Anthropic官方介紹,升級后的Claude-100k版本,對話(huà)和任務(wù)處理能力雙雙得到極大提升。
一方面,是“一次性可處理文本量”的增加,直接拓寬了Claude的可從事崗位類(lèi)型。
之前,大模型最多用來(lái)處理個(gè)幾十頁(yè)的文檔。
現在,Claude已經(jīng)能速讀公司財報年報、技術(shù)開(kāi)發(fā)文檔、識別法律文件中的風(fēng)險、閱讀上百頁(yè)研究論文、乃至于處理整個(gè)代碼庫中的數據。
最關(guān)鍵的是,它不僅能通讀全文總結其中的要點(diǎn),還能進(jìn)一步完成具體任務(wù),如寫(xiě)代碼、整理表格等。
例如,快速理解幾百頁(yè)的開(kāi)發(fā)文檔,并根據文檔開(kāi)發(fā)應用程序demo。
以Claude之前沒(méi)見(jiàn)過(guò)的一項新技術(shù)LangChain作為示例:
當交給它一個(gè)240頁(yè)的LangChain API報告后,要求它快速給出一個(gè)LangChain的demo演示:
幾乎沒(méi)用多少時(shí)間,Claude就快速給出了一個(gè)基于LangChain開(kāi)發(fā)的應用程序demo:
又例如,甩給它一個(gè)漫長(cháng)但又不得不聽(tīng)的5小時(shí)知識播客:
它不僅能將重點(diǎn)轉成文字提取出來(lái),還能快速整理表格,對觀(guān)點(diǎn)進(jìn)行分析:
難度增大一點(diǎn),30頁(yè)的研究論文也能很好地處理,甚至能準確指定它整理某一章節的某一段落:
除此之外,還能幫導演處理劇本選址一類(lèi)的問(wèn)題。如給出《沙丘》的電影腳本,問(wèn)Claude最適合拍攝的地點(diǎn),它很快就能給出幾個(gè)對應的參考地址:
最后,官方還給出了一個(gè)《了不起的蓋茨比》案例,雖然沒(méi)有demo演示。
他們將這篇喂給Claude后,替換了其中一個(gè)角色Mr. Carraway,把他的角色變成“Anthropic里的一位工程師”,再交給Claude閱讀,讓它找不同。
幾乎只用22秒鐘,Claude就讀完這本書(shū),并發(fā)現了Mr. Carraway的“不同身份”。
另一方面則是“記憶力”的增加,帶來(lái)了對話(huà)題掌控度的提升、以及聊天能力的提升。
此前大模型經(jīng)常會(huì )出現“聊著(zhù)聊著(zhù)忘了話(huà)題”的情況,對話(huà)窗口總字數超過(guò)幾千字后,開(kāi)始胡言亂語(yǔ)。
舉個(gè)栗子,如果你用大量提示詞設置了一個(gè)ChatGPT版貓娘,那么它開(kāi)始聊天后,可能幾個(gè)小時(shí)就忘記了自己和你說(shuō)過(guò)的話(huà),開(kāi)始表現出一些“出軌”的跡象(手動(dòng)狗頭)
但現在,擁有一次10萬(wàn)+個(gè)token記憶力的Claude,則不太可能出現這種情況,反而能牢牢記住和你聊過(guò)的話(huà)題,連續交談上好幾天。
那么,目前我們能通過(guò)什么方式用上最新版Claude呢?
API和網(wǎng)頁(yè)版均已上線(xiàn)
Anthropic先是宣布推出了Claude-100k的API版本,之后又火速上線(xiàn)了網(wǎng)頁(yè)端。
所以無(wú)論你是用網(wǎng)頁(yè)端還是用API,目前都已經(jīng)可以直接體驗這個(gè)擁有“超長(cháng)記憶力”的Claude版本。
很快啊,已經(jīng)有網(wǎng)友迫不及待玩上了。
像OthersideAI的CEO Matt Shumer,就試用了一下網(wǎng)頁(yè)端的Claude-100k總結技術(shù)報告的效果。
他先測了波Claude-9k的效果,發(fā)現它面對長(cháng)達上百頁(yè)的GPT-4技術(shù)報告,還是會(huì )出現“幻覺(jué)”;隨后測試新版Claude-100k,發(fā)現它給出了有理有據的估計:
GPT-4的參數量級大約在5000億左右!
這是它的推測過(guò)程:
不知道這波OpenAI的奧特曼會(huì )不會(huì )出來(lái)辟謠(手動(dòng)狗頭)。
還有一位Assembly AI的老哥,測試了一下Claude-100k的API版本。
在視頻演示中,他用Claude-100k總結了一下Lex Friedman的5小時(shí)長(cháng)播客(內容與John Carmack有關(guān)),效果看起來(lái)也非常不錯:
但無(wú)論是網(wǎng)頁(yè)版還是API,都還不是我們能免注冊直接試玩的版本。
之前我們說(shuō)的不用注冊、不用申請、不用“騷操作”就能玩、體驗也很不錯的是slack端,它的添加方法我們在之前的文章中介紹過(guò),非常簡(jiǎn)單。
遺憾的是,目前它還是Claude-9k“體驗版”。
所以,總結一下就是,這個(gè)Claude-100k的版本:
可以用API的方式體驗,不過(guò)不是免費的;
網(wǎng)頁(yè)版也行,但需要你有試用資格,沒(méi)有就去申請,等一等;
Slack端還不行,只是個(gè)體驗版。
反向開(kāi)卷GPT-4,網(wǎng)友:卷對了方向
昨天,谷歌剛剛在I/O大會(huì )上宣布了數項重大更新,包括:
重構谷歌搜索、開(kāi)啟AI對話(huà)
發(fā)布大模型PaLM 2
全面開(kāi)放Bard,不用排隊直接玩
……
這被視作針對微軟和OpenAI的一系列反擊。
現在,來(lái)自Anthropic的Claude緊隨其后,發(fā)布如此重大更新,直接反向開(kāi)卷GPT-4——
有網(wǎng)友評價(jià):
Claude卷對了方向。
確實(shí),目前大部分語(yǔ)言模型普遍都只能處理2-8k的token量,大家都在苦苦追尋提高模型記憶力的辦法。
比如上個(gè)月那篇可將Transformer token上限擴展到100萬(wàn)甚至200萬(wàn)的論文就引起了非常大的關(guān)注,不過(guò)網(wǎng)友測試效果似乎不太理想。
現在,Claude直接“業(yè)內第一人”宣布做到了100k,并拿出來(lái)給大家用,很難不讓人稱(chēng)贊。
除此之外,還有網(wǎng)友“站得更高”,稱(chēng):
資本主義之間的競爭果然很美妙。
言外之意,卷得好啊卷得妙。沒(méi)有巨頭和各垂直企業(yè)之間的你爭我搶?zhuān)覀兡哪茉诙潭虄商熘g又目睹了如此多和重大的進(jìn)展呢?
誒,不過(guò)話(huà)說(shuō)回來(lái),鑒于A(yíng)nthropic是由當初不滿(mǎn)意OpenAI與微軟走得太近的幾位前員工創(chuàng )立,而谷歌也斥資3億美元投資了這家公司。
大膽猜測:
這次兩人前后腳的“一唱一和”,是不是提前商量好的?
本文作者:豐色、蕭簫,來(lái)源:量子位,原文標題:《一次10萬(wàn)token!GPT4最強對手史詩(shī)升級,百頁(yè)資料一分鐘總結完畢》
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: