每日速訊:圖靈獎得主楊立昆:不喜歡AGI,讓AI安全的長(cháng)遠方案是開(kāi)源
(資料圖片僅供參考)
7月6日,2023 世界人工智能大會(huì )開(kāi)幕式上,2018 年圖靈獎得主、Meta AI基礎人工智能研究院團隊首席人工智能科學(xué)家楊立昆(Yann LeCun)直言,不喜歡AGI(通用人工智能)這個(gè)名詞。
他解釋稱(chēng),每一個(gè)智能都是專(zhuān)項的,人類(lèi)智能也是非常專(zhuān)業(yè)、專(zhuān)項的,但LLM(大語(yǔ)言模型)只基于文本訓練,不是利用視頻訓練,因此它們不理解物理世界,沒(méi)辦法規劃、推理,就沒(méi)辦法實(shí)現目標。
在近期關(guān)于A(yíng)GI的辯論中,楊立昆多次表示,類(lèi)ChatGPT產(chǎn)品并不能真正理解現實(shí)世界,更無(wú)從談起實(shí)現人類(lèi)智慧。
楊立昆認為,現在還沒(méi)有一個(gè)足夠智能的系統來(lái)處理各種事情,所以人工智能系統需要一個(gè)世界模型(World Model),這個(gè)模型主要通過(guò)觀(guān)察來(lái)訓練,并通過(guò)少量交互處理不確定性。
世界模型就像人類(lèi)理解世界的方式一樣,通過(guò)物理直覺(jué)等方式了解世界的一切,對于未來(lái)10年的人工智能研究來(lái)說(shuō),這是個(gè)巨大挑戰。
對于如何實(shí)現AI的治理和規范,楊立昆稱(chēng),他認為可以通過(guò)可控的方法,設置安全護欄等使它們不會(huì )出現欺騙和支配人們的行為。
楊立昆最后表示,他完全不同意“因為任何人可用人工智能做任何事,情況可能會(huì )非常危險,所以需要嚴格監管人工智能”的說(shuō)法。
他認為,嚴格監管人工智能發(fā)展并不能保證AI安全,長(cháng)遠看開(kāi)源才能讓AI保持安全、良善。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。未來(lái)每個(gè)人都能通過(guò)人工智能助手和數字世界溝通。如果人工智能只被少數人控制,這是不可以的。
關(guān)鍵詞: