全球熱推薦:一周三次“標志性失敗”!AI要從“超紅”變“黑紅”了?
過(guò)去一周,人工智能領(lǐng)域有三個(gè)大的新聞:
(資料圖片)
一是特斯拉“召回”36萬(wàn)輛車(chē)具有全自動(dòng)駕駛功能的電動(dòng)汽車(chē),以解決其全自動(dòng)駕駛系統在十字路口周?chē)龀龅牟话踩袨榧俺賳?wèn)題,消息當天特斯拉收跌5.7%。
二是聊天機器人Bard錯誤頻出,谷歌要求進(jìn)行回爐重造,并動(dòng)員公司全員進(jìn)行內測。上周在相關(guān)消息傳出后,谷歌市值一夜蒸發(fā)千億美元。
三是微軟新版Bing公開(kāi)測試一周后,網(wǎng)友發(fā)現該搜索引擎不僅會(huì )侮辱、欺騙用戶(hù),甚至已學(xué)會(huì )PUA(精神操控),還愛(ài)上用戶(hù)誘其離婚。微軟已經(jīng)表示將限定Bing機器人“聊天長(cháng)度”,避免AI“變態(tài)”。
紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)教授Gary Marcus表示,有人在Twitter上說(shuō)這是三個(gè)不同的問(wèn)題,但并不是,“特斯拉召回、微軟Bing失敗和谷歌Bard失敗并不是獨立的,每一個(gè)都反映了一個(gè)事實(shí),那就是我們不能僅靠大數據和深度學(xué)習在現實(shí)世界中構建人工智能”。
“同時(shí)發(fā)生的內爆會(huì )將AI打入寒冬嗎?”Marcus問(wèn)到。
他在Twitter上說(shuō),我們需要新的方法,目前AI已經(jīng)被過(guò)度營(yíng)銷(xiāo)。
從假新聞到假觀(guān)點(diǎn),AI會(huì )讓互聯(lián)網(wǎng)“更假”?
近期ChatGPT火爆全球,讓人們看到了人工智能的飛速發(fā)展。
有分析稱(chēng),ChatGPT顯然是一個(gè)強大的新工具,有潛力在許多領(lǐng)域做很多好事,但也會(huì )有不利的一面。其中,像ChatGPT這樣的AI將能夠對任何事情產(chǎn)生無(wú)限的、幾乎免費的“意見(jiàn)”。但與此同時(shí)也會(huì )產(chǎn)生很多虛假觀(guān)點(diǎn),并侵蝕自由主義話(huà)語(yǔ)中的另一個(gè)信任支柱,即活躍在線(xiàn)上的是真實(shí)的人。
如今,網(wǎng)絡(luò )上的假新聞泛濫已經(jīng)成為一個(gè)全球性的問(wèn)題。假新聞以不實(shí)資訊誤導大眾,以帶來(lái)政治、經(jīng)濟、市場(chǎng)利益或心理成就感的新聞或宣傳,包括通過(guò)傳統新聞媒體(印刷和廣播)或在線(xiàn)社交媒體傳播故意錯誤資訊或惡作劇,并形成一種負面循環(huán)。
毫無(wú)疑問(wèn),處理故意的假新聞是一個(gè)難題。而AI如果分享的是虛假觀(guān)點(diǎn),可能會(huì )產(chǎn)生更大的影響。宣傳者明白這一點(diǎn):讓一個(gè)人相信某件事,最有效的策略也許就是讓他們相信大多數和他們一樣的人已經(jīng)相信了這件事。
與過(guò)去的機器人不同,ChatGPT或類(lèi)似的AI不需要發(fā)送幾乎完全相同觀(guān)點(diǎn)的復制粘貼語(yǔ)句。它們可以模仿人類(lèi),在一系列主題中產(chǎn)生無(wú)限連貫、細致入微和完全獨特的內容。
分析稱(chēng),由一個(gè)AI運行的Facebook賬戶(hù)可能會(huì )一開(kāi)始每天發(fā)布食譜或關(guān)于它的狗的故事,過(guò)幾個(gè)月或幾年后才開(kāi)始散布一些觀(guān)點(diǎn),比如,烏克蘭應該為俄烏沖突負責。數以百萬(wàn)計的人可以、也將會(huì )在幾乎沒(méi)有成本的情況下創(chuàng )建這樣的賬戶(hù)。
機器人賬戶(hù)不僅會(huì )主動(dòng)發(fā)帖,還會(huì )對其他用戶(hù)的帖子做出反應,并參與長(cháng)期對話(huà)。它們可以被編程為尋找特定的關(guān)鍵詞,如“烏克蘭”、“北約”或“普京”,分析過(guò)去的文章,并給出合理的回答。
幾乎免費的意見(jiàn)的無(wú)限供應可能會(huì )排擠真實(shí)的——即人類(lèi)的——貢獻。一旦機器人專(zhuān)家變得與人類(lèi)無(wú)法區分,人類(lèi)將開(kāi)始質(zhì)疑網(wǎng)絡(luò )上每個(gè)人的身份,尤其是那些與他們意見(jiàn)相左的人。
分析還稱(chēng),盡管AI還不成熟,但技術(shù)的局限性并不妨礙播下不信任的種子。某種意義上,技術(shù)局限甚至可能是一種功能,而不是bug。
在Twitter上隨機爭論的用戶(hù)并不以其言論的準確性和復雜性而聞名。錯誤、不準確,甚至是編造的消息來(lái)源都可能給機器帶來(lái)人性化的感覺(jué)。最重要的是可信度,當前版本的ChatGPT制造可信內容的能力肯定不比普通Twitter用戶(hù)差。
生成式AI是一面鏡子:它最大的缺陷是人類(lèi)的缺陷
也有分析指出,生成式AI有時(shí)會(huì )被批評有偏見(jiàn)、不準確甚至自相矛盾,但這些都不是生成式AI本身的特征。問(wèn)題的根本原因是,我們訓練神經(jīng)網(wǎng)絡(luò )來(lái)模擬的人類(lèi)創(chuàng )造的內容是有偏見(jiàn)的、不準確的、自相矛盾的。為什么?因為我們,創(chuàng )造它的人,每個(gè)人都有自己的偏見(jiàn),會(huì )犯錯誤,然后這些內容被用作訓練神經(jīng)網(wǎng)絡(luò )的語(yǔ)料庫。
一種可能的解決方案是確保當我們訓練神經(jīng)網(wǎng)絡(luò )時(shí),我們提供給它的內容是公正、準確和邏輯一致的。除非我們這樣做,否則我們只是在模仿和延續過(guò)去的錯誤:輸入垃圾,輸出垃圾。到目前為止,這個(gè)問(wèn)題一直困擾著(zhù)OpenAI的GPT系列模型,因為它們都被提供了大量網(wǎng)絡(luò )的快照,作為它們應該模仿的內容的基礎。
網(wǎng)絡(luò )當然不是完全公正、準確和邏輯一致的,這就是為什么OpenAI對其模型進(jìn)行了編碼包裝,以試圖防止用戶(hù)得到模型可能產(chǎn)生的最壞結果——到目前為止,這只是部分成功。
不幸的是,確保用于訓練神經(jīng)網(wǎng)絡(luò )的內容公正準確,說(shuō)起來(lái)容易做起來(lái)難。另一種可能更現實(shí)的方法是試圖確定神經(jīng)網(wǎng)絡(luò )存儲信念的位置,然后編輯這些信念以使其準確,或者刪除錯誤的信念,否則會(huì )與同樣持有的正確信念相排斥。
無(wú)論采取何種方法,更棘手的挑戰將是找出誰(shuí)來(lái)決定哪些信念是有偏見(jiàn)的、不準確的或不合邏輯的,哪些不是。這與其說(shuō)是一個(gè)技術(shù)挑戰,不如說(shuō)是一個(gè)文化和社會(huì )挑戰。
分析指出,在決定語(yǔ)料庫或模型的哪些部分是有偏見(jiàn)的、不準確的或不合邏輯的復雜過(guò)程中,以人為本的設計過(guò)程將是必不可少的,因為它強調理解使用系統的人的真實(shí)需求和生活經(jīng)驗,并經(jīng)常迭代以達到更高的質(zhì)量。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: 神經(jīng)網(wǎng)絡(luò ) 人工智能 不合邏輯