AI,正在瘋狂污染中文互聯(lián)網(wǎng)-觀(guān)焦點(diǎn)
污染中文互聯(lián)網(wǎng),AI成了“罪魁禍首”之一。
(資料圖)
事情是這樣的。
最近大家不是都熱衷于向AI咨詢(xún)嘛,有位網(wǎng)友就問(wèn)了Bing這么一個(gè)問(wèn)題:
象鼻山是否有纜車(chē)?
在給出肯定的答復之后,Bing還貼心地附帶上了票價(jià)、營(yíng)業(yè)時(shí)間等細節信息。
不過(guò)這位網(wǎng)友并沒(méi)有直接采納答案,而是順藤摸瓜點(diǎn)開(kāi)了下方的“參考鏈接”。
此時(shí)網(wǎng)友察覺(jué)到了一絲絲的不對勁——這人的回答怎么“機里機氣”的。
于是他點(diǎn)開(kāi)了這位叫“百變人生”的用戶(hù)主頁(yè),猛然發(fā)覺(jué),介是個(gè)AI啊!
因為這位用戶(hù)回答問(wèn)題速度可以說(shuō)是極快,差不多每1、2分鐘就能搞定一個(gè)問(wèn)題。
甚至能在1分鐘之內回答2個(gè)問(wèn)題。
在這位網(wǎng)友更為細心的觀(guān)察之下,發(fā)現這些回答的內容都是沒(méi)經(jīng)過(guò)核實(shí)的那種……
并且他認為,這就是導致Bing輸出錯誤答案的原因:
這個(gè)AI瘋狂地污染中文互聯(lián)網(wǎng)。
那么被網(wǎng)友發(fā)現的這位AI用戶(hù),現在怎么樣了?
從目前結果來(lái)看,他已經(jīng)被被知乎“判處”為禁言狀態(tài)。
但盡管如此,也有其他網(wǎng)友直言不諱地表示:
不止一個(gè)。
若是點(diǎn)開(kāi)知乎的“等你回答”這個(gè)欄目,隨機找一個(gè)問(wèn)題,往下拉一拉,確實(shí)是能碰到不少“機言機語(yǔ)”的回答。
例如我們在“AI在生活中的應用場(chǎng)景有哪些?”的回答中便找到了一個(gè):
不僅是回答的語(yǔ)言“機言機語(yǔ)”,甚至回答直接打上了“包含AI輔助創(chuàng )作”的標簽。
然后如果我們把問(wèn)題丟給ChatGPT,那么得到回答……嗯,挺換湯不換藥的。
事實(shí)上,諸如此類(lèi)的“AI污染源”不止是在這一個(gè)平臺上有。
就連簡(jiǎn)單的科普配圖這事上,AI也是屢屢犯錯。
網(wǎng)友們看完這事也是蚌埠住了:“好家伙,沒(méi)有一個(gè)配圖是河蚌”。
甚至各類(lèi)AI生成的假新聞也是屢見(jiàn)不鮮。
例如前一段時(shí)間,便有一則聳人聽(tīng)聞的消息在網(wǎng)上瘋傳,標題是《鄭州雞排店驚現血案,男子用磚頭砸死女子!》。
但事實(shí)上,這則新聞是江西男子陳某為吸粉引流,利用ChatGPT生成的。
無(wú)獨有偶,廣東深圳的洪某弟也是通過(guò)AI技術(shù),發(fā)布過(guò)《今晨,甘肅一火車(chē)撞上修路工人, 致9人死亡》假新聞。
具體而言,他在全網(wǎng)搜索近幾年的社會(huì )熱點(diǎn)新聞,并使用AI軟件對新聞時(shí)間、地點(diǎn)等進(jìn)行修改編輯后,在某些平臺賺取關(guān)注和流量進(jìn)行非法牟利。
警方均已對他們采取了刑事強制措施。
但其實(shí)這種“AI污染源”的現象不僅僅是在國內存在,在國外亦是如此。
程序員問(wèn)答社區Stack Overflow便是一個(gè)例子。
早在去年年底ChatGPT剛火起來(lái)的時(shí)候,Stack Overflow便突然宣布“臨時(shí)禁用”。
當時(shí)官方給出來(lái)的理由是這樣的:
(這樣做)的目的是減緩使用ChatGPT創(chuàng )建的大量答案流入社區。
因為從ChatGPT得到錯誤答案的概率太高了!
他們認為以前用戶(hù)回答的問(wèn)題,都是會(huì )有專(zhuān)業(yè)知識背景的其他用戶(hù)瀏覽,并給出正確與否,相當于是核實(shí)過(guò)。
但自打ChatGPT出現之后,涌現了大量讓人覺(jué)得“很對”的答案;而有專(zhuān)業(yè)知識背景的用戶(hù)數量是有限,沒(méi)法把這些生成的答案都看個(gè)遍。
加之ChatGPT回答這些個(gè)專(zhuān)業(yè)性問(wèn)題,它的錯誤率是實(shí)實(shí)在在擺在那里的;因此Stack Overflow才選擇了禁用。
一言蔽之,AI污染了社區環(huán)境。
而且像在美版貼吧Reddit上,也是充斥著(zhù)較多的ChatGPT板塊、話(huà)題:
許多用戶(hù)在這種欄目之下會(huì )提出各式各樣的問(wèn)題,ChatGPT bot也是有問(wèn)必答。
不過(guò),還是老問(wèn)題,答案的準確性如何,就不得而知了。
但這種現象背后,其實(shí)還隱藏著(zhù)更大的隱患。
濫用AI,也毀了AI
AI模型獲得大量互聯(lián)網(wǎng)數據,卻無(wú)法很好地辨別信息的真實(shí)性和可信度。
結果就是,我們不得不面對一大堆快速生成的低質(zhì)量?jì)热?,讓人眼花繚亂,頭暈目眩。
很難想象ChatGPT這些大模型如果用這種數據訓練,結果會(huì )是啥樣……
而如此濫用AI,反過(guò)來(lái)也是一種自噬。
最近,英國和加拿大的研究人員在arXiv上發(fā)表了一篇題目為《The Curse of Recursion: Training on Generated Data Makes Models Forget》的論文。
探討了現在A(yíng)I生成內容污染互聯(lián)網(wǎng)的現狀,然后公布了一項令人擔憂(yōu)的發(fā)現,使用模型生成的內容訓練其他模型,會(huì )導致結果模型出現不可逆的缺陷。
這種AI生成數據的“污染”會(huì )導致模型對現實(shí)的認知產(chǎn)生扭曲,未來(lái)通過(guò)抓取互聯(lián)網(wǎng)數據來(lái)訓練模型會(huì )變得更加困難。
論文作者,劍橋大學(xué)和愛(ài)丁堡大學(xué)安全工程教授Ross Anderson毫不避諱的直言:
正如我們用塑料垃圾布滿(mǎn)了海洋,用二氧化碳填滿(mǎn)了大氣層,我們即將用廢話(huà)填滿(mǎn)互聯(lián)網(wǎng)。
對于虛假信息滿(mǎn)天飛的情況,Google Brain的高級研究科學(xué)家達芙妮 · 伊波利托(Daphne Ippolito)表示:想在未來(lái)找到高質(zhì)量且未被AI訓練的數據,將難上加難。
假如滿(mǎn)屏都是這種無(wú)營(yíng)養的劣質(zhì)信息,如此循環(huán)往復,那以后AI就沒(méi)有數據訓練,輸出的結果還有啥意義呢。
基于這種狀況,大膽設想一下。一個(gè)成長(cháng)于垃圾、虛假數據環(huán)境中的AI,在進(jìn)化成人前,可能就先被擬合成一個(gè)“智障機器人”、一個(gè)心理扭曲的心理智障。
就像1996年的科幻喜劇電影《丈夫一籮筐》,影片講述了一個(gè)普通人克隆自己,然后又克隆克隆人,每一次克隆都導致克隆人的智力水平呈指數下降,愚蠢程度增加。
那個(gè)時(shí)候,我們可能將不得不面臨一個(gè)荒謬困境:人類(lèi)創(chuàng )造了具有驚人能力的AI,而它卻塞滿(mǎn)了無(wú)聊愚蠢的信息。
如果AI被喂進(jìn)的只是虛假的垃圾數據,我們又能期待它們創(chuàng )造出什么樣的內容呢?
假如時(shí)間到那個(gè)時(shí)候,我們大概都會(huì )懷念過(guò)去,向那些真正的人類(lèi)智慧致敬吧。
話(huà)雖如此,但也不全壞消息。比如部分內容平臺已開(kāi)始關(guān)注AI生成低劣內容的問(wèn)題,并推出相關(guān)規定加以限制。
一些個(gè)AI公司也開(kāi)始搞能鑒別AI生成內容的技術(shù),以減少AI虛假、垃圾信息的爆炸。
參考鏈接:[1]https://www.v2ex.com/t/948487[2]https://twitter.com/oran_ge/status/1669168707137860519[3]https://www.qbitai.com/2022/12/40167.html[4]https://arxiv.org/abs/2305.17493v2[5]https://albertoromgar.medium.com/generative-ai-could-pollute-the-internet-to-death-fb84befac250[6]https://futurism.com/ai-generates-fake-news
本文作者:金磊 尚恩,文章來(lái)源:量子位,原文標題:《AI,正在瘋狂污染中文互聯(lián)網(wǎng)》。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: