科技巨頭的“算計”:AI行業(yè)需要“監管” 但規則自己定
上個(gè)月開(kāi)始,OpenAI首席執行官Sam Altman多次在公開(kāi)場(chǎng)合警告人工智能可能帶來(lái)的危險,并呼吁加強監管——這一舉動(dòng)令所有人吃驚:難道向來(lái)對監管唯恐避之不及的科技公司們學(xué)乖了?
不過(guò),如果從另一個(gè)角度來(lái)看,不管是OpenAI還是其他科技公司,最近瘋狂鼓吹加強監管,其中包含了它們自己的“算計”:獲得更多政客的支持,成為這一新興行業(yè)的規則制定者,并且時(shí)刻維持其領(lǐng)先地位。
【資料圖】
歐美對監管立法態(tài)度大相徑庭
去年年底以來(lái),人工智能各類(lèi)成果層出不窮。僅今年前四個(gè)月,該行業(yè)就籌集了超過(guò)10億美元的風(fēng)險投資資金,人工智能的概念已經(jīng)擴展到了牙刷、無(wú)人機等各個(gè)領(lǐng)域。不過(guò),這一技術(shù)發(fā)展的程度和速度將在很大程度上取決于監管是否介入。
大型科技公司表示它們希望受到監管,但現實(shí)情況要復雜得多,歐美的科技監管規則差異就很大。
在美國,谷歌、微軟、IBM和OpenAI已要求立法者監督人工智能,它們認為這對于保證安全是必要的。但在歐盟,政客們最近投票批準了對生成式AI設置限制的立法草案。而這些公司的游說(shuō)者則對這一立法草案表示反對,認為其將令歐洲在當前的全球人工智能競爭中居于落后地位。歐盟制定全面的數據保護法已有五年多了,并且實(shí)施嚴格的競爭和內容審核準則。然而,在美國,二十多年來(lái)幾乎沒(méi)有任何監管。
科技公司知道它們不能忽視歐盟,特別是在其社交媒體和數據保護規則已成為全球標準的情況下。歐盟的《人工智能法案》可能在未來(lái)兩到三年內實(shí)施,這將是西方市場(chǎng)監管人工智能的首次嘗試,其中將包含嚴厲處罰的條款。如果公司違反該法案,歐盟可能會(huì )對其處以相當于公司年營(yíng)業(yè)額6%的罰款,并禁止產(chǎn)品在歐盟運營(yíng)。據估計,歐盟占全球人工智能市場(chǎng)的20%至25%,預計其價(jià)值在10年內將超過(guò)1.3萬(wàn)億美元。
這使該行業(yè)處于微妙的境地。智庫Data Ethics聯(lián)合創(chuàng )始人Gry Hasselbalch表示,如果該法案成為法律,最大的人工智能提供商“將需要從根本上改變它們的透明度、處理風(fēng)險和部署模型的方式?!?/p>
從歡迎到警惕:為什么科技巨頭對歐盟AI監管的態(tài)度發(fā)生了變化?
與人工智能技術(shù)的迅速發(fā)展相比,歐盟的相關(guān)立法進(jìn)展緩慢。
早在2021年,歐盟委員會(huì )就發(fā)布了人工智能法案初稿,啟動(dòng)了漫長(cháng)的談判進(jìn)程。該提案采取了“基于風(fēng)險”的方法,在極端情況下禁止人工智能。草案的大部分內容都集中在“高風(fēng)險”事件的規則上。除此之外,草案還規定了深度造假和聊天機器人的透明度:人們在與人工智能系統交談時(shí)必須得到通知與之聊天的是人工智能,并且需要標記生成或操縱的內容。
大型科技公司在當時(shí)普遍歡迎這種基于風(fēng)險的做法。
IBM就曾表態(tài),希望確?!巴ㄓ萌斯ぶ悄堋薄粋€(gè)更廣泛的類(lèi)別,包括圖像和語(yǔ)音識別、音頻和視頻生成、模式檢測、問(wèn)答和翻譯等——被排除在法規監管的范疇之外。IBM歐盟事務(wù)主管Jean-Marc Leclerc表示:
我們敦促繼續采用基于風(fēng)險的方法,而不是試圖將技術(shù)作為一個(gè)整體來(lái)控制。
但也有行業(yè)觀(guān)察人士認為,如果是基于風(fēng)險的監管,將會(huì )令一些最強大的人工智能系統排除在被監管的范疇之外。Future of Life是一家最初由馬斯克部分資助的非營(yíng)利組織,該組織總裁Max Tegmark認為:
未來(lái)的人工智能系統將需要明確監管。 監管法案不應該像歐盟的草案那樣,按照一組有限的既定預期用途對它們進(jìn)行分類(lèi),而且只監管其中的一部分
在那個(gè)時(shí)候,看起來(lái)大型科技公司會(huì )得到它們想要的東西——歐盟甚至一度考慮將通用人工智能完全排除在這份法案的文本之外——直到2022年春天,政客們開(kāi)始擔心他們低估了它的風(fēng)險。在法國的敦促下,歐盟成員國開(kāi)始考慮監管所有通用人工智能,無(wú)論其用途如何。
這時(shí),此前一直置身于歐洲立法程序之外的OpenAI決定介入。2022年6月,該公司稱(chēng)“擔心一些提案可能會(huì )無(wú)意中導致所有的通用人工智能系統被默認成為監管對象”。
在ChatGPT問(wèn)世之后,歐洲議會(huì )對聊天機器人的能力和前所未有的受歡迎程度感到震驚,議員們在下一份草案中采取了更強硬的態(tài)度。兩周前批準的最新版本要求,OpenAI等“基礎模型”的開(kāi)發(fā)者必須總結用于訓練大型語(yǔ)言模型的受版權保護的材料,以提高透明度。
《人工智能法案》的兩位主要作者之一Dragos Tudorache解釋道:
最終,我們對生成式人工智能模型的要求是提高透明度。此外,如果存在“將算法暴露給壞人”的危險,那么開(kāi)發(fā)人員就必須努力為此提供保障措施。
雖然Meta、蘋(píng)果和亞馬遜對此基本上保持沉默,但其他主要科技公司則對此表示反對。谷歌表示,歐盟議會(huì )的控制措施將把通用人工智能視為高風(fēng)險,而實(shí)際上并非如此。谷歌還抗議說(shuō),新規則可能會(huì )干擾現有規則,因為有幾家公司表示它們已經(jīng)實(shí)施了內部的管控措施。
主動(dòng)要求被監督,人工智能公司葫蘆里賣(mài)的什么藥?
隨著(zhù)公眾發(fā)現生成式人工智能越來(lái)越多的缺陷,科技公司越來(lái)越直言不諱地要求監督——據一些官員稱(chēng),它們更愿意就監管議題進(jìn)行談判。在與Altman和谷歌CEO Sundar Pichai從5月底開(kāi)始接觸后,歐盟的市場(chǎng)競爭主管Margrethe Vestager承認,大型科技公司正在接受歐盟對透明度和風(fēng)險的要求。
但一些批評者認為,這些大公司之所以在這個(gè)時(shí)間點(diǎn)積極尋求被監管,實(shí)際上是確保其市場(chǎng)主導地位的一種方式。柏林赫蒂學(xué)院倫理與技術(shù)教授Joanna Bryson說(shuō):
如果政府現在介入,那么這些大公司就可以鞏固自己的領(lǐng)先地位,并找出那些正在接近它們的競爭者。
此外,人們更擔憂(yōu)的是,關(guān)于如何監管,當前這些明星公司的介入,會(huì )導致它們成為規則制定者——最終令規則變得有利于它們。
OpenAI首席執行官Sam Altman最近一直在鼓吹由政府來(lái)監管AI技術(shù),甚至提到要建立一個(gè)類(lèi)似國際原子能機構的政府間組織來(lái)監管AI,而且他認為,該機構應該專(zhuān)注于監管AI技術(shù),以及為使用該技術(shù)的實(shí)體頒發(fā)許可。
但谷歌則不希望AI監管一切都由政府統領(lǐng),該公司更傾向于“多層次、多利益相關(guān)者的AI治理方法”。AI領(lǐng)域的其他人,包括研究人員,也表達了和谷歌類(lèi)似的觀(guān)點(diǎn),稱(chēng)政府部門(mén)對AI進(jìn)行監管可能是保護邊緣化社區的更好方式——盡管OpenAI認為技術(shù)進(jìn)步太快無(wú)法采用這種方法。
有分析指出,OpenAI和谷歌在監管領(lǐng)域的這種爭議,就凸顯出雙方都希望成為游戲規則的制定者,并且制定有利于自身的監管規則。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: