AI應該如何被監管?業(yè)內辯論升級,谷歌和OpenAI存嚴重分歧|焦點(diǎn)
隨著(zhù)ChatGPT大火帶來(lái)的AI熱潮,如今,如何監管AI技術(shù)成為市場(chǎng)熱議的話(huà)題。
(相關(guān)資料圖)
一份最新的文件顯示,谷歌和OpenAI這兩大AI領(lǐng)域的領(lǐng)導者對政府應如何監管人工智能持有相反的看法。
OpenAI首席執行官Sam Altman最近一直在鼓吹由政府來(lái)監管AI技術(shù),甚至提到要建立一個(gè)類(lèi)似國際原子能機構的政府間組織來(lái)監管AI,而且他認為,該機構應該專(zhuān)注于監管AI技術(shù),以及為使用該技術(shù)的實(shí)體頒發(fā)許可。但谷歌則不希望AI監管一切都由政府統領(lǐng),該公司更傾向于“多層次、多利益相關(guān)者的AI治理方法”。
AI領(lǐng)域的其他人,包括研究人員,也表達了和谷歌類(lèi)似的觀(guān)點(diǎn),稱(chēng)政府部門(mén)對AI進(jìn)行監管可能是保護邊緣化社區的更好方式——盡管OpenAI認為技術(shù)進(jìn)步太快無(wú)法采用這種方法。
谷歌稱(chēng):
在國家層面,我們支持中心輻射式方法——由美國國家標準與技術(shù)研究院(NIST)等中央機構通知部門(mén)監管機構監督AI實(shí)施——而不是一個(gè)“人工智能部門(mén)”。AI將在金融服務(wù)、醫療保健和其他受監管的行業(yè)帶來(lái)前所未有的挑戰,這些挑戰將由具有這些行業(yè)經(jīng)驗的監管機構來(lái)應對,而不是一個(gè)新的、獨立的部門(mén)來(lái)監管。
華盛頓大學(xué)計算語(yǔ)言學(xué)實(shí)驗室教授兼主任Emily M. Bender說(shuō):
我完全同意所謂的AI系統不應該在沒(méi)有某種認證程序的情況下部署。但是這個(gè)過(guò)程應該取決于系統的用途?,F有的監管機構應保持其管轄權和決定權。
谷歌的這一觀(guān)點(diǎn)與OpenAI和微軟偏愛(ài)更集中的監管模式形成鮮明對比。微軟總裁Brad Smith表示,他支持組建一個(gè)新的政府機構來(lái)監管人工智能,而OpenAI 的創(chuàng )始人們也公開(kāi)表達了他們的愿景,即組建一個(gè)類(lèi)似國際原子能機構的組織來(lái)監管AI。
谷歌全球事務(wù)總裁Kent Walker表示,他“不反對”由新監管機構監督大型語(yǔ)言模型許可的想法,但表示政府應該“更全面地”看待這項技術(shù)。
谷歌和微軟在監管方面看似相反的觀(guān)點(diǎn)表明人工智能領(lǐng)域的爭論越來(lái)越多,爭論遠遠超出了技術(shù)應該受到多少監管的范疇。
今年5月,美國副總統哈里斯在會(huì )見(jiàn)了AI界重要公司的領(lǐng)導人后稱(chēng),這項技術(shù)“有可能極大地增加對安全和安保的威脅,侵犯公民權利和隱私,并侵蝕公眾對民主的信任和信心”。
她補充說(shuō),企業(yè)有責任遵守現有的法律,以及“倫理、道德和法律責任,以確保其產(chǎn)品的安全和保障”。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: