環(huán)球今亮點(diǎn)!急于應戰ChatGPT不管倫理道德?谷歌內測員工稱(chēng)Bard是“病態(tài)的騙子”、答復可能讓人喪命
上月谷歌正式公測人工智能(AI)聊天機器人Bard,這一正面對抗ChatGPT的重大行動(dòng)背后可能有隱患。媒體發(fā)現,為了在A(yíng)I競賽中不落于人后,谷歌在推出Bard時(shí)并沒(méi)有遵循以往的道德倫理承諾。
在Bard公測前,谷歌要求員工做內部測試。媒體稱(chēng),相關(guān)截圖顯示,內部討論時(shí),有一名谷歌員工得出了Bard是個(gè)“病態(tài)的騙子”這種結論,另一人形容Bard令人感到尷尬。
(資料圖片)
具體到Bard的回答方面,一名參與內測的谷歌員工稱(chēng),Bard給出的飛機如何著(zhù)陸建議往往會(huì )導致墜機。另一人稱(chēng),Bard給出的水肺潛水答復可能導致潛水者受重傷、甚至喪命。
去年12月,在ChatGPT橫空出世后不久,谷歌管理層就發(fā)出了“紅色代碼”(red code)級別的警告。此前媒體稱(chēng),谷歌CEO Sundar Pichai要求谷歌旗下產(chǎn)品盡快接入生成式AI,該警報催生了谷歌內部數十個(gè)生成式AI集成計劃,谷歌聯(lián)合創(chuàng )始人Sergey Brin甚至親自下場(chǎng)給Bard寫(xiě)代碼。還有媒體提到,在員工中測試Bard也是紅色代碼計劃的一部分。
本周三媒體指出,2021年,谷歌曾承諾,要將研究AI倫理道德的團隊成員擴大一倍,而且要投入更多資源評估AI技術(shù)的潛在危害。但去年11月ChatGPT問(wèn)世后大受歡迎,谷歌在此后幾個(gè)月內竭力將ChatGPT同類(lèi)的生成式AI融入旗下所有重要產(chǎn)品。谷歌這種明顯加快步伐的變化可能產(chǎn)生深遠的社會(huì )影響。
媒體提到,一些曾在谷歌工作和目前還為谷歌效力的員工透露,去年12月拉響“紅色警報”后,谷歌高層領(lǐng)導改變了風(fēng)險偏好,他們認定,盡管還需要讓道德團隊參與其中,但只要將新產(chǎn)品稱(chēng)為“實(shí)驗”,公眾就可能原諒產(chǎn)品的缺點(diǎn)。
上述員工稱(chēng),此前谷歌承諾強化的道德規范工作團隊現在被剝奪了權力,士氣低落。負責新產(chǎn)品安全和道德影響的員工被告知,不要妨礙、或試圖扼殺一切正在開(kāi)發(fā)的生成式AI工具。
谷歌本周三回應媒體稱(chēng),負責任的AI(responsible AI)仍然是公司的首要任務(wù)?!拔覀儗⒗^續投資一些團隊,他們致力于將我們的AI原則應用于我們的技術(shù)?!?/p>
至少目前看來(lái),谷歌在A(yíng)I道德方面還有所警惕。
華爾街見(jiàn)聞上月提到,從谷歌員工處獲悉,谷歌給Bard加入了很多responsible AI方面的工作,在正式發(fā)布公測前,谷歌耗費大量時(shí)間做出了完備的合規測試。從這個(gè)角度看,相比ChatGPT的驚艷表現,多數用戶(hù)評價(jià)Bard平淡無(wú)奇可能是谷歌有意為之。換句話(huà)說(shuō),谷歌認為Bard可以“無(wú)聊”,可以出錯,但不能“越界”。
上周日,谷歌的CEO Sundar Pichai警告,如果對AI部署不當,可能造成非常嚴重的危害。盡管存在緊迫感,Pichai仍警告企業(yè)不要被卷入到競爭態(tài)勢中。他認為,社會(huì )還沒(méi)有為AI的快速發(fā)展做好準備,因此需要更強有力的監管。
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: