国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

今日看點(diǎn):“危險!立刻停下所有大型AI研究!”馬斯克、蘋(píng)果聯(lián)合創(chuàng )始人等署名公開(kāi)信呼吁

當全社會(huì )都在為AI的進(jìn)化而歡呼雀躍,全新的、意想不到的風(fēng)險可能也正在悄悄醞釀。


【資料圖】

3月22日,生命未來(lái)研究所(Future of Life)向全社會(huì )發(fā)布了一封《暫停大型人工智能研究》的公開(kāi)信,呼吁所有人工智能實(shí)驗室立即暫停比GPT-4更強大的人工智能系統的訓練,暫停時(shí)間至少為6個(gè)月。該機構以“引導變革性技術(shù)造福生活,遠離極端的大規模風(fēng)險”為使命。

該機構在信中提到:

我們不應該冒著(zhù)失去對文明控制的風(fēng)險,將決定委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當確保強大的人工智能系統的效果是積極的,其風(fēng)險是可控的才能繼續開(kāi)發(fā)。

人工智能實(shí)驗室和獨立專(zhuān)家應在暫停期間,共同制定和實(shí)施一套先進(jìn)的人工智能設計和開(kāi)發(fā)的共享安全協(xié)議,由獨立的外部專(zhuān)家進(jìn)行嚴格的審查和監督。

截止目前,馬斯克、蘋(píng)果聯(lián)合創(chuàng )始人Steve Wozniak、Stability AI?創(chuàng )始人Emad Mostaque等上千名科技大佬和AI專(zhuān)家已經(jīng)簽署公開(kāi)信。

值得一提的是,OpenAI CEO奧特曼在與MIT研究科學(xué)家Lex Fridman的最新對話(huà)中指出,AI已經(jīng)出現其無(wú)法解釋的推理能力,同時(shí)承認“AI殺死人類(lèi)”有一定可能性。

那么ChatGPT是如何看待公開(kāi)信中AI對人類(lèi)社會(huì )的影響?華爾街見(jiàn)聞專(zhuān)門(mén)詢(xún)問(wèn)了ChatGPT 3.5,其表示隨著(zhù)人工智能技術(shù)的不斷發(fā)展和普及,人工智能可能對社會(huì )和人類(lèi)造成的影響將越來(lái)越大。這封公開(kāi)信提出的呼吁和建議,應該被視為引起更廣泛和深入討論的起點(diǎn)和參考,而不是一個(gè)終點(diǎn)或解決方案。

以下是公開(kāi)信原文:

正如廣泛的研究和頂級人工智能實(shí)驗室所承認的,人工智能系統對社會(huì )和人類(lèi)構成較大的風(fēng)險?!栋⑽髀羼R人工智能原則》中指出,高級人工智能可能代表著(zhù)地球上生命歷史的深刻變革,應該以相應的謹慎和資源進(jìn)行規劃和管理。然而,盡管最近幾個(gè)月人工智能實(shí)驗室掀起AI狂潮,開(kāi)發(fā)和部署越來(lái)越強大的數字大腦,但目前沒(méi)有人能理解、預測或可靠地控制AI系統,也沒(méi)有相應水平的規劃和管理。

現在,人工智能在一般任務(wù)上變得與人類(lèi)有競爭力,我們必須問(wèn)自己:我們應該讓機器在信息渠道中宣傳不真實(shí)的信息嗎?我們是否應該把所有的工作都自動(dòng)化,包括那些有成就感的工作?我們是否應該開(kāi)發(fā)非人類(lèi)的大腦,使其最終超過(guò)人類(lèi)數量,勝過(guò)人類(lèi)的智慧,淘汰并取代人類(lèi)?我們是否應該冒著(zhù)失去對我們文明控制的風(fēng)險?這樣的決定絕不能委托給未經(jīng)選舉的技術(shù)領(lǐng)袖。只有當我們確信強大的人工智能系統的效果是積極的,其風(fēng)險是可控的,才應該開(kāi)發(fā)。同時(shí),這種信心必須得到驗證,并隨著(zhù)系統的潛在影響的大小而加強。OpenAI最近關(guān)于人工智能的聲明中指出,在開(kāi)始訓練未來(lái)的系統之前,可能必須得到獨立的審查,對于最先進(jìn)的努力,同意限制用于創(chuàng )建新模型的計算增長(cháng)速度。我們同意,現在就該采取行動(dòng)。

因此,我們呼吁所有人工智能實(shí)驗室立即暫停比GPT-4更強大的人工智能系統的訓練,時(shí)間至少持續6個(gè)月。這種暫停應該是公開(kāi)的、可核查的,并包括所有關(guān)鍵參與者者。如果這種禁令不能迅速實(shí)施,政府應該介入并制定暫停令。

人工智能實(shí)驗室和獨立專(zhuān)家應在暫停期間,共同制定和實(shí)施一套先進(jìn)的人工智能設計和開(kāi)發(fā)的共享安全協(xié)議,由獨立的外部專(zhuān)家進(jìn)行嚴格的審查和監督。這些協(xié)議應該確保遵守協(xié)議的系統是安全的。值得一提的是,這并不意味著(zhù)暫停一般的人工智能開(kāi)發(fā),只是從危險的競賽中退后一步,限制不可預測的研究和開(kāi)發(fā)。

人工智能的研究和開(kāi)發(fā)應該重新聚焦于,使目前最先進(jìn)和強大的系統更加準確、安全、可解釋、透明、穩健、一致、值得信賴(lài)和忠誠。

同時(shí),人工智能開(kāi)發(fā)者必須與政策制定者合作,大幅加快開(kāi)發(fā)強大的人工智能治理系統。這些至少應該包括:專(zhuān)門(mén)針對人工智能的監管機構;監督和跟蹤高能力的人工智能系統和大型計算能力的硬件;出處和水印系統幫助區分真實(shí)和合成,并跟蹤模型泄漏;強大的審查和認證生態(tài)系統;對人工智能造成的傷害承擔責任;為人工智能安全技術(shù)研究提供強大的公共資金以及資源充足的機構,以應對人工智能可能導致的巨大的經(jīng)濟和政治破壞。

人類(lèi)可以通過(guò)人工智能享受繁榮的未來(lái)?,F在,我們成功地創(chuàng )建了強大的人工智能系統,可以在這個(gè)“人工智能之夏”中獲得回報,為所有人的明確利益設計這些系統,并給社會(huì )一個(gè)適應的機會(huì )。停止使用其他技術(shù)可能會(huì )對社會(huì )造成災難性影響,因此我們必須保持準備狀態(tài)。讓我們享受一個(gè)漫長(cháng)的人工智能夏天,而不是匆忙進(jìn)入秋天。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: