重磅!Open AI發(fā)布ChatGPT 安全方法
4月6日凌晨,Open AI在官網(wǎng)發(fā)布了《Our approach to AI safety》,以確保安全、可靠地為全球用戶(hù)提供ChatGPT服務(wù)。(地址:https://openai.com/blog/our-approach-to-ai-safety)
(資料圖)
目前,ChatGPT的安全問(wèn)題受到了全球多數國家的高度關(guān)注。意大利則直接禁用ChatGPT,歐洲多數國家也開(kāi)始紛紛重視ChatGPT是否侵犯數據隱私等。一時(shí)間生成式AI的數據安全成為熱門(mén)話(huà)題。
Open AI在這關(guān)鍵節點(diǎn)發(fā)布安全方法,這對其未來(lái)發(fā)展乃至整個(gè)AIGC行業(yè)都起到了關(guān)鍵的保護和穩定軍心的作用。
構建安全、可靠的AI產(chǎn)品
Open AI表示,在發(fā)布任何新系統之前,會(huì )進(jìn)行嚴格的測試。聘請外部專(zhuān)家提供反饋,通過(guò)人工反饋強化學(xué)習等技術(shù)改進(jìn)模型的行為,并構建廣泛的安全和監控系統。
例如,Open AI的最新模型GPT-4完成訓練后,花了6個(gè)多月的時(shí)間在整個(gè)組織內開(kāi)展工作,以使其在公開(kāi)發(fā)布之前更安全、更一致。
Open AI認為,強大的人工智能系統應該接受?chē)栏竦陌踩u估。需要監管以確保采用此類(lèi)做法,Open AI將積極與政府合作,以制定此類(lèi)監管的最佳框架。
從實(shí)踐中學(xué)習、優(yōu)化、改善
Open AI正在努力在部署前預防可預見(jiàn)的風(fēng)險,但是,在實(shí)驗、研發(fā)的過(guò)程中得到的反饋是有限的,盡管進(jìn)行了嚴謹、廣泛的測試仍然無(wú)法預測人們使用ChatGPT所產(chǎn)生的各種意外后果。所以,從實(shí)踐項目中學(xué)習、優(yōu)化和改善產(chǎn)品,成為重中之重。
Open AI通過(guò)自己的服務(wù)和API,以幫助開(kāi)發(fā)人員可以將最強大的大語(yǔ)言模型直接集成到產(chǎn)品中。這可以使得Open AI能夠監控濫用行為并采取行動(dòng),并不斷構建完善的緩解措施,保證Open AI的產(chǎn)品被用在安全、合規的項目上。
隨著(zhù)全球用戶(hù)使用的深入,這促使Open AI需要制定更細致、周全的對策來(lái)應對各種可能出現的危險。
保護兒童
保護兒童的安全一直是Open AI的重點(diǎn)工作。Open AI要求人們必須年滿(mǎn) 18 歲,或在父母同意的情況下年滿(mǎn)13歲才能使用Open AI的產(chǎn)品。Open AI正在研究驗證選項。
Open AI不允許其產(chǎn)品用于生成仇恨、騷擾、暴力或成人內容等。與GPT-3.5相比,Open AI最新的模型GPT-4響應,非法內容請求的可能性降低了82%,并且已經(jīng)建立了一個(gè)強大的系統來(lái)監控濫用情況。GPT-4現在可供 ChatGPT Plus 用戶(hù)使用,Open AI希望隨著(zhù)時(shí)間的推移讓更多人可以使用它。
尊重隱私
Open AI的大型語(yǔ)言模型是在廣泛的文本語(yǔ)料庫上訓練的,這些文本包括公開(kāi)可用的、許可的內容以及由人工審閱生成的內容。
Open AI不會(huì )使用數據來(lái)銷(xiāo)售服務(wù)、做廣告或建立人們的檔案——會(huì )通過(guò)使用數據使大語(yǔ)言模型對人們更有幫助。例如,ChatGPT 通過(guò)與人類(lèi)之間進(jìn)行的對話(huà),以進(jìn)一步培訓和改善產(chǎn)品。
雖然Open AI的一些訓練數據包括可在公共互聯(lián)網(wǎng)上獲得的個(gè)人信息。但只是希望大語(yǔ)言模型了解世界,而不是了解個(gè)人。因此,Open AI努力在可行的情況下,從訓練數據集中刪除個(gè)人信息,微調模型以拒絕對私人個(gè)人信息的請求,并對個(gè)人提出的從數據庫中刪除其個(gè)人信息的請求做出回應。
提高生成數據準確性
大型語(yǔ)言模型根據之前的訓練模式預測下一個(gè)單詞、句子或長(cháng)文。但在某些情況下,可能會(huì )出現數據不準確的情況。
提高生成數據的準確性,是OpenAI和許多其他AI開(kāi)發(fā)人員的重點(diǎn)正在取得進(jìn)展。通過(guò)用戶(hù)對被標記為不正確的主要數據源的 ChatGPT 輸出的反饋,GPT-4產(chǎn)生真實(shí)數據的性能比GPT-3.5高了40%。
持續的研究和參與
OpenAI認為,解決AI安全問(wèn)題的實(shí)際方法是投入更多時(shí)間和資源來(lái)研究有效的緩解和對齊技術(shù),并測試它們在現實(shí)世界中的濫用情況。
雖然OpenAI等了6個(gè)多月才部署GPT-4以更好地了解其功能、優(yōu)勢和風(fēng)險,但有時(shí)可能需要比這更長(cháng)的時(shí)間來(lái)提高AI系統的安全性。
因此,政策制定者和 AI 供應商需要確保AI的開(kāi)發(fā)和部署在全球范圍內得到有效管理,這樣就沒(méi)有人會(huì )為了取得成功而偷工減料。這是一項艱巨的挑戰,需要技術(shù)和制度創(chuàng )新,但OpenAI會(huì )全力以赴做出最大努力去改善。
本文作者:?AIGC開(kāi)放社區?,來(lái)源:AIGC開(kāi)放社區,原文標題:《重磅!Open AI發(fā)布ChatGPT 安全方法》
風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。關(guān)鍵詞: