国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

環(huán)球關(guān)注:Nature一周連發(fā)兩文探討ChatGPT:學(xué)術(shù)圈使用已不可避免,是時(shí)候明確使用規范了

在科技巨頭為了ChatGPT大打出手的另一邊,學(xué)術(shù)圈對于ChatGPT的關(guān)注也在升高。

一周時(shí)間內,Nature連發(fā)兩篇文章探討ChatGPT及生成式AI。


【資料圖】

畢竟ChatGPT最早還是在學(xué)術(shù)圈內掀起風(fēng)浪,先后有學(xué)者拿它寫(xiě)論文摘要、改論文。

Nature為此專(zhuān)門(mén)頒布禁令:ChatGPT不能當論文作者。Science則直接禁止投稿使用ChatGPT生成文本。

但趨勢已擺在眼前。

現在更應該做的,或許是明確ChatGPT對于科學(xué)界的意義以及應當處于怎樣的身位。

正如Nature所言:

生成式AI及背后的技術(shù)發(fā)展如此之快,每個(gè)月都有創(chuàng )新出現。研究人員如何使用它們,將決定著(zhù)技術(shù)和學(xué)界的未來(lái)。

ChatGPT改變學(xué)術(shù)圈規則

在《ChatGPT:五大優(yōu)先研究問(wèn)題》一文中,研究人員提出:

無(wú)法阻止ChatGPT殺入學(xué)術(shù)圈,當務(wù)之急應該是研究探討它會(huì )帶來(lái)哪些潛在影響。

如果后續ChatGPT被拿來(lái)設計實(shí)驗、進(jìn)行同行審議、輔助出版、幫編輯決定是否要接收文章……這些應用應該注意哪些問(wèn)題?現在人類(lèi)需要明確哪些邊界?

研究人員認為,有5個(gè)方面需要優(yōu)先考慮,并解釋了原因。

堅持人類(lèi)審查

ChatGPT等對話(huà)式AI的一大特點(diǎn),就是回答內容的準確性無(wú)法保證。而且編出來(lái)的瞎話(huà)都還很自然,容易對人產(chǎn)生誤導。

比如,研究人員讓ChatGPT對一篇關(guān)于認知行為療法(CBT)治療焦慮等癥狀是否有效的論文進(jìn)行總結概述。

ChatGPT給出的回答中,存在很多事實(shí)性錯誤。如它說(shuō)這項評估是基于46項研究,但實(shí)際上是69,而且夸大了CBT的有效性。

研究人員認為如果有學(xué)者使用了ChatGPT幫忙做研究,很可能被錯誤信息誤導。甚至會(huì )導致學(xué)者在不知情的情況下,剽竊他人成果。

因此,研究人員認為在評審論文過(guò)程中,人類(lèi)不能過(guò)度依賴(lài)于自動(dòng)化系統,最終還是要由人類(lèi)自己為科學(xué)實(shí)踐負責。

制定問(wèn)責規則

為了應對生成式AI的濫用,很多鑒別AI文本工具陸續誕生,它們能很好分辨出一段文字是不是人類(lèi)自己寫(xiě)的。

不過(guò),研究人員認為這種軍備賽大可不必,真正要做的是讓學(xué)術(shù)圈、出版商能更加公開(kāi)透明地使用AI工具。

論文作者應該明確標注哪些工作是AI承擔的,期刊如果使用AI審稿,也應該公開(kāi)說(shuō)明。

尤其是目前生成式AI已經(jīng)引發(fā)了關(guān)于專(zhuān)利問(wèn)題的討論,AI生成的圖像版權究竟該怎么算?

那么對于A(yíng)I生成的問(wèn)題,著(zhù)作權應該屬于為AI提供訓練數據的人?AI背后的制作公司?還是用AI寫(xiě)文章的學(xué)者?作者身份的問(wèn)題,也需要嚴謹定義。

投資真正開(kāi)放的LLM

目前,幾乎所有先進(jìn)的對話(huà)式AI,都是科技巨頭們帶來(lái)的。

關(guān)于A(yíng)I工具背后算法的工作原理,很多都還不得而知。

這也引發(fā)了社會(huì )各界的擔憂(yōu),因為巨頭們的壟斷行為,嚴重違背了科學(xué)界開(kāi)放的原則。

這將會(huì )影響學(xué)術(shù)圈探尋對話(huà)式AI的缺點(diǎn)和底層原理,進(jìn)一步影響科技的進(jìn)步。

為了克服這種不透明性,研究人員認為當下應該優(yōu)先考開(kāi)源AI算法的開(kāi)發(fā)和應用。比如開(kāi)源大模型BLOOM,就是由1000位科學(xué)家聯(lián)合發(fā)起的,性能方面可以匹敵GPT-3。

擁抱AI的優(yōu)點(diǎn)

雖然有很多方面需要設限,但不可否認,AI確實(shí)能提升學(xué)術(shù)圈的效率。

比如一些審查工作,AI可以快速搞定,而學(xué)者們就能更加專(zhuān)注于實(shí)驗本身了,成果也能更快發(fā)表,從而推動(dòng)整個(gè)學(xué)術(shù)圈的腳步走得更快。

甚至在一些創(chuàng )造性工作上,研究人員認為AI也能有用武之地。

1991年的一篇開(kāi)創(chuàng )性論文提出,人和AI之間形成的“智能伙伴關(guān)系”,可以勝過(guò)單獨人類(lèi)的智力和能力。

這種關(guān)系能夠將創(chuàng )新加速到無(wú)法想象的水平。但問(wèn)題是,這種自動(dòng)化能走多遠?應該走多遠?

因此,研究人員也呼吁,包括倫理學(xué)家在內的學(xué)者,必須就當今AI在知識內容生成方面的界限展開(kāi)討論,人類(lèi)的創(chuàng )造力和原創(chuàng )性可能仍舊是進(jìn)行創(chuàng )新研究必不可缺的因素。

展開(kāi)大辯論

鑒于當下LLM帶來(lái)的影響,研究人員認為學(xué)界應該緊急組織一次大辯論。

他們呼吁,每個(gè)研究小組都應該立即開(kāi)組會(huì ),討論并親自試試ChatGPT。大學(xué)老師應該主動(dòng)和學(xué)生討論ChatGPT的使用和倫理問(wèn)題。

在早期規則還沒(méi)有明確的階段,對于研究小組負責人來(lái)說(shuō),重要的是如何號召大家更公開(kāi)透明地使用ChatGPT,并開(kāi)始形成一些規則。以及應該提醒所有研究人員,要對自己的工作負責,無(wú)論它是否由ChatGPT生成。

更進(jìn)一步,研究人員認為要立即舉辦一個(gè)國際論壇,討論LLM的研究和使用問(wèn)題。

成員應該包括各個(gè)領(lǐng)域的科學(xué)家、科技公司、研究機構投資方、科學(xué)院、出版商、非政府組織以及法律和隱私方面的專(zhuān)家。

NatureChatGPTAIGC對科學(xué)意味著(zhù)什么

興奮又擔憂(yōu),大概是許多研究人員對于ChatGPT的感受。

發(fā)展到現在,ChatGPT已經(jīng)成為了許多學(xué)者的數字助手。

計算生物學(xué)家Casey Greene等人,用ChatGPT來(lái)修改論文。5分鐘,AI就能審查完一份手稿,甚至連參考文獻部分的問(wèn)題也能發(fā)現。

來(lái)自冰島的學(xué)者Hafsteinn Einarsson,幾乎每天都在用ChatGPT來(lái)幫他做PPT、檢查學(xué)生作業(yè)。

還有神經(jīng)生物學(xué)家 Almira Osmanovic Thunstr?m覺(jué)得,語(yǔ)言大模型可以被用來(lái)幫學(xué)者們寫(xiě)經(jīng)費申請,科學(xué)家們能節省更多時(shí)間出來(lái)。

不過(guò),Nature對ChatGPT輸出內容做出了精辟總結:

流暢但不準確。

要知道,ChatGPT的一大缺點(diǎn),就是它生成的內容不一定是真實(shí)準確的,這會(huì )影響它在學(xué)術(shù)圈的使用效果。

能解決嗎?

從現在來(lái)看,答案有點(diǎn)撲朔迷離。

OpenAI的競爭對手Anthroic號稱(chēng)解決了ChatGPT的一些問(wèn)題,不過(guò)他們沒(méi)有接受Nature的采訪(fǎng)。

Meta發(fā)布過(guò)一個(gè)名為Galactica的語(yǔ)言大模型,它由4800萬(wàn)篇學(xué)術(shù)論文、著(zhù)作煉成,號稱(chēng)擅長(cháng)生成學(xué)術(shù)方面內容,更懂研究問(wèn)題。不過(guò)現在它的demo已經(jīng)不開(kāi)放了(代碼還能用),因為用戶(hù)在使用過(guò)程中發(fā)現它帶有種族歧視。

即便是已經(jīng)被調教“乖巧”的ChatGPT,也可能會(huì )在刻意引導下輸出危險言論。

OpenAI讓ChatGPT變乖的方法也很簡(jiǎn)單粗暴,就是去找非常多的人工給語(yǔ)料標注,有聲音認為這種雇人看有毒語(yǔ)料的行為,也是一種剝削。

但無(wú)論如何,ChatGPT及生成式AI,開(kāi)啟了人類(lèi)新的一扇想象之門(mén)。

醫學(xué)學(xué)者埃里克·托普(Eric Topol)表示,他希望未來(lái)能有包含LLM的人工智能,可以交叉檢查學(xué)術(shù)文獻中的文本和圖像,從而幫助人類(lèi)診斷癌癥、理解疾病。當然這一切要有專(zhuān)家做監督。

他說(shuō),真沒(méi)想到我們在2023年年初,就看到了這樣的趨勢。

而這才只是開(kāi)始。

本文來(lái)源:人工智能學(xué)家,原文標題:《Nature一周連發(fā)兩文探討ChatGPT:學(xué)術(shù)圈使用已不可避免,是時(shí)候明確使用規范了》

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: 研究人員 生物學(xué)家 研究問(wèn)題