国产精品久久久久久久久久久久午衣片,国产成人精品男人的天堂网站,熟女一区二区中文字幕,亚洲精品国产精品乱码在线

醫院是ChatGPT“禁區”?若醫生問(wèn)診時(shí)“求助”AI,患者能接受嗎? 滾動(dòng)

如果給你開(kāi)診斷書(shū)的不是醫生,而是AI,你會(huì )接受嗎?

就在人們熱議以ChatGPT為代表的生成式AI將如何取代人們的工作時(shí),大家發(fā)現,醫院,似乎成了這類(lèi)人工智能產(chǎn)品的一個(gè)“禁區”。

生成式AI可能掌握比單個(gè)醫生更多的信息,從而有更多的“經(jīng)驗”,但是,醫生的決定往往事關(guān)道德,AI很難從道德角度來(lái)做決定。


(資料圖片僅供參考)

也有醫生贊成在醫院中使用AI技術(shù)的。斯坦福大學(xué)醫學(xué)院教授、曾任擁有超過(guò)1200萬(wàn)患者的美國醫療集團Kaiser Permanente首席執行官的Robert Pearl說(shuō):

我認為AI對醫生來(lái)說(shuō)將比過(guò)去的聽(tīng)診器更重要。任何醫生都不該把ChatGPT或其他形式的生成式AI拒之門(mén)外。

Pearl認為,ChatGPT可以幫助醫生來(lái)撰寫(xiě)患者的臨床報告、診斷書(shū),甚至在和患者交流遇到困難時(shí)向醫生提供建議。在他看來(lái),生成式AI對醫學(xué)發(fā)展來(lái)說(shuō)是好事。

醫學(xué)專(zhuān)業(yè)人士希望生成式AI的語(yǔ)言模型可以挖掘數字診療檔案中的有用信息,或者為患者提供簡(jiǎn)潔明了的專(zhuān)業(yè)解釋?zhuān)灿腥藫倪@些技術(shù)會(huì )蒙蔽醫生的雙眼或提供不準確的回應,從而導致錯誤的診斷或治療計劃。

開(kāi)發(fā)AI技術(shù)的公司已制定了雄心勃勃的進(jìn)駐醫療行業(yè)的計劃。去年,微軟研究院推出了BioGPT,這是一種在一系列醫療任務(wù)上取得高分的語(yǔ)言模型,OpenAI、馬薩諸塞州總醫院和AnsibleHealth共同完成的一篇論文聲稱(chēng),ChatGPT可以通過(guò)美國執業(yè)醫師執照考試,分數超過(guò)及格線(xiàn)60分。幾周后,谷歌和旗下的DeepMind的研究人員推出了Med-PaLM,它在同一考試中達到了67%的準確率——這一結果雖然振奮,但谷歌當時(shí)表示,“仍然不如臨床醫生”。微軟和全球最大的醫療保健軟件供應商之一Epic Systems宣布計劃使用支持OpenAI的GPT-4來(lái)搜索電子診療檔案。

研究AI對醫療保健影響的哈佛大學(xué)公共衛生講師Heather Mattie認為,人們需要破除對AI的迷信,即必須認識到AI不可能是100%正確的,并且可能會(huì )產(chǎn)生有偏見(jiàn)的結果。她認為,如果有這樣的認識,AI將成為醫生們很好的助手。

她尤其擔憂(yōu)的是,AI在心腦血管疾病和重癥監護方面是否會(huì )給出錯誤答案,對其他臨床領(lǐng)域直接應用AI,她也表示擔心,因為有時(shí)候AI會(huì )捏造事實(shí),并且不清楚它所借鑒的信息是否已經(jīng)過(guò)時(shí)。因此她認為,如果醫生對AI生成的答案不進(jìn)行事實(shí)核查和鑒別,則很有可能出現誤診。

此外,一些倫理學(xué)家擔心,當醫生遇到艱難的道德決定時(shí),比如手術(shù)是否能夠提高患者的存活率和存活時(shí)間,AI未必給出符合倫理的答案。

英國愛(ài)丁堡大學(xué)技術(shù)道德未來(lái)中心的倫理學(xué)家Jamie Webb說(shuō):

醫生不能將這種程序外包或自動(dòng)化給生成式AI模型。

去年,Webb參與的一個(gè)團隊得出結論,AI系統很難可靠地平衡不同的道德原則,如果醫生和其他工作人員過(guò)度依賴(lài)機器人而不是自己思考棘手的決定,他們可能會(huì )遭受“道德去技能化” .

醫生們之前曾被告知,AI將徹底改變他們的工作,結果卻大失所望。

今年2月,在哈佛大學(xué)舉行的一次關(guān)于A(yíng)I在醫學(xué)領(lǐng)域的潛力的討論會(huì )上,初級保健醫生Trishan Panch回憶說(shuō),當時(shí)正是ChatGPT火熱之際,他在社交媒體上看到了一份由ChatGPT撰寫(xiě)的診斷書(shū)。Panch回憶說(shuō),當時(shí)興奮的臨床醫生很快在會(huì )議上承諾在他們自己的實(shí)踐中使用該技術(shù),但在使用ChatGPT到第20次左右時(shí),另一位醫生插話(huà)說(shuō),該模型生成的所有參考資料都是假的。

盡管AI有時(shí)會(huì )犯明顯的錯誤,但Robert Pearl仍然非??春肅hatGPT等生成式AI。他認為,在未來(lái)的幾年里,醫療保健領(lǐng)域的AI語(yǔ)言模型將變得更像iPhone,充滿(mǎn)了可以增強醫生能力和幫助患者管理慢性病的功能。他甚至認為,ChatGPT這樣的AI可以幫助減少美國每年因醫療錯誤導致的超過(guò)25萬(wàn)例死亡。

Pearl確實(shí)認為有些事情是AI的禁區。他說(shuō),幫助人們應對悲傷和失落的情緒、與家人進(jìn)行臨終對話(huà),以及一些高風(fēng)險的診療手段不應該將AI牽扯其中,因為每個(gè)病人的需求都不一樣:

那些是人與人之間的對話(huà)。

他將ChatGPT比作一名醫學(xué)生:能夠為患者提供護理并參與其中,但它所做的一切都必須由主治醫師審查。

風(fēng)險提示及免責條款 市場(chǎng)有風(fēng)險,投資需謹慎。本文不構成個(gè)人投資建議,也未考慮到個(gè)別用戶(hù)特殊的投資目標、財務(wù)狀況或需要。用戶(hù)應考慮本文中的任何意見(jiàn)、觀(guān)點(diǎn)或結論是否符合其特定狀況。據此投資,責任自負。

關(guān)鍵詞: