(資料圖片僅供參考)
由OpenAI 開(kāi)發(fā)的人工智能(AI)驅(qū)動(dòng)的聊天機(jī)器人ChatGPT 迅速引起了所有職業(yè)領(lǐng)域的轟動(dòng)。ChatGPT的名字來(lái)源于它基于的生成性預(yù)約束轉(zhuǎn)換器(Generative Pre-trained Transformer,GPT)語(yǔ)言模型,其最具前沿性的特征是它能夠通過(guò)深度學(xué)習(xí)技術(shù)對(duì)輸入的文本做出類似人類的反應(yīng),其智能水平遠(yuǎn)遠(yuǎn)勝過(guò)其他人工智能模型。
ChatGPT囊括1750 億個(gè)參數(shù),這使其成為當(dāng)今最大且強(qiáng)有力的人工智能處理模型之一,也因其給出的反應(yīng)更加人性化,因此在越來(lái)越多不同職業(yè)場(chǎng)景中使用,不難想象在未來(lái)它也將會(huì)擴(kuò)展應(yīng)用到臨床和轉(zhuǎn)化醫(yī)學(xué)。
ChatGPT 的新興應(yīng)用在科學(xué)界引發(fā)了一場(chǎng)劇變,并引起了圍繞使用人工智能撰寫(xiě)科學(xué)出版物的倫理問(wèn)題的辯論,而這些出版物可能會(huì)影響醫(yī)生、研究人員和政策制定者的決策。
ChatGPT :提供的不總是對(duì)的
ChatGPT 最顯著的缺點(diǎn)是它編譯的信息并不總是準(zhǔn)確的,這一弊端在學(xué)術(shù)出版中尤其不利——畢竟,進(jìn)步取決于分享適當(dāng)?shù)男畔ⅰ?/strong>在科學(xué)環(huán)境中不正確的數(shù)據(jù)呈現(xiàn)具有很大的危害性和風(fēng)險(xiǎn)性。
另外,對(duì)于一個(gè)由知識(shí)提升、加強(qiáng)干預(yù)和制定循證政策的極具時(shí)效性的領(lǐng)域來(lái)說(shuō),正在不斷擴(kuò)大的信息差是一個(gè)不容忽視的障礙。如果學(xué)者們利用 ChatGPT 來(lái)進(jìn)行內(nèi)容創(chuàng)作,可能會(huì)包含虛假或過(guò)時(shí)的論文信息,其將損害作者在同行中的信譽(yù)。
ChatGPT :使用的隱藏性
ChatGPT是一把雙刃劍的原因還在于:學(xué)者幾乎無(wú)法發(fā)現(xiàn)其他專業(yè)人士是否使用以及何時(shí)使用過(guò)它。西北大學(xué)(Northwestern University)的研究人員要求 ChatGPT 根據(jù)醫(yī)學(xué)期刊上發(fā)表的一系列文章撰寫(xiě) 50 篇醫(yī)學(xué)研究摘要,隨后要求一組醫(yī)學(xué)研究人員找出這些捏造摘要——閱稿人只能正確識(shí)別 68%的 ChatGPT 生成的摘要和86%的真實(shí)摘要。這樣的結(jié)果證實(shí)了ChatGPT寫(xiě)出了可信(盡管可能不準(zhǔn)確)的科學(xué)摘要。
這項(xiàng)研究的結(jié)果對(duì)那些有意使用 ChatGPT 來(lái)推動(dòng)寫(xiě)作的人來(lái)說(shuō)無(wú)疑是個(gè)福音,因?yàn)橛纱藙?chuàng)作的作品可能并不會(huì)被認(rèn)為是人工智能生成的。
然而,無(wú)法識(shí)別有效信息的問(wèn)題也將隨之而來(lái)。科學(xué)家可能會(huì)遵循有缺陷的研究路線,從而造成研究經(jīng)費(fèi)的浪費(fèi)和具有誤導(dǎo)性的結(jié)果;對(duì)于政策制定者來(lái)說(shuō),無(wú)法甄別虛假的研究將制定出基于錯(cuò)誤信息的決策,從而對(duì)社會(huì)產(chǎn)生巨大影響。
由于這些影響,學(xué)界和科學(xué)出版界未來(lái)可能很快就會(huì)有禁止人工智能生成內(nèi)容的政策,無(wú)論以任何身份使用ChatGPT的人都需要了解這些授權(quán)。
第40屆國(guó)際機(jī)器學(xué)習(xí)會(huì)議已經(jīng)禁止了包括ChatGPT在內(nèi)的AI工具撰寫(xiě)的論文;Science系列期刊也在更新他們的許可和編輯政策,明確反對(duì)ChatGPT制作的文稿。他們?cè)谝黄缯撝嘘U明了他們的立場(chǎng),指出大多數(shù)科學(xué)不端行為的案例源于人類注意力的不足,允許ChatGPT生成的內(nèi)容則將顯著增加了這種風(fēng)險(xiǎn)。
ChatGPT :科研創(chuàng)新小助手
并非所有與ChatGPT相關(guān)的問(wèn)題都會(huì)引起科研領(lǐng)域內(nèi)的擔(dān)憂。2023年2月Nature雜志的一篇文章描述了計(jì)算生物學(xué)家使用ChatGPT來(lái)改進(jìn)已完成的研究論文。在短短五分鐘內(nèi),生物學(xué)家們收到了對(duì)他們手稿的審查,這不僅增加了手稿的可讀性,還發(fā)現(xiàn)了在方程上的錯(cuò)誤。在對(duì)三個(gè)手稿的進(jìn)行試驗(yàn)的過(guò)程中,盡管團(tuán)隊(duì)對(duì)ChatGPT的使用并不總是一帆風(fēng)順,但最終都得到了一篇潤(rùn)色更好的文章。
將ChatGPT用于此目的則避免了科學(xué)界對(duì)人工智能使用不準(zhǔn)確或過(guò)時(shí)信息的主要擔(dān)憂,因?yàn)楦鶕?jù)計(jì)算生物學(xué)家最初撰寫(xiě)的手稿,信息已經(jīng)是準(zhǔn)確的和最新的。ChatGPT可以幫助提高研究人員的生產(chǎn)力和內(nèi)容的質(zhì)量。而如果科學(xué)家們能花費(fèi)更少的時(shí)間在文章編輯上,則可以投入更多的時(shí)間來(lái)推進(jìn)醫(yī)學(xué)領(lǐng)域的科學(xué)研究。
不難看出,ChatGPT 對(duì)那些希望驗(yàn)證答案或發(fā)現(xiàn)工作中問(wèn)題的研究人員來(lái)說(shuō)是很有益處的。然而到目前為止,由于ChatGPT還未接受過(guò)足夠的專業(yè)內(nèi)容訓(xùn)練,因此無(wú)法對(duì)技術(shù)進(jìn)行事實(shí)性查驗(yàn)。
ChatGPT :應(yīng)用于科研的挑戰(zhàn)和機(jī)遇
專家預(yù)計(jì),集成ChatGPT的技術(shù)和項(xiàng)目將成為人工智能系統(tǒng)的先導(dǎo)。與此同時(shí),這樣一個(gè)聊天機(jī)器人可以協(xié)助手稿編輯從而在學(xué)術(shù)和科學(xué)出版界中發(fā)揮積極作用。即便如此,ChatGPT 的使用者人必須意識(shí)到它的局限性。
正如Nature Machine Intelligence 雜志1月份發(fā)表的一篇社論所說(shuō),目前,我們不能指望ChatGPT提供正確的事實(shí)或可靠的參考,接受ChatGPT的局限性并僅將其用于某些任務(wù),允許研究人員將乏味的工作(如手稿編輯)委托給人工智能模型,同時(shí)需要避免發(fā)布虛假信息等災(zāi)難性后果的發(fā)生。
隨著 ChatGPT 的普及,調(diào)整對(duì)其能力的預(yù)期并接受它不能承擔(dān)每一份工作將是至關(guān)重要的。特別是在學(xué)術(shù)研究領(lǐng)域,任何需要專業(yè)學(xué)科知識(shí)或創(chuàng)新性思想和觀點(diǎn)的任務(wù)仍然需要人工智能無(wú)法替代的、真正的人情味。
ChatGPT :并不是一個(gè)作家
由于ChatGPT在提供可靠信息方面不斷發(fā)展的局限性和潛力,在對(duì)ChatGPT進(jìn)行迭代時(shí)必須十分謹(jǐn)慎:人工智能能代替人工輸入嗎?在此,H. Holden Thorp教授對(duì)于ChatGPT的觀點(diǎn)可能更為準(zhǔn)確:“ChatGPT很有趣,但不是一個(gè)作家”。
科學(xué)家可以利用成熟的人工智能工具來(lái)提高工作效率等任務(wù)的校對(duì)和手稿審查。在未來(lái),AI工具的使用可能能夠幫助他們?cè)诳茖W(xué)研究領(lǐng)域取得更廣泛的突破和更高的認(rèn)可度,但更多需要根據(jù)自己的能力來(lái)進(jìn)行人工輸入。
對(duì)于倫理與道德之間界限的討論需要進(jìn)一步推進(jìn),在衛(wèi)生研究中AI的使用也需要進(jìn)一步探索建立指導(dǎo)方針。所有研究人員和參與者必須了解人工智能的安全和禁止范圍是哪些。因此,編輯和編輯委員會(huì)成員應(yīng)繼續(xù)監(jiān)管ChatGPT在學(xué)術(shù)研究中的應(yīng)用,以起草期刊政策,讓撰稿人了解到人工智能的最佳實(shí)踐方式——畢竟,卓越的研究需要用道德和誠(chéng)信來(lái)衡量。
參考文獻(xiàn):
[1]Agüera y Arcas, B. (2022). Can machines learn how to behave? Medium. https://medium.com/@blaisea/can-machines-learn-how-to-behave-42a02a57fadb.
[2]Churchland, P. S. (2019). Conscience: The origins of moral intuition. Norton.
[3]Rowling, J. K. (1997). Harry Potter and the sorcerer"s stone, Bloomsbury.
[4]Hofstadter, D. (2022). Artificial neural networks are making strides towards consciousness. Economist (June 9).
[5]Lemoine, B. (2022). Is LaMDA sentient?: An interview. Medium. https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917.
[6]van Dis E, Bollen J, Zuidema W, van Rooij R, Bockting C. Chat-GPT: five priorities for research.Nature. 2023;614(7947):224-226.https://doi.org/10.1038/d41586-023-00288-7.
[7]Stokel-WalkerC,VanNoordenR.WhatChatGPTandgenerativeAI mean for science.Nature. 2023;614(7947):214-216.https://doi.org/10.1038/d41586-023-00340-6.
[8]The AI writing on the wall.Nat Mach.2023;5(1):1.https://doi.org/10.1038/s42256-023-00613-9
[9]Seyhan, A. Lost in translation: the valley of death across pre-clinical and clinical divide – identification of problems andovercoming obstacles.Transl Med Commun. 2019;4.https://doi.org/10.1186/s41231-019-0050-7
[10]Samuel G, Chubb J, Derrick G. Boundaries between researchethics and ethical research use in artificial intelligence healthresearch.JEmpirResHum. 2021;16(3):325-337.https://doi.org/10.1177/15562646211002744How to cite this article:Wen J, Wang W. Thefuture of ChatGPT in academic research andpublishing: A commentary forclinical andtranslational medicine.Clin Transl Med.2023;13:e1207.https://doi.org/10.1002/ctm2.1207
關(guān)鍵詞: