來源:新華社客戶端
2024-07-31 18:45:07
原標(biāo)題:生成式人工智能在學(xué)術(shù)界引發(fā)誠信爭議
來源:新華社
原標(biāo)題:生成式人工智能在學(xué)術(shù)界引發(fā)誠信爭議
來源:新華社
新華社北京7月31日電 生成式人工智能工具能夠根據(jù)相關(guān)提示生成文本,雖然提高了寫作效率,但也模糊了學(xué)術(shù)不端行為的界限。英國《自然》雜志日前發(fā)表的一篇文章說,隨著ChatGPT等生成式人工智能工具的快速普及,學(xué)術(shù)界正面臨一場關(guān)于誠信的新挑戰(zhàn)。
2023年11月2日,在英國布萊奇利園,一名參會者經(jīng)過首屆人工智能安全峰會的宣傳展板。新華社記者 李穎 攝
根據(jù)《自然》雜志去年對全球1600名研究人員的調(diào)查,68%的受訪者認(rèn)為生成式人工智能工具將使抄襲變得更容易且更難檢測。
文章指出,生成式人工智能工具如ChatGPT基于大語言模型,通過學(xué)習(xí)大量已發(fā)表的文本生成新內(nèi)容。這種方式可能導(dǎo)致類似抄襲的情況,例如研究人員將生成式人工智能工具生成的文本當(dāng)作自己的作品,或者生成的文本與某人的作品非常相似卻未注明來源。
文章提出一個(gè)核心問題:使用完全由機(jī)器(而不是人類)編寫的未注明來源的內(nèi)容是否算抄襲。
一些研究機(jī)構(gòu)將未經(jīng)授權(quán)使用生成式人工智能工具定義為“未經(jīng)授權(quán)內(nèi)容生成”,而非傳統(tǒng)意義上的抄襲。德國柏林應(yīng)用科技大學(xué)的德博拉·韋伯-伍爾夫教授認(rèn)為,傳統(tǒng)意義上的抄襲通常指可歸因于另一個(gè)具體作者的內(nèi)容。
也有一些人認(rèn)為,生成式人工智能工具侵犯了版權(quán)。抄襲和侵犯版權(quán)都是對他人作品的不當(dāng)使用,而抄襲違反了學(xué)術(shù)道德,未經(jīng)授權(quán)使用受版權(quán)保護(hù)的作品則可能違反法律。“畢竟,這些人工智能系統(tǒng)是建立在數(shù)百萬甚至數(shù)億人的工作之上的。”美國密歇根大學(xué)計(jì)算機(jī)專家拉達(dá)·米哈爾恰說。
文章還指出,盡管存在爭議,生成式人工智能工具在學(xué)術(shù)寫作中的使用量仍在增加。一項(xiàng)研究顯示,2024年上半年,至少10%的生物醫(yī)學(xué)論文摘要使用了大語言模型。人工智能工具不僅簡化了寫作過程,還能幫助非英語母語的研究人員克服語言障礙。
專家呼吁制定更明確的政策和指導(dǎo),以規(guī)范人工智能工具在學(xué)術(shù)寫作中的使用,確保學(xué)術(shù)誠信。
想爆料?請登錄《陽光連線》( https://minsheng.iqilu.com/)、撥打新聞熱線0531-66661234或96678,或登錄齊魯網(wǎng)官方微博(@齊魯網(wǎng))提供新聞線索。齊魯網(wǎng)廣告熱線0531-81695052,誠邀合作伙伴。