logo logo
焦點觀點
::: 首頁 焦點觀點專欄 聊天機器人:引用還是不引用?

聊天機器人:引用還是不引用?

2024-11-05
TAG 研究誠信 Research Integrity 生成式AI GenAI 大型語言模型 LLM

隨著AI (人工智慧)工具在研究和高等教育領域的迅速普及,如何處理由大型語言模型 (LLM) 驅動的聊天機器人的產出是一個爭論點,當談到生成式AI和作者身份問題時,學術期刊和出版社很快就發布了政策,反對將聊天機器人視為(共同)作者,因為機器無法對其生成的內容承擔責任,儘管如此,引用問題仍然相當模糊,如果您使用聊天機器人撰寫文章,且不將其列為共同作者,是否應該透過引用註明其來源?將聊天機器人作為資訊來源是否合適?

很難量化學者引用聊天機器人的程度,根據Retraction Watch (專門報告論文撤稿狀況的網誌)的一個例子說明一篇文章在編輯得知作者使用ChatGPT更新參考文獻後被撤回,因其容易導致不正確和編造的引用。我們在Web of Science的引用參考文獻中搜尋ChatGPTOpenAI,嘗試確定聊天機器人可能出現在哪?問題在於,在數百個結果中,很難區分哪些可能是合法參考(例如當引用 OpenAI發布的報告或文件時)?哪些是有問題的參考(例如當作者使用聊天機器人作為資訊來源時)。我們從與其他圖書館員、研究人員和學生的互動中觀察到,關於聊天機器人的引用似乎尚未達成共識,需要更明確的指引。本文將探討出版社關於生成式AI的政策以及我們一般引用其他作品的原因。

出版社關於生成式AI的政策

作者諮詢了十七家出版社和相關學術組織的AI政策,包括AAASCambridge University PressElsevierIEEEIOPOxford University PressSpringer NatureTaylor & FrancisWiley

總體而言,出版社一致認為聊天機器人不符合作者身份的最低要求,並且應該聲明並詳細說明有使用生成式AI功能的工具,然而,是否可以將它們作為來源引用的問題並不明確。拒絕聊天機器人作為作者的理由也可以成為拒絕其作為來源的理由,但需要建立明確的連結。

國際醫學期刊編輯委員會 (ICMJE)Elsevier明確建議不要引用聊天機器人,以下是國際醫學期刊編輯委員會的說明:「在提交時,期刊應要求作者揭露他們在提交作品的製作中是否使用了AI輔助技術(例如大型語言模型 [LLM]、聊天機器人或圖像創建器)。使用此類技術的作者應在提交的作品中描述他們如何使用該技術,作者應該仔細審查和編輯結果,因為AI可以產生聽起來很有權威的產出,但這些產出可能不正確、不完整或有偏見。作者不應將AIAI輔助技術列為作者或合著者,也不應將AI作為作者引用,作者要能夠斷言他們的論文不存在抄襲,包括AI生成的文字和圖像。」

Elsevier則認為「作者不應將AIAI輔助技術列為作者或共同作者,也不應將AI作為作者引用,作者身分意味著只能歸因於人類並由人類執行的責任和任務。」

為什麼我們引用其他作品

引用是一種社會文化規範,不是立法的結果。法律規範研究倫理,也涉及學術不端行為和剽竊,出現於戰後時期,而引用則是一種更古老的做法。與法律相比,社會規範的問題在於,遵守或不遵守在更大程度上取決於具體情況的判斷,決定何時需要引用也是如此,儘管公認的觀點如此,但有疑問時,很可能需要參考其他狀況。

我們引用其他作品的原因有很多,引用是為了揭露我們的來源,並為某個主張提供支持和證據,表明我們的立場,並告知讀者在哪裡可以找到更多資訊。我們引用這些內容是為了感謝那些我們想法所寄託的人,並給予他們應得的榮譽。

聊天機器人是來源還是工具?

作者是否將聊天機器人做為參考工具取決於如何看待聊天機器人及您認為引用有多重要?一方面,那些認為需要引用的人通常關心來源的歸屬,畢竟,如果您使用的文字不是您自己寫的,那麼您必須註明來源,否則就會牽涉到抄襲議題,這與聊天機器人可以被接受為來源的想法是一致的,就像您透過引用來註明不屬於您的文字和想法一樣,您也應該引用聊天機器人;但另一方面,那些認為不必要且應該避免引用聊天機器人的人是擔心大型語言模型(LLM)產生的內容是無法溯源的,畢竟,如果某個東西無法追蹤和複查,它怎麼可能是來源呢?這與聊天機器人只是我們在學術工作中應用工具的觀點是一致的。

生成式AI對學術誠信的挑戰,並不是因為學術價值在日益自動化的知識性工作面前變得過時,而是因為缺乏處理這些發展的既定規範。雖然高等教育機構在教授學術寫作和學術誠信方面發揮著至關重要的作用,但學術出版社和期刊是最有權力和影響力的機構,可以為生成式AI在學術界應用的規範化鋪路,包括學者獲得資助的機會、職業發展的機會和聲譽,皆與他們發表的論文緊密相關,因此,出版社和期刊提出更明確的指南,建議不要引用聊天機器人作為來源,將可接受和不可接受的實施制度化非常重要;另一種選擇是制定一個標準,標記從聊天機器人逐字獲取的句子,但不會將它們與資訊來源的引用混為一談。

大學和高等教育機構一直在努力解決如何向教職員工和學生提供有關生成式AI的指導,以及這些工具如何影響與作弊和抄襲相關的現有法規,當涉及學生作業時,必須避免制定與學者在學術論壇上發表論文不同的標準,因為尚未發展學術研究和寫作技巧的學生可能不具備在作業和考試中使用AI工具的成熟度。大學和高等教育機構必須以提升AI素養、資訊素養和機構支持來應對這項AI的挑戰。

閱讀全文-

Chatbots: To Cite or not to Cite? (Part I)

The Case For Not Citing Chatbots As Information Sources (Part II)

上一則 回索引頁