跳到主要內容

Title: Artificial intelligence and academic integrity, post-plagiarism
Author: Sarah Elaine Eaton
Source: University World News, 04 March 2023
https://www.universityworldnews.com/post.php?story=20230228133041549

中文摘要:
2022年11月底ChatGPT的出現引發了一場關於人工智能(AI)對教育影響的瞬間技術恐慌,這不是新技術第一次引起大規模恐慌, 1980s年代校園引入電腦和1990s年代互聯網商業化都產生了類似的效果。 ChatGPT並不是憑空出現的,其背後的公司OpenAI成立於2015年,ChatGPT 的前身是2020年的GPT-3、2019年的GPT-2及2018年的GPT。以此推論, 形式技術早已存在了大約五年。然而,預測文本工具早在1980年代就被開發來幫助殘障人士,最後應用在手機簡訊應用程式上,每天都有數百萬人在使用。

使用人工智能工具並不會自動構成學術不誠實,這取決於工具的使用方式,例如,ChatGPT等應用程式可用於幫助不情願的作者生成草稿,讓他們可以修改和更新。以這種方式使用,ChatGPT可以幫助學生學習。該文本還可用於幫助學生學習事實核查和批判性思維的技能,因為ChatGPT的輸出通常包含錯誤的事實。 當學生使用工具或其他人代替他們完成作業時,會被認為是一種學術不誠實的形式,因為學生不再自己學習材料,當學生讓某人或某工具為他們做作業時,誠信問題應歸咎於學生,而不是技術。使用技術來幫助學生學習或幫助他們作弊是有區別的。相同的技術可用於不同的目的。

人工智能應用程式是否涉及抄襲的問題也很棘手。在過去剽竊被定義為”沒有適當歸屬的情況下複製他人的文本或想法”。 長期以來,人們一直認為人類剽竊他人。 人工智能應用程式生成的文本不應被認為是抄襲的,即使內容是從各種線上資源中收集和匯總的。在許多情況下,文本本身是完全原創的,有時是錯誤的。例如,ChatGPT可以捏造細節,生成的文本不僅是原創的,而且可能完全不真實。

近幾年來,主流媒體一直在使用人工智能工具。《紐約時報》、《華盛頓郵報》和《福布斯》都在使用機器學習工具來創作新聞報導。 人工事實核查員和編輯仍然在確保故事的準確性和真實性方面發揮作用。 如果事實未經核實,可能會給讀者帶來後果並損害出版物的聲譽。

人工智能工具越來越多被用在工業領域,大學如果想確保他們的畢業學生具備進入職場所需的技能,就必須教他們如何負責任地使用人工智能工具,因為他們很可能在工作中會遇到這些工具。 一些主要的科學出版商已經制定了關於如何在學術出版中使用人工智能應用程式的規則,例如,宣佈人工智能寫作應用程式不能被列為合著者,原因是人類要對科學結果及其傳播負責,而人工智能的使用應該在科學論文的引言、研究方法或致謝中聲明。出版商的規則表明 AI 寫作工具只是工具,它們不會取代人類,科學進步仍然是人類的責任。

再過不久,人工智能就會被嵌入Microsoft Word或Google文件等日常文書處理軟體中,就像手機簡訊應用程式的文本預測功能一樣,這項技術將變得普遍到全世界的人每天都會使用它。

2021年,Sarah Elaine Eaton寫了《高等教育中的剽竊:解決學術誠信中的棘手話題》一書,在書中作者認為技術將把人們帶入一個人和技術共寫文本及人和技術混合輸出的正常後剽竊時代。 在後剽竊時代,人類使用人工智能應用程式來增強和提升創意輸出將會是正常日常生活的一部分。人們很快將無法檢測到人類書寫文本的結束位置和機器人書寫的開始位置,因為兩者的輸出已交織在一起且無法區分。即使人們可以放棄對人工智能應用程式的全部或部分控制,允許技術為他們寫作或一起寫作,人類仍然要對結果負責。重要的是讓年輕的學習者和大學生為這個已存在的現實做好準備。

參考組
李素真編譯

Last Updated:2023/05/25

資訊提供單位:參考服務組


置頂