跳到主要內容

搜尋研究誠信文章 -學術倫理活動 回列表

西元年份 2024
出刊月份 12月
季刊期別 4
文章標題 「學術倫理與生成式AI」論壇紀要(下)
文章內文

「學術倫理與生成式AI」論壇紀要(下)

 
整理/臺大醫院倫理中心周采潔
PDF下載

 

2024年6月21日臺大醫院倫理中心舉辦「學術倫理與生成式AI」論壇,邀請專家學者共同探討學術倫理及生成式AI之運用原則、著作權利保護、醫學應用等新興議題。前一期(2024年9月)季刊已收錄開放文化基金會林誠夏法制顧問「生成式AI的著作權利與法制趨勢」紀要,本次彙整國立陽明交通大學周倩副校長「生成式AI用於研究的學術倫理議題」及臺大醫院倫理中心蔡甫昌主任「生成式AI醫學應用之倫理考量」講座內容,業經發言人確認,提供讀者參考。

 

壹、生成式AI用於研究的學術倫理議題

新型態人工智慧(AI)科技的快速發展,對學術研究工作的執行產生重大影響。ChatGPT(Chat Generative Pre-trained Transformer)是由美國OpenAI實驗室於2022年11月推出的人工智慧聊天機器人,透過與使用者對話,從中學習人類語句的結構,並將這些學習結果累積至其大型語言模組(Large Language Model, LLM)中。透過不斷的對話訓練和自我學習,ChatGPT現已具備產生近似真人撰寫文稿、自動摘要,甚至修改程式碼語言的能力。

生成式AI大幅提升研究者的寫作效率及品質,加速創新的研究過程,使科學研究變得更加平等、普及、開放性,但同時也帶來諸多挑戰及質疑,如運用生成式AI科技於文字編修、翻譯、資料蒐集,以及AI產出內容是否有違學術倫理的疑慮。國際學術出版商與期刊已針對生成式AI發布相關規範或聲明,如Committee on Publication Ethics (COPE)、Nature、Elsevier、Wiley、Talor & Francis等,皆主張論文作者必須對研究負完全責任,研究分析與詮釋資料、討論結果、研究結論等重要部分,均應由作者完成,更強調研究之原創性及有效性。論文作者若使用生成式AI輔助研究,必須主動揭露,始符合相關倫理規範。

研究者不會被AI工具取代,但可能會被能善用AI工具的研究者取代。面對生成式AI的快速發展,研究者應善用AI作為學習輔助工具,但同時厚植自身之專業知能,具備資訊檢證的能力,並重新思考學術研究、學術倫理的價值觀與準則,關注倫理、隱私、資訊安全與著作權等議題。

(周倩副校長,國立陽明交通大學)

 

貳、生成式AI醫學應用之倫理考量

2023年生成式AI引領全球科技與生技產業發展,2024年6月2 日NVIDIA 創辦人暨執行長黃仁勳在臺灣大學與Computex演講,分享人工智慧時代如何在全球推動新的產業革命,吸引全球目光聚焦臺灣。臺大醫院吳明賢院長指出,AI時代開啟醫療文藝復興元年,未來將持續朝向「智慧醫療」、「尖端醫療」、「精準健康」重點發展。

相較於監督式AI行為本質為模仿,生成式AI著重於創造,近年醫學應用對於醫學影像處理及分析、新藥研發、醫學研究與數據分析、防範大規模疾病流行、個人化醫療、醫學訓練和情境模擬等領域,已發揮顯著效益。儘管生成式AI在醫學上的應用前景廣闊,但仍需嚴格考量其監管架構,特別是強化病人數據保護、避免數據錯誤共享、限制數據濫用等,並處理問責性、公平性、數據隱私、透明度和價值連貫性等問題,以符醫學倫理原則。

以使用ChatGPT於病歷紀錄為例,尚須考量法律遵循、個人資料保護、作者(authorship)與正確性(accuracy)責任歸屬等議題。全民健康保險資料庫之資訊隱私保護爭議,依據最高行政法院106年度判字第54號判決所示見解,健保署建置該研究資料庫,屬於執行法定職務必要範圍內之行為,是項學術研究具公共利益,使用「可逆之擬匿名化」(專屬代碼、雙向加密等)去識別化技術、資料加密、提供申請人使用等程序,已達法定無從識別特定個人之標準,又憲法對資訊隱私權之保障並非絕對,法律既已限制事前同意權,亦應同時限制事後行使排除權,否則合理利用個資、增進公共利益之目的顯無法達成。

生成式AI透過大數據和演算法不斷進步,滿足個性化需求,然而,它也帶來了虛假信息、歧視內容、版權和隱私問題等倫理挑戰。面對安全性(Safety)、可靠性(Validity & Reliability)、可解釋性(Explainability & Interpretability)、歸責及透明(Accountability & Transparency)、隱私性(Privacy)、公平性(Fairness)之潛在風險,重點在於倫理法律監理,建立信任機制、保護數據安全,並確保AI的可解釋性和可監督性。

依據「行政院及所屬機關(構)使用生成式AI參考指引」規定略以,生成式AI產出之資訊,須由業務承辦人就其風險進行客觀且專業之最終判斷,製作機密文書應由業務承辦人親自撰寫,禁止使用生成式AI;業務承辧人不得向生成式AI提供涉及公務應保密、個人及未經機關(構)同意公開之資訊。封閉式地端部署之生成式AI模型,須確認系統環境安全性後,方得依機密等級分級使用。各機關使用生成式AI作為執行業務或提供服務輔助工具時,應適當揭露。

每一位使用者均應瞭解生成式AI之本質、限制與風險,特別是醫院資訊工程師,並由醫院明確訂定指導方針或使用規範,建立封閉式生成式AI系統。考量醫療紀錄和健康紀錄包含病史、個人機密資訊及診療過程中的智慧財產,不應暴露在開放的網際網路環境中,ChatGPT亦提醒使用者不要在任何對話中分享敏感資訊。

生成式AI的應用尚涉及許多本質性、社會性、哲學性的思考,它將根本、大幅度地改變人類社會現在與未來生活的樣貌,甚至改變人們對於人性的理解與期待,因此需要在臨床實踐和醫學研究中妥善處理這些挑戰。最基本地,要從如何保護和開放使用病人資料,以及如何平衡數據保密與AI發展之間的倫理兩難。

(蔡甫昌主任,臺大醫院倫理中心)

 

參、綜合討論

一、使用生成式AI進行研究論文之中英互譯及編修

ChatGPT出現以前,學術界已就校對者(proofreader)於學術寫作中協助翻譯或進一步潤飾文字,是否影響文章原創性而有所討論,隨著生成式AI工具的普及,加深學術界對於現有學術規範及制度可能被破壞的焦慮,不僅難以確定人機協作的過程中,人的精神注入或原創性高低,此外,使用者提供資料將被存儲於平台資料庫,此一不透明性引發智慧財產權及資料隱私的擔憂。學術界對於生成式AI的運用尚無一致性的標準,但部分期刊已使用精密軟體進行檢測並設定較嚴格的門檻。

對於非以英語為母語的研究者而言,為提升英文論文寫作品質,不可避免地使用生成式AI(如ChatGPT)協助翻譯或優化,無論是中翻英或是英文潤飾,應為創意在前、表達其後。英語老師會使用ChatGPT輔助教學、也鼓勵學生善加運用,但學生應具備基礎英語能力,才能判斷生成式AI產出內容之品質。僅儘管ChatGPT語法上表現出色,但生成內容往往較為一般,按個人使用經驗,先完成清楚、明確之英文初稿內容,再比對ChatGPT提供之潤飾建議,作為修正文稿參考,絕非直接引用自動生成之翻譯內容。

(周倩副校長,國立陽明交通大學)

    相較於翻譯社個別化服務,程式語言高度邏輯性相關,爰同一個生成式AI平台產出內容更容易被檢測出相似性。GitHub Copilot因生成的程式碼與其學習之開源程式碼高度相似而引發訴訟,GitHub隨即提供重複或相似程式碼偵測功能,針對託管程式碼及主流開源程式碼達到一定程度之相似度提出警告,以利重新修正,並留存程式碼變動之開發歷程。基此,研究者如使用生成式AI協助英文翻譯,建議導入版本控制以自清創作過程。著作權法對於「抄襲」的認定,包括接觸的因果關係及實質相似,前開2項要件缺一不可,若能出具版本紀錄,即使實質相似確實成立,但並無接觸之因果關係,則不會構成抄襲。

(林誠夏法制顧問,鈞理知識產權事務所)

    學術倫理之基本原則,研究價值在於知識創造及原創性。研究發表包含理論基礎、研究方法、材料與結果,即使使用Grammarly或其他文法修正AI輔助工具,並不影響該研究之實質內容及創見,於科學研究及醫學研究中,生成式AI如產出偏離原作之內容,也很容易被識別,對於哲學或文學等論述性較強之學科領域而言,論文重點更聚焦於辯證及脈絡之詮釋。因此,使用生成式AI協助研究論文是否合乎學術倫理,應以知識創造貢獻度和原創性為評判標準。

(蔡甫昌主任,臺大醫院倫理中心)

 

二、生成式AI之專利保護及隱私侵害問題

    最早討論AI進展之國際會議,係由日本首相安倍晉三主持,當時預估距離AI普遍應用尚需15年時間,然自2022年開始,AI呈現爆炸性成長,急遽改變生態環境。目前生成式AI之訴訟,企業界聚焦於專利保護層面,AI不僅會因資料量深入學習,且可能比人類更早發現演算法,高通(Qualcomm)和Sony Mobile進行產品開發,已有明確內部政策,如涉及高度專利,須經公司特別批准後方可使用AI輔助,至一般專案則採報備制。生成式AI處理個人資料時,透過加密演算法以假名化處理,又醫療界通常遵循地端部署方式,降低隱私侵害疑慮。各國政府對AI多抱持觀察態度,部分國家考慮設置沙盒(Sandbox)以允許AI試驗自由,隨著未來法律規範逐步成熟,再適時進行研究性的放寬。

(林誠夏法制顧問,鈞理知識產權事務所)

    全球僅有2個國家明訂人體生物資料庫條例–立陶宛及中華民國,明確規範病歷、基因等個人資料之管理及運用,國家科學及技術委員會刻正研議建立第三方公正平台之可行性,以維護資料存放安全。許多國際期刊已使用專門軟體檢測論文之相似性及反AI應用,建議研究者應遵循投稿期刊相關規定,且避免自行長期持有個人資料。

(何弘能名譽教授,婦產部)

 

(回第4期報頁)

建立者:周采潔  建立日期:2025/01/10 10:36:18
更新者:江翠如  最後更新日期:2025/03/28 16:26:10