跳到主要內容

搜尋研究誠信文章 -學術倫理指引 回列表

西元年份 2025
出刊月份 6月
季刊期別 6
文章標題 人工智慧開發應用之倫理議題
文章內文

人工智慧開發應用之倫理議題

 

文 / 臺大醫院倫理中心周采潔
PDF下載

 

2025年2月,行政院宣布全面禁止公部門使用中國開發之DeepSeek AI服務,引發各界對人工智慧(Artificial Intelligence, AI)技術應用背後的資安風險與倫理議題之關注。醫學研究導入生成式人工智慧(generative AI, GAI)為輔助工具,可處理大量醫療數據完成快速分析、自動提取及文件審查任務,簡化資料處理作業流程,並透過大型數據集分析,檢測醫學研究之發展趨勢[1]。AI帶來突破與創新,然而科技與風險並存,學術研究機構不僅須強化內部AI治理,相關系統開發亦應遵守安全性、課責性、環境永續、透明性與可解釋性、公平且無歧視、隱私與個資保護等倫理原則。

壹、政府機關AI開發應用之倫理議題

政府機關運用AI並搭配相關資通訊技術之應用範圍相當廣泛,包含教育訓練、智慧客服、政策行銷、環境資源、醫療保健、交通管理、資料分析、城市規劃、AI助理等,提升行政效能與品質的同時,行政違失或違法風險亦應運而生。臺北市政府於2024年9月9日函頒「臺北市政府使用人工智慧作業指引」,針對AI的使用風險程度區分使用態樣[2]:

一、絕對禁止事項:涉及機敏性資料、公務上應保密資料,或未符合法律規範且未經事前同意即使用AI處理或利用民眾之特種個人資料(如病歷、醫療、基因、性生活、健康檢查或犯罪前科等),或未經人工檢視與確認即使用AI直接做成影響民眾權利義務之決定者。

二、高度風險的使用態樣:與民眾之權利義務相關,或涉及民眾之隱私或個人資料,或可能出現偏見歧視,如使用AI進行數據分析、聊天機器人、生物特徵辨識等。

三、中度風險的使用態樣:協助製作對外文書,但無關民眾權利義務、隱私及其個人資料,且不涉及機敏性資料,如新聞稿、公告、政策宣導等。

四、低度風險的使用態樣:限於該府內部作業,無關民眾之權利義務、隱私及個人資料,如電子郵件、文件翻譯等。

依據「行政院及所屬機關(構)使用生成式AI參考指引」規定,公務機關使用GAI時,應秉持負責任及可信賴之態度,掌握自主權與控制權,並秉持安全性、隱私性與資料治理、問責等原則,不得分享個人隱私資訊及不可完全信任生成資訊[3]。目前AI應用多為原則性、禁止性之AI規範,並無專案介紹及操作說明,數位發展部於2025年1月公布「公部門人工智慧應用參考手冊」(草案),作為政府機關建置AI服務之參考。AI系統之開發應用,可能因開發者未能全面考量、未能預期負面影響或使用者不當操作,衍生法律、倫理、道德及社會爭議,有鑑於此,AI系統之建置規劃應將下列倫理議題納入研議[4]:

一、公平性:AI系統應使用無偏見、公平資料集進行模型訓練,採用合理特徵設計分析流程,測試階段納入多元群體回饋,針對輸出內容及決策建議之合理性進行審查,設計系統化的提示測試方式避免偏見,建立使用者回報機制,透過持續評估將潛在傷害與偏見降至最低。

二、完善AI專案權責機制:機關應遵守國家法律、政策及相關使用條款,在系統生命週期中明確規範所有參與者之責任、義務及監控機制,完成開發至營運階段之審核驗證,並提供申訴與行動救濟管道,使用者也必須對AI作為輔助日常工作產出內容負起最終責任。

三、對環境永續友善:AI應用伴隨大量碳排放、冷卻水資源、稀有金屬消耗等,應檢視模型提供者之環境認證,包括使用可再生能源、高效能基礎設施與永續投入、優先選擇低碳排放算力與資料存放方案,並進行生命週期分析,減少對環境的負面影響。

四、透明度與可解釋性:為掌握 AI 系統之運作流程、決策機制、資料使用、社會影響,機關應優先採用可解釋性高的模型,考慮使用開源模型提升可性度,建立評估與稽核機制,明確揭示AI創作內容,並向利害關係人解釋AI 模型運作與表現,以符倫理原則。

五、保持人為參與:為避免忽視潛在倫理風險,機關於AI工具使用過程中應保持人為參與,以確保AI之適用情境能創造公共利益,透過人工監督機制監控輸出,使用者也應理解影響AI產出之因素,諮詢AI前先有自身觀點與立場,避免過度依賴。

2025年1月中國「杭州深度求索人工智慧基礎技術研究有限公司」發布號稱低成本、開源模型可免費使用之DeepSeek AI,惟該項服務資料來源取得有違反著作權法相關法規的疑慮,模型語言訓練上也有思想審查、限制等資料偏異,以及資料上傳中國的資安風險,行政院基於國家資通安全考量,要求公務機關全面禁用,包含雲端服務、APP及地端下載等方式,若大學及研究機構有學術研究用途需求,建議以不含個資及資料的電腦單機下載並斷網使用較為安全[5]。各國公務機關應對DeepSeek AI,美國、南韓採部分禁用,加拿大、荷蘭、義大利、澳洲、印度則全面禁止使用[6]。

貳、GAI醫學應用之倫理考量及監理

COVID-19後疫情時代,全球醫療保健體系面臨醫療人力短缺之嚴峻挑戰, GAI導入成為提升效率及醫療品質的解方之一。GAI 具備處理自然語言與學習醫學知識的能力,可作為臨床助理協助行政及文書工作、自動評估傷害和疾病、決策系統提高術前規劃效率、擔任手術虛擬助手即時支援、訂定個人化復健計畫、與傳統輔導機制結合之虛擬導師、提升知情同意之執行品質、提供個性化健康建議與指導,有望成為醫師的萬能工具[7],但其臨床運用資料方式亦可能帶來重大的潛在風險。

GAI除了數據偏見、限制內容導致回應不精確、虛假資訊、網路安全漏洞等問題,尚須考量資料倫理及臨床倫理面向議題。資料倫理部分關注資料來源、使用方式,及其使用前、中、後應注意事項,包含隱私、資料保護、資料所有權、二次使用、可解釋性、真實性、偏見;臨床倫理則聚焦於GAI 在臨床實際應用中的挑戰,涉及「醫療適應症」(行善原則)之監督、信任、同理,「病人偏好」(尊重自主原則)之病人自主與知情同意,「生活品質」(不傷害原則)之安全性、識別惡意使用,及「情境特徵」(正義原則)之可信度與可歸責性等倫理考量[1]。

基此,未來監理方向包括需能讓醫療人員和病人知情AI 參與決策過程,並為AI 的建議提供解釋;確保AI 模型不會延續或加劇醫療照護之不平等;強制使用多樣化且具代表性的資料來源,改善資料潛在偏見與促進醫療服務的公平性;研訂法規以確保病人資訊的機密性與安全性[7]。

參、結語

隨著AI深入日常生活,驅動醫學研究、政府治理與產業模式革新,人機協作已然成為未來趨勢,研究者應自提升資訊判讀能力、標示AI生成部分、重視資訊安全及人才培育、說明資料來源等4面向加強落實學術倫理,並透過明確定義人機協作目標、選擇適當的AI工具、資料蒐集與預處理、AI 模型訓練和調整、持續學習和改進,建立人機協作之倫理流程[8]。

輝達(NVIDIA)執行長黃仁勳於Computex 2025年主題演講表示,AI技術的進化,自感知AI(Perception AI)、GAI、代理AI(Agentic AI)指向物理AI(Physical AI)。不同於GAI的自主學習與內容生成,代理AI(Agentic AI)能進一步採取行動及做出決策,其應用將更加廣泛,包括協助處理客戶需求、資訊檢索與分析、計算機及繪圖工具使用等,作為與人類偕同工作之數位員工,面對AI模型效率提升及前沿技術突破,未來將產生新興倫理議題並面臨更多監管挑戰。

 

參考文獻
  1. 蔡甫昌、周昱辰、布嘉俊、莊宇真、詹寶珠:生成式AI醫學應用之倫理考量。台灣醫學2025;29(2):129-137。
  2. 臺北市政府:臺北市政府使用人工智慧作業指引。2024。
  3. 行政院:行政院及所屬機關(構)使用生成式AI參考指引。2023。
  4. 數位發展部:數位發展部公部門人工智慧應用參考手冊(草案)。2025。https://moda.gov.tw/digital-affairs/digital-service/guide/15002 查閱日期:西元2025年6月5日。
  5. 行政院:卓揆:公務機關全面禁用Deepseek AI 服務。2025。https://www.ey.gov.tw/Page/9277F759E41CCD91/3ce9fe8f-2f5f-4d1d-8176-6fa4cf622b82 查閱日期:西元2025年6月5日。
  6. 數位發展部:公務機關全面禁用DeepSeek AI 服務,未限制一般民間使用。2025。https://moda.gov.tw/ACS/press/news/press/15296 查閱日期:西元2025年6月5日。
  7. 蔡甫昌、周昱辰:大型語言模型醫學應用之倫理挑戰與監理。台灣醫學2025;29(1):75-85。
  8. 林明誼、林新發:AI時代跨領域人機協作之運用策略及有關倫理議題。臺灣教育評論月刊2024;13(10):19-26。
建立者:周采潔  建立日期:2025/07/15 15:32:09
更新者:周采潔  最後更新日期:2025/07/22 10:16:29