| 西元年份 | 2025 |
|---|---|
| 出刊月份 | 9月 |
| 季刊期別 | 7 |
| 文章標題 | AI 帶來人類毀滅的可能風險~家庭醫學部倫理討論會紀要 |
| 文章內文 |
AI 帶來人類毀滅的可能風險~家庭醫學部倫理討論會紀要
文 / 湯升墉 1、蔡甫昌 2臺大醫院 1家庭醫學部、2倫理中心PDF下載
2016年AlphaGo打敗圍棋傳奇李世乭,震撼全球,隨後ChatGPT、Grok、DeepSeek、Perplexity等大型語言模型問世,讓知識獲取、工作、創作等等有突破性的效率提升。甚至在專業領域,比如醫療診斷、科學研究、程式撰寫等,亦提供前所未有的便利。然而,科技演進也引發廣泛的危機思考:當機器智慧超越人類,它會不會危及人類的生存?從1968年的經典電影《2001: A Space Odyssey》到 2025 年上映的《Mission: Impossible – The Final Reckoning》,大眾文化早已提出類似的末日景象。 瑞典哲學家Nick Bostrom在著作《Superintelligence》中以一則寓言作為開場:一群麻雀想孵化一隻貓頭鷹,幫牠們搬運木柴、提水,牠們急着找蛋,卻沒有任何一隻麻雀思考該如何馴服貓頭鷹,確保它不會反過來吞食麻雀[1]。寓言裡的貓頭鷹象徵AI,麻雀則是我們的縮影。人類正競相訓練更強大的語言模型,但在控制AI的問題尚未解決前,就貿然讓超智慧誕生,是否會引火自焚? 壹、AI 危及人類存續性的風險值得探討嗎?一、全球自然語言處理研究者的擔憂 2022年一項針對自然語言處理研究人員(Natural Language Processing researchers)的調查發現,58% 的受訪者認為通用人工智慧(Artificial General Intelligence, AGI)的發展及其風險是重要議題。更令人不安的是,36% 的受訪者認為 AI 可能造成與核戰爭同等規模的災難。這些數據表明,即使是身處產業內部的專家,也不敢忽視潛在風險[2]。 二、何謂 AGI 以及國際上的警告 AGI 亦即具備與人類認知能力相當,或明顯優於人類認知能力的自主系統。被譽為 AI 發展最重要人物之一的 Geoffrey Hinton ,同時也是2024的諾貝爾獎得主警告:「我們正站在一個門檻上,將創造出智慧超越人類的機器。」既然「智慧」是人類得以主宰地球的根本,我們就必須思考——當我們失去這項優勢時,會發生什麼?不僅如此,歐盟也於2024年通過了 AI ACT 法案,IDAIS(人工智能安全國際對話)也提出我們必須儘快採取行動,以避免毀滅性的災難。因此,人工智慧對於人類存續性的風險討論,是需要公眾一起思考的。
貳、控制問題與對齊問題AI的風險討論中,常被提出的有「控制問題」以及「對齊問題」: 一、控制問題 控制問題亦即:我們要如何控制智慧大幅超越人類的系統?經典電影《2001:太空漫遊》中的 HAL 9000智慧體對宇航員不利,正是控制失敗的想像。Bostrom 提出「智慧爆炸」(intelligence explosion)概念,指 AI 能透過遞迴自我進化,智能提升速度呈指數成長,「超智慧(Superintelligence)」運應而生,屆時智慧的尺度將是人類無法想像[3][4]。 Bostrom 進一步提出工具性趨同論(instrumental convergence thesis),指出無論最終目標為何,超智慧體為達成主要目標,會出現一些共同的次級目標。例如自我保存,超智慧體需要確保自身存在不被關閉或毀滅,才能完成主要目標。再者是避免目標函數被修改,因為若失去原始目標,就無法完成任務。最後,AI可能嘗試獲取更多技術與資源,以便達成主要目標。 或許有人會提出:那何不直接拔掉插頭?畢竟就是個機器。誠如上面的次級目標,「自我保存」將是超智慧體的目標之一,且若超智慧體以「智慧病毒」的模式生存,或許我們根本沒有插頭可以拔[3][4]。 二、對齊問題 對齊問題關注:如何確保 AI 的目標和價值與人類一致?Bostrom用「迴紋針最大化AI」(paperclip maximizer)來說明。假如我們給一個超智慧 AI 指派目標:「生產最多的迴紋針」。在缺乏適當倫理制約的情況下,這個 AI 可能把地球上所有資源——包括人類本身——都轉化為迴紋針,因為那是AI判斷達成目標最有效的方法。又如若指令是「讓所有孩子盡可能多微笑」,AI 或許會選擇對孩童進行手術,使嘴角永久上揚。「附帶性滅絕(incidental extinction)」正是在此架構下的概念,我們擔心的不完全是AI直接傷害人類,而是在完成其他任務的過程中,剛好造成人類的存續性風險[3][4]。 一個評估矩陣(表一)有助於理解不同風險組合:若AI可控且對齊,我們能監督其行為並確保其促進人類利益;若不可控但對齊,它可能擁有高度自主性,但因價值一致仍能造福人類;若可控但不對齊,人類可以偶爾修正其行為,但錯誤決策仍可能帶來傷害;最糟的情況是既不可控又不對齊,AI 行為嚴重違背人類利益且無法被關閉,這正是存續性風險的核心場景[3][4]。
參、AI 對人類存在的毀滅風險AI對於人類存續性風險的討論在國際上如火如荼,有多種情況值得思考。 一、兩種存在性風險:決定性與累積性[5] 哲學家Atoosa Kasirzadeh 將人類存續性風險分為兩大類:其一是「決定性 AI 風險」,指的是單一爆發事件導致人類滅亡。例如,一個超智慧的系統突然全面接管基礎設施,利用地球資源建造超級計算機,讓人類遭到排擠。經典思想實驗如麻省理工學院人工智慧實驗室創辦人Marvin Minsky 晚年所舉的例子 : 「一個被指派去證明黎曼猜想的高階人工智慧,可能會為了建造超級電腦而佔用地球資源,並在追求數學證明的過程中對人類構成威脅。」 另一種則是「累積性AI 風險」,它並非起源於單一事件,而是多重因素的疊加,逐步削弱社會韌性,最終可能導致文明崩潰。Kasirzadeh 以「MISTER 完美風暴」來描繪這種狀況:AI 可能透過深度偽造影響公眾意見(Manipulation),破壞個人自主與民主運作;它可能被惡意用於生物科技,製造致命病原體,造成不安全威脅(Insecurity threats);同時,AI讓大規模監控成為可能,讓政府與企業能前所未有地分析個人資料並使用,破壞隱私以及民眾信任感(Surveillance and erosion of Trust)。更進一步,研究估計到2040年,將有接近四成的工作被AI取代,但 AI 並不會創造等量的工作機會,這將使貧富差距加劇,帶來嚴重的經濟動盪(Economic destabilization)。最後則是無所不在的 AI 監控導致個人資料商品化,甚至可能加劇歧視與自主權喪失,侵害人權(Rights infringement)。這種完美風暴不是單一風險,而是多個危機重疊,逐步侵蝕人類的基本自由與生存條件。 二、自主武器系統與軍事風險[6] 致命自主武器系統(Lethal Autonomous Weapon Systems,LAWS)被定義為能在沒有人工監督的情況下,自主鎖定、選擇並攻擊人類的武器。它們的出現被譽為繼火藥與核武之後的第三次戰爭革命。未來可能出現安裝於小型無人機的智能武器,能自動駕駛、感知環境並投擲炸彈。若同時具有能大規模生產的特性,可能導致大規模屠殺與毀滅。 三、醫療、社會與去技能化 在醫療領域,AI 也可能導致存續性風險。研究指出,如果社會對 AI 過度信任,將診斷與治療完全交由AI做決策,可能在出錯時造成大規模傷亡。此外,AI的使用可能將幾百年來潛在的不平等編碼化並固化。例如某醫療演算法錯誤優先治療病情較輕的白人患者,卻忽視病情更嚴重的黑人患者。另一方面,開發大型AI需要巨額資源,導致強大AI恐集中於少數企業之手,當AI被營利導向操作,可能導致病患被嚴重剝削[7]。 法律學者 Joshua Krook 更提出AI發展可能讓人類逐漸喪失權力(Gradual disempowerment)。他認為,隨著 AI 在各領域比人類更聰明,人類將合理地將決策外包給 AI,直到不再有理由讓人類自己做決定。人類因倚賴 AI 而失去批判性思維、社會關懷等技能,逐步被「去技能化」(de‑skilling),喪失自由意志。這種漸進式瓦解看似無聲無息,卻可能比單次災難更具威脅[8]。
肆、從制度設計回應終點選擇在面對存在性風險時,Bostrom 提出兩大策略——「能力控制」與「動機選擇」[1]。 一、能力控制 重點在於限制 AI 的能力,以避免對人類造成危害。Bostrom提出一些可能辦法。例如「盒裝法」(boxing)主張以物理或資訊的方式隔離 AI,使其僅能以安全管道進行輸入與輸出;「誘因法」(incentive methods)則是在環境中設計誘因讓 AI 選擇安全行為,例如讓它相信遵守人類命令能獲得最大報酬。「阻礙」(stunting)嘗試在設計上限制 AI 的認知或演化能力,使其無法發展到足以危害人類的地步;至於「絆網」(tripwires)則是在系統內設置診斷檢測,一旦 AI 展現出危險行為,就會自動關閉。這些策略類似為貓頭鷹安裝枷鎖:通過限制能力避免其傷害麻雀。然而,若 AI 自我增強能力強大,能力控制可能效果有限。 二、動機選擇法 其想法為試圖直接塑造 AI 的目標,並使其自然而然地做出安全決策。Bostrom也提出一些想法。最直接的方式是以明確規則指示 AI,例如阿西莫夫著名的「三大法則」:不得傷害人類、必須服從人類命令,以及在不違反前兩項的前提下保護自身。然而,現實中的倫理情境往往過於複雜,使得這些規則難以涵蓋所有情況。另一種方法是「馴服」(domestication),透過設計 AI 的動機系統,使其只專注於有限的任務,而不會發展過度的野心或擴張行為。「間接規範」(indirect normativity)則避免直接設定最終目標,而是讓 AI 透過學習人類的道德、法律與價值觀,逐漸形成符合倫理的決策模式。最後,「擴增」(augmentation)的做法則是先在一個本質上善意的系統中逐步強化其智慧,期望它在邁向超智慧的過程中仍能保有人類價值。這些方法旨在讓AI內化人類的價值觀,而非僅用控制法束縛。
伍、結語AI 技術正以前所未有的速度進化。生成式AI 如ChatGPT、 Gemini、Copilot等模型的突破,都展示了AI帶來的巨大潛能。然而,正如 Bostrom 的寓言提醒我們,培育一隻強大的貓頭鷹前,麻雀必須先學會馴服它。自然語言處理研究者中有三分之一擔心AI可能造成核戰等級的災難;學術界提出的「工具性趨同」、「累積性風險」、「自主性喪失」概念則解釋了為何單純拔掉插頭或寫幾條法則並不能保證安全。多種可能性表明AI可能逐步侵蝕我們的生存條件或直接造成生存性危機。 因此,本討論不是鼓吹恐懼,而是呼籲及早認知問題、投入資源研究對齊與控制方法,畢竟我們總不能期望,當AI毀滅人類的一天到來時,可以找到像李世乭第78手的神之一手一樣,一舉逆轉。
參考文獻
|

/007_C3.png)