AI 與風險社會》哲學教授吳豐維: AI 需反映台灣主權、特有價值

由台灣獨立建國聯盟、台灣安保協會、現代文化基金會、新台灣和平基金會主辦的「AI與風險社會」講座,邀請到文化大學新聞系教授陳慧蓉、文化大學哲學系教授吳豐維,以及台灣勞工陣線秘書長孫友聯到場分享  AI 發展背後的風險,並由黑熊學院執行長朱福銘主持綜合討論。

延伸閱讀:
AI與風險社會》勞團孫友聯: AI 恐帶來科技性失業 推動發展應兼顧勞工權益
AI與風險社會》傳播學者陳慧蓉: AI 資料庫應本土化 避免生成充斥外來語

由台灣獨立建國聯盟等團體主辦的「AI與風險社會」講座,廣邀各界專家與談。(圖/台獨聯盟)

吳豐維:台灣應將歐盟《人工智慧法》的倫理特色納入考量

文化大學哲學系教授吳豐維以哲學家對風險和人工智慧(AI)開頭,指出當代哲學如何看待AI的潛在風險和道德問題,並分析了 AI 法案如何通過風險評估來制定法律規範。

  • 吳豐維延續陳慧蓉再次強調2024年8月1日生效的歐盟《人工智慧法》關於風險的考量,指出近年歐盟已基於不同的 AI 風險,來制定不同強度的規範。

藉由簡介該部法案的立法目的,吳豐維提醒台灣政府未來可參照歐盟法案,當要促進AI的發展時,目的是保護人們的健康、安全與基本權利免於 AI 的傷害,同時針對高度風險AI的提供者/開發者制定規範,以保護AI 的發展。

此外,吳豐維提醒,根據歐盟的《人工智慧法》,政府應該特別禁止 AI 操弄行為與決策、剝削弱勢、蒐集敏感的生物識別、社會評分,以避免過度發展的 AI 系統反過來傷害公民社會、國家主權。

  • 吳豐維提出很少人談到的歐盟《人工智慧法》的倫理特色, AI具有目的義務論(deontology)性格,「隱私」(privacy)、「尊嚴」(dignity)、「自主」(autonomy)。 歐盟的AI法案所提出的風險評估,在哲學上為「負向效益主義」(negative utilitarianism)特性。就「風險」概念,採取的是兩害相權取其輕。

吳豐維並提到與此相反的「正向效益主義」,例如:「長期主義」(Longtermism) 目的在促進最大的長期利益,這裡的「長期」,是以 1 千年到 1 萬年來思考,如果判定 AI 對人類長期未來有幫助,會推進AI更快速的發展。

文化大學哲學系教授吳豐維,從當代哲學的角度談及 AI 發展的風險。(圖/台獨聯盟)

吳豐維:主權 AI 反映台灣主體性與價值觀

吳豐維強調,AI 資料庫會導致「移風易俗」,因為不同的資料庫,有不同價值觀,必須重視「主體性」乃至「主權」問題。

吳豐維提到:台灣所使用的資料庫必須能反映出台灣的主權、特有的價值觀,避免在使用 AI 的過程中,被錯誤的資訊或價值觀所誤導。

  • 吳豐維也特別提到 AI 的道德地位,指出在 AI 成為超級智慧之前,要先思考 AI 本身是否「具有意識」,也就是「能判斷自己身處在那裡」,這種如動物般的意識,之後才能討論所謂的超級智慧(superintelligence),

吳豐維指出,AI 的發展變成超級智慧,也有一種「可能的」風險:若 AI 的判斷出現嚴重偏離,也會導致反過來係形成傷害人類的決策。

如果未來 AI 資料庫發展成「超級智慧」,判定人類「長期」對地球是有危害,就有可能反過來將人類當作是攻擊的目標。

AI 發展成超級智慧,需要關注失控的可能,反成為傷害人類的力量。(圖/Pixabay)