按Enter到主內容區
:::

財團法人海峽交流基金會

:::

全球視野下的臺灣Al基本法◆文/朱宸佐(人工智慧法律國際研究基金會秘書長)

  • 更新日期:114-02-17

自 2022 年 OpenAI 推出 ChatGPT 以來,全球正式邁入通用 AI 時代。雖然現階段的 AI 技術尚無意識與人格,主要是作為人類的高階工具,為社會帶來效率與便利,但各類潛在風險與憂慮也接踵而至,包含對個人隱私的侵害、偏見與歧視,以及 AI 失控等問題。為因應這些新興挑戰,各國紛紛加緊腳步,制定 AI 監管法規。以下將從歐盟、美國與中國大陸的監管特色進行簡要分析,並探討臺灣在推動 AI 基本法時如何參酌國際經驗、結合本土需求與產業實況。

歐盟:強制性法規 結合風險分級與人權保障  

歐盟採行立法層級的強制規範,兼具風險分級與嚴格罰則,並將 AI 與人權議題相結合。2024年8月1日,歐盟正式公佈全球首部《人工智慧法案》(以下簡稱 AIA),共有113條條文及13個附件。對 AI 產品或服務進行風險分級,分為不可接受風險、高風險、有限風險、低或無風險四級,並針對不同風險等級採取相應審查措施。違反者最高將面臨全球營收6%的罰款。

AIA的頒布引發廣泛討論,一方認為此法為AI監管樹立重要典範,可供世界各國立法借鏡;另一方則擔憂過度監管會限制歐盟AI產業的創新與發展,無法與美國等地的 AI 業者在競爭中保持彈性與創新能力。就實際成效而言,歐盟此種「高度監管」模式能否兼顧技術發展與人權保障,仍有待觀察。

美國:行政命令與政策框架為主 鼓勵產業自律與創新  

美國在AI與科技領域長期處於領導地位,但至今尚無聯邦層級的AI 監管法規。主要透過行政命令與政策文件推動管理,強調產業自律、國際合作及鼓勵創新。2023年10月,拜登總統頒布第14110號行政命令,要求聯邦機構訂定明確的AI政策與實施路徑,並推動AI技術評估及基礎設施建設,同時支持國際AI標準制定。根據該行政命令,2024年9月,美國國務卿布林肯近一步發布「全球AI研究議程(Global AI Research Agenda)」及「全球發展中的AI使用手冊(AI in Global Development Playbook)」,藉此凸顯美國在建立 AI 國際規範上的領導地位。  

在州法層級,加州於2024年8月推出的《前沿人工智能模型安全創新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Act)備受關注。該法案針對開發成本超過1億美元的大型 AI 模型,必須內建「緊急關閉」功能,以防 AI 遭濫用或造成災難性後果。此法案雖在議會獲得通過並受到科研界支持,卻遭到 OpenAI、Meta 等矽谷科技巨頭強烈反對,認為將大幅增加合規負擔,可能導致 AI 產業外移,從而妨礙美國 AI 科技的創新發展。最終,該法案被加州州長紐森否決,這顯示美國目前仍以鼓勵產業自律與技術創新為核心取向,傾向透過政策引導而非高度監管來規範 AI發展。

中國大陸:政府主導合規 對制定 AI 基本法持觀望態度  

中國大陸在 AI科技實力上僅次於美國,並以政府高強度的管控能力為特色。從 2023 年起,陸續施行多項規範,如《互聯網信息服務深度合成管理規定》、《互聯網信息服務算法推薦管理規定》以及《生成式人工智能服務管理暫行辦法》,分別針對深度合成、算法推薦和生成式 AI 進行監管。這些法規重視政府對科技平台與企業的合規要求,並在特定領域強化監管與審查。

至於是否制定 AI 基本法,中國大陸官方雖面臨不少來自專家學者的呼籲(例如 2024 年 3 月提出的《人工智能法(學者建議稿)》),但依舊採取觀望態度。除了政府對民間企業的管控能力較高以外,過度立法可能壓抑創新,也是一大考量。因而,中國大陸暫未制定類似歐盟 AIA 的全方位 AI 立法。

臺灣:彙整國際經驗 推動AI基本法立法  

因應 AI 時代的迅速來臨及監管需求,臺灣行政部門陸續發布相關 AI 指引。例如 2023年8月發布的《行政院及其所屬機關使用生成式 AI 參考指引》,以及2024年6月金融監督管理委員會發布的《金融業運用 AI 指引》,雖不具強制力,卻為公部門與特定產業提供基本原則與自律方向。  

同時,臺灣亦積極推動 AI 基本法立法,目前已提出民間與官方兩套最新版本。第一套是2023年3月由財團法人人工智慧法律國際研究基金會撰擬的民間版本,共24條,於2024年4月送交立法院審議;第二套則是2024年7月由國家科學委員會撰擬的官方版本,共18條,目前正送交行政院審查。  

兩套版本皆參考國際最新監管趨勢,融合歐盟強制性法規的作法及美國較具彈性的管理模式。與歐盟AIA多達113條的架構相比,臺灣AI基本法草案受美國模式影響相對精簡,僅將原則性與政策性指導規範制定為法律條文。兩版本內容均涵蓋 AI 定義、倫理原則、風險分級、產業扶持及弱勢保障等議題,尚未設置處罰條款,具有「框架性法律指引」的「傘形架構」性質。民間版本更著重國際接軌與產業參與,建議以數位發展部為主管機關;官方版本則強調政府推動風險分級管理的責任,並以行政院為主管機關。

綜觀而言,臺灣透過「傘形架構」建立AI基本法,先在法律層級確立頂層設計與倫理原則,再授權各部會制定具體細則。未來,衛福部、交通部等部門可依此法律基礎,就智慧醫療、智慧交通等領域進行更細部的規範;在保護公共利益與推動產業創新之間取得適度平衡。

從風險控管到產業發展—臺灣 AI 基本法的歷史使命  

AI 技術的崛起,不僅帶動全球產業與社會轉型,也凸顯各國對風險管理與市場發展的不同取向。歐盟以強制性法規領航,但面臨產業創新受限的質疑;美國雖未建立統一的聯邦法規,卻借重行政命令與市場自律,著眼於維持技術領先優勢;中國大陸則透過快速立法和嚴格政府管控方式,確保生成式 AI 等關鍵技術的安全與秩序。

從美國、歐盟及中國大陸的經驗可見,若過度監管,可能壓抑產業創新;但若缺乏明確規範與配套,則易導致難以預測的風險。臺灣以「傘形架構」推動 AI 基本法立法,結合國際法制經驗與本土需求,在風險控管與產業發展間取得平衡,為全球 AI 法制探索新的發展方向。  

對臺灣而言,AI 科技實力與國家競爭力息息相關。臺灣在半導體與 AI 伺服器硬體領域已具全球領先地位,但在大型語言模型、雲端數據等 AI 軟體服務方面仍有可提升空間。為因應 AI 時代的各種挑戰,臺灣如能透過 AI 基本法體現長期產業政策方向,使中央與地方各機關協同推動特定 AI 產業,並搭配法律與政策資源的整合,將可持續鞏固並擴大在全球供應鏈中的價值地位。透過AI基本法兼顧創新與安全,臺灣不僅能在未來競局中佔得先機,也能確保 AI 發展符合社會公益,成為全球 AI 法制的重要示範者。這既是立法者的歷史使命,也將是臺灣有效掌握 AI 潛力與國際影響力的關鍵所在。

回頁首