全球视野下的台湾Al基本法◆文/朱宸佐(人工智慧法律国际研究基金会秘书长)
- 更新日期:114-02-17
自 2022 年 OpenAI 推出 ChatGPT 以来,全球正式迈入通用 AI 时代。虽然现阶段的 AI 技术尚无意识与人格,主要是作为人类的高阶工具,为社会带来效率与便利,但各类潜在风险与忧虑也接踵而至,包含对个人隐私的侵害、偏见与歧视,以及 AI 失控等问题。为因应这些新兴挑战,各国纷纷加紧脚步,制定 AI 监管法规。以下将从欧盟、美国与中国大陆的监管特色进行简要分析,并探讨台湾在推动 AI 基本法时如何参酌国际经验、结合本土需求与产业实况。
欧盟:强制性法规 结合风险分级与人权保障
欧盟采行立法层级的强制规范,兼具风险分级与严格罚则,并将 AI 与人权议题相结合。2024年8月1日,欧盟正式公布全球首部《人工智慧法案》(以下简称 AIA),共有113条条文及13个附件。对 AI 产品或服务进行风险分级,分为不可接受风险、高风险、有限风险、低或无风险四级,并针对不同风险等级采取相应审查措施。违反者最高将面临全球营收6%的罚款。
AIA的颁布引发广泛讨论,一方认为此法为AI监管树立重要典范,可供世界各国立法借镜;另一方则担忧过度监管会限制欧盟AI产业的创新与发展,无法与美国等地的 AI 业者在竞争中保持弹性与创新能力。就实际成效而言,欧盟此种「高度监管」模式能否兼顾技术发展与人权保障,仍有待观察。
美国:行政命令与政策框架为主 鼓励产业自律与创新
美国在AI与科技领域长期处于领导地位,但至今尚无联邦层级的AI 监管法规。主要透过行政命令与政策文件推动管理,强调产业自律、国际合作及鼓励创新。2023年10月,拜登总统颁布第14110号行政命令,要求联邦机构订定明确的AI政策与实施路径,并推动AI技术评估及基础设施建设,同时支持国际AI标准制定。根据该行政命令,2024年9月,美国国务卿布林肯近一步发布「全球AI研究议程(Global AI Research Agenda)」及「全球发展中的AI使用手册(AI in Global Development Playbook)」,借此凸显美国在建立 AI 国际规范上的领导地位。
在州法层级,加州于2024年8月推出的《前沿人工智能模型安全创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Act)备受关注。该法案针对开发成本超过1亿美元的大型 AI 模型,必须内建「紧急关闭」功能,以防 AI 遭滥用或造成灾难性后果。此法案虽在议会获得通过并受到科研界支持,却遭到 OpenAI、Meta 等矽谷科技巨头强烈反对,认为将大幅增加合规负担,可能导致 AI 产业外移,从而妨碍美国 AI 科技的创新发展。最终,该法案被加州州长纽森否决,这显示美国目前仍以鼓励产业自律与技术创新为核心取向,倾向透过政策引导而非高度监管来规范 AI发展。
中国大陆:政府主导合规 对制定 AI 基本法持观望态度
中国大陆在 AI科技实力上仅次于美国,并以政府高强度的管控能力为特色。从 2023 年起,陆续施行多项规范,如《互联网信息服务深度合成管理规定》、《互联网信息服务算法推荐管理规定》以及《生成式人工智能服务管理暂行办法》,分别针对深度合成、算法推荐和生成式 AI 进行监管。这些法规重视政府对科技平台与企业的合规要求,并在特定领域强化监管与审查。
至于是否制定 AI 基本法,中国大陆官方虽面临不少来自专家学者的呼吁(例如 2024 年 3 月提出的《人工智能法(学者建议稿)》),但依旧采取观望态度。除了政府对民间企业的管控能力较高以外,过度立法可能压抑创新,也是一大考量。因而,中国大陆暂未制定类似欧盟 AIA 的全方位 AI 立法。
台湾:汇整国际经验 推动AI基本法立法
因应 AI 时代的迅速来临及监管需求,台湾行政部门陆续发布相关 AI 指引。例如 2023年8月发布的《行政院及其所属机关使用生成式 AI 参考指引》,以及2024年6月金融监督管理委员会发布的《金融业运用 AI 指引》,虽不具强制力,却为公部门与特定产业提供基本原则与自律方向。
同时,台湾亦积极推动 AI 基本法立法,目前已提出民间与官方两套最新版本。第一套是2023年3月由财团法人人工智慧法律国际研究基金会撰拟的民间版本,共24条,于2024年4月送交立法院审议;第二套则是2024年7月由国家科学委员会撰拟的官方版本,共18条,目前正送交行政院审查。
两套版本皆参考国际最新监管趋势,融合欧盟强制性法规的作法及美国较具弹性的管理模式。与欧盟AIA多达113条的架构相比,台湾AI基本法草案受美国模式影响相对精简,仅将原则性与政策性指导规范制定为法律条文。两版本内容均涵盖 AI 定义、伦理原则、风险分级、产业扶持及弱势保障等议题,尚未设置处罚条款,具有「框架性法律指引」的「伞形架构」性质。民间版本更著重国际接轨与产业参与,建议以数位发展部为主管机关;官方版本则强调政府推动风险分级管理的责任,并以行政院为主管机关。
综观而言,台湾透过「伞形架构」建立AI基本法,先在法律层级确立顶层设计与伦理原则,再授权各部会制定具体细则。未来,卫福部、交通部等部门可依此法律基础,就智慧医疗、智慧交通等领域进行更细部的规范;在保护公共利益与推动产业创新之间取得适度平衡。
从风险控管到产业发展—台湾 AI 基本法的历史使命
AI 技术的崛起,不仅带动全球产业与社会转型,也凸显各国对风险管理与市场发展的不同取向。欧盟以强制性法规领航,但面临产业创新受限的质疑;美国虽未建立统一的联邦法规,却借重行政命令与市场自律,著眼于维持技术领先优势;中国大陆则透过快速立法和严格政府管控方式,确保生成式 AI 等关键技术的安全与秩序。
从美国、欧盟及中国大陆的经验可见,若过度监管,可能压抑产业创新;但若缺乏明确规范与配套,则易导致难以预测的风险。台湾以「伞形架构」推动 AI 基本法立法,结合国际法制经验与本土需求,在风险控管与产业发展间取得平衡,为全球 AI 法制探索新的发展方向。
对台湾而言,AI 科技实力与国家竞争力息息相关。台湾在半导体与 AI 伺服器硬体领域已具全球领先地位,但在大型语言模型、云端数据等 AI 软体服务方面仍有可提升空间。为因应 AI 时代的各种挑战,台湾如能透过 AI 基本法体现长期产业政策方向,使中央与地方各机关协同推动特定 AI 产业,并搭配法律与政策资源的整合,将可持续巩固并扩大在全球供应链中的价值地位。透过AI基本法兼顾创新与安全,台湾不仅能在未来竞局中占得先机,也能确保 AI 发展符合社会公益,成为全球 AI 法制的重要示范者。这既是立法者的历史使命,也将是台湾有效掌握 AI 潜力与国际影响力的关键所在。