按Enter到主内容区
:::

财团法人海峡交流基金会

:::

企业AI人工智慧的管理及法遵趋势◆文/洪志勋(万国法律事务所合伙律师)

  • 更新日期:113-08-22

近期随著NVIDIA黄仁勋访台,将我国AI热潮提升至新高点,AI话题深入社会各个角落。观察这几年的AI演进,从AlphaGo大战韩国棋王、Open AI推出人工智慧聊天机器人程式ChatGPT及各式各样生成式AI与判别式AI问世,AI的发展是一把照亮新时代路径的熊熊火炬。

从网路迈入AI时代

在网路时代使用搜索引擎(如Google)进行资料检索时,每个使用人须先预设「检索关键字」、「过滤」关键字所检索的资料、「分析」资料及「汇整」资料;然而,在AI时代,使用人只要会「下达指令」给AI工具,AI即会自动执行「关键字设定」、「过滤」、「分析」及「汇整」资料等动作,大量减少人力的投入。

基于上述AI的特性,企业开始将AI应用于大规模的数据整理及分析,进而提出诸多应用。例如,我国金融业已将AI应用于消费者行为分析、智能客户服务、风险预警等,然而,企业内部导入AI应用,将面临何种管理议题?是否应遵循相关法令?更是每个企业主关注议题。

AI技术发展的核心

LexisNexis PatentSight+AI技术专利分析图,可以发现AI技术的核心即在于资讯分析(Information Computation),且该资讯分析的主要细部内容,更是耳熟能详的机器学习(Machine Learning)、类神经网路学习(Spiking Neural Network)、深度学习(Deep Learning)等技术领域。

现实生活中存在诸多因素,且每个因素间具有关联性,关联性被建立即可形成一个决策系统,当有不同的指令(Input)投进该系统时,经过系统计算,即会产出一个结果(Output),而这个结果就是系统认为最符合该指令所对应的答案。因为每个点会受其他点的影响,而产生不同的结果,这种结构彷佛人体的神经元,不同的神经元借由突触进行讯号传递,进而产出人的决策系统,此概念称为「类神经网路」,也是目前AI主要运作架构。


AI衍生的企业管理议题

AI系统的建置,需要了解不同因素(事件)间的关联性,进而依据不同指令,产生最符合该指令的结果。如果希望建置一个能回答所有问题的AI系统,此系统需要搜集各式各样资料,从资料中分析不同因素的关联性。因此,开发AI系统的企业,可能会面临下述管理议题:

企业保存的资料相当有限,如果要让AI系统的学习效果变得更好,需要投入更多资料,这时该如何取得更多资料?

现行网路发达且资料量多,企业可以撷取网路资料供AI系统学习,然而网路资料是否可以毫无顾忌任意抓取?提醒企业主,网路资料若有注记著作权保留声明(例如,未经授权,禁止转载),若无视该保留声明,迳自抓取资料供AI系统学习,只要资料著作权人能证明该企业有未经授权即抓取资料行为,著作权人得对该企业提起侵害著作权诉讼,此已有外国司法判决可参考。

企业可否使用外部AI工具执行对客户负有保密义务的工作项目?

AI系统需要资料喂养以进行学习,当使用者上传新资料至AI系统时,该新资料会成为AI系统学习的对象,且存放在AI系统的资料库中,故企业员工未经客户同意,即将客户机密新产品文件上传至AI系统,客户即可对该企业追诉违反保密义务的法律责任。对此,行政院通过「行政院及所属机关(构)使用生成式 AI 参考指引」,明确订定「业务承办人不得向生成式 AI 提供涉及公务应保密、个人及未经机关(构)同意公开之资讯,亦不得向生成式 AI 询问可能涉及机密业务或个人资料之问题」等规定。

使用AI工具产出的成果,企业是否可就该成果主张智慧财产权?

企业使用AI系统工具执行业务,在执行过程中,使用AI系统工具衍生诸多成果(例如,生成式图档),企业对该成果是否可主张任何智慧财产权(例如,主张该图档著作财产权归属于该企业)?对此,实务上存有不同见解,归属于操作AI系统工具之人所有、归属于AI系统工具(将AI系统视为虚拟之人),或者归属于开发AI系统工具的开发者所有。针对前述问题存有诸多讨论,在2023年美国法院曾做出判决,认为AI系统非属「人类」,著作权法只保护人类所为的创作,进而认定AI系统所生成的图档,不受著作权保护。我国法院目前尚无类似判决见解,司法实务对此议题的发展值得关注。

企业面临的AI法遵议题

AI系统建构在大量资料的分析处理(意即大数据),借由学习(如机械学习、类神经网路、深度学习)等方式建置AI系统运算机制,让AI系统得依使用者下达的指令,进行运算并产出AI系统认为最合适的结果,针对「AI运算」部分,该运算发生于远端的超级电脑,一般使用者不会清楚该运算机制如何分析、运算及产出。简言之,该AI运算对使用者而言,就是一部深不可测的黑盒子。假设一情境,如果AI系统的开发者于开发过程中,在AI运算程式中纳入个人偏见,导致运算结果受其偏见影响,例如,开发者为开发一银行用户信用评等系统,因开发者心中存有「黑人等于高风险」偏见,并将其引入该信用评等系统,最终导致任何黑人使用该系统,皆会得到「低」信用评等的运算结果。针对前述的假设情境,此行为是否贬抑人性尊严,有损「以人为本」普世价值观,进而需制定相关法令予以规范。

开发AI系统工具 已是不可逆的趋势

在全球积极发展AI技术过程中,皆会碰触到上述议题,然观诸美国、英国、日本等国的立法管制架构,可发现大都采用「先指令、后立法」方式,主要原因系现行AI技术处于发展阶段,若在发展初期即设立严格管制法令,让AI技术发展受限制,或扼杀AI技术创新的可能,且发展过程需创设何种新的法律议题,各国多处于观察阶段,故外国立法例方会采用「先指令、后立法」的立法架构。对此,我国亦采用相同的立法架构,行政部门已开始通过相关指引,例如「行政院及所属机关(构)使用生成式 AI 参考指引」、「金融业运用人工智慧(AI)指引」。除前述指引外,我国亦在积极研议「AI 基本法(草案)」,期将永续发展、人类自主、隐私保护、资安与安全、透明可解释、公平不歧视及问责等7大基本原则,明文纳入「AI基本法」规范

依据McKinsey Digital发布的「The economic potential of generative AI」统计资料显示,在2030年至2060年间,人类现行社会50%职业可能被AI所取代。面对AI时代,企业使用、开发AI系统工具,已是不可逆趋势,我国行政部门尚在规划AI相关指引及基本法草案,企业仍应积极关注相关动态发展,倘企业已投入相当资源进行AI系统工具开发,更应尽早掌握相关指引及草案对于AI系统开发者的要求,降低企业AI系统所面临的冲击。

回页首