知识产权法研究中心
您所在的位置: 首页  >  学院概况  >  研究中心  >  知识产权法研究中心  >  正文

香港中文大学李治安教授系列讲座——人工智能著作权法问题

发布时间: 2021-08-27    作者:清华知识产权    浏览量:

2021年5月13日至6月3日每周四下午,由香港中文大学法律学院助理院长兼本科课程主任李治安副教授主讲,清华大学法学院知识产权法研究中心主任崔国斌副教授和刘迪博士主持的系列学术讲座在线上展开。

本系列讲座主要包括三个主题共四场,分别为“新芝加哥学派与程序代码的规范效力理论”、“英国法律和香港特别行政区法律对人工智能生成内容的著作权保护”以及“人工智能偏见的法律与道德意涵”。

image.png

一、新芝加哥学派与“代码即法律”理论

2021年5月13日

第一场讲座的主题是“新芝加哥学派与程序代码的规范效力理论”。李教授首先从美国法官兼学者Frank Easterbrook的“马法(Law of the Horse)”观点引入讲座主题,其认为不应该建立专门的网络法,只需要使用通用规则即可。而后开始重点介绍美国网络法巨擘Lawrence Lessig教授在上世纪90年代末期提出的新芝加哥学派主张,即不同管制因素对人类行为的影响,主要包括了法律(Law)、社会规范(Social norm)、市场(Market)与架构(Architecture)等四个因素。一般而言,市场的主要表现是价格会影响人们对于商品的选择,从而产生不同的行为。社会规范虽然不属于强制性规范,但是有时比法律还有效。此处,李教授举了日本同人漫画的例子,同人漫画在日本通常没有被诉的风险,因为这是这一行业约定俗成的社会规范。同时,架构(Architecture)是指事物既定的状态、特征(如同技术本身),通常表现为对人们行为的限制。就好比钱包可以被偷,但是房子由于其不动产的性质不能被直接“拿走”,这就是架构对人行为的影响。随后,李教授又列举了“圆形监狱(Panopticon)”、美国最高法院等例子来解释架构对于人类行为的影响,并以独立董事等实例来阐释四因素的具体适用。Lessig教授以“代码(Code)”为核心,提出了对当代网络法研究与实践影响深远的理论范式。在李教授看来,通过代码来管制社会将会带来许多问题:一是相较于高昂的立法成本,代码更容易更改和潜移默化地控制人的行为;二是代码没有立法那样透明,可能会隐藏控制者和程序员的真正意图;三是相比于这些基于立法的管制,基于代码的管制更难评估其合理性和优点。最后,李教授以汽车安全带、公交车自动付款等事例来解释了四个因素的互动。

二、人工智能生成内容的著作权保护

2021年5月20日

第二场讲座的主题是“英国法律和香港特别行政区法律对人工智能生成内容的著作权保护”。李教授首先介绍了英国1988年《版权、外观设计和专利法案》(CDPA),在该法案中就已经有了对电脑生成作品的定义,同时也对该作品类型的作者给出了定义——为创作该作品而进行必要安排的人。对于电脑生成作品来说,作者通常是程序员。李教授随后进行了比较法上的介绍,美国不保护机器生成的作品,而欧洲也有比较严格的标准——作品中一定要包含作者的人格,否则难以成为作品。李教授接着对英国Nova Productions v. Mazooma Games and Others 案进行了介绍,该案的判决也对前述结论进行了肯定。之后,李教授讲解了人工智能生成作品和电脑生成作品的差别:主要在于人工智能生成作品更具有不可预测性。这就带来了许多新问题:著作权是否受到过度保护,作者的认定,共同创作的认定和著作权保护期间等。通常情况下,人工智能软件本身都会受到版权法或者专利法的保护,如果此时再将人工智能生成作品给予版权保护,又同时将其作者认定为开发人工智能软件的程序员,那么开发软件这一行为受到了两次保护,就会产生过度保护的问题。从立法目的看,保护知识产权是为了激励创新。但是在目前人工智能领域中,制度虽然没有提供对人工智能生成作品的软件保护,但事实上科技公司并没有因此减少相应的投入。所以,从此角度来讲,该领域是否需要版权的保护来激励创新也是存疑的。此外,如果给予人工智能生成作品著作权保护,开源的软件可能导致作品的产生有两个以上的主体参与,此时的问题是共同创作应如何认定?软件开发者过世后,人工智能软件可以继续产生作品,此时作品的保护期间又应当如何认定?当前上述问题都难以回答。因此,目前赋予人工智能生成作品著作权保护可能并不是一个很好的选择。

三、人工智能偏见和法律与道德意涵

2021年5月27日、6月3日

第三、四场讲座的主题是“人工智能偏见的法律与道德意涵”。人工智能技术在公私部门的广泛应用固然创造了巨大价值,但有时也会带来对不同种族、性别与社会阶级的偏见。而这些偏见的形成与强化无疑会对公民社会造成伤害。在这两场讲座中,李教授跟大家介绍并讨论了人工智能算法黑箱与可能造成的偏见、人工智能的可解释性与可能的管制对策等。李教授首先从谷歌翻译、谷歌Allo和微软Tay Tweets三个例子出发,介绍了人工智能偏见的具体表现。此后,通过无人驾驶的例子重点讨论了价值决策的问题。李教授接着引入在第一讲中提及的新芝加哥学派分析框架,分别从市场、社会规范、技术和法律四个方面进行了分析。从市场来看,不好的一面在于某些公司通过算法推荐,监控、利用用户来获取利益;好的一面是越来越多的企业提供无偏见的人工智能服务,如以谷歌为代表的公司还提供了人工智能伦理服务。从社会规范来看,大多数公司在涉及人工智能服务时有如下规定:人工智能的决定需要尊重人权、具有可解释性与具有可问责性等。李教授接着从Google & Project Maven的例子入手,和同学们展开了讨论分析。从技术来看,导致偏见产生的原因有:大数据分析都是基于现有的数据,与未来的发展趋势不一定相符;数据通常具有不平衡、不包容等特性,进而导致了偏见的产生。当然,上述问题亦有相应的解决方式:在历史数据中加入无偏见的数据,并不使用种族、性别、宗教等特征点。从法律方面来看,美国国会于2019年提出了《算法问责制法案(Algorithmic Accountability Act)》,规定了要对人工智能软件进行偏见评估,美国联邦贸易委员会(FTC)可以要求查看其代码等。同时,算法被要求具有透明度,即只有当利益相关者能够获得关于设计、开发、部署、操作等信息时,人工智能才能在法律上被接受。李教授还介绍了2021年4月公布的欧盟基于风险分析的《人工智能法》提案(全名为:“Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) And Amending Certain Union Legislative Acts”)。最后李教授给人工智能开发公司提供了一些建议,如成立人工智能道德委员会、制定专门的人工智能政策、确保人工智能行为的可解释性、可审查性和透明性等。本次系列讲座结合英国、美国和欧洲等立法及相关案例,对人工智能领域的著作权法核心问题进行了深入地讲解和讨论,论理清晰、案例丰富,参会师生和听众都有较大的收获。


本系列讲座录屏在线观看链接 | LINK

https://cloud.tsinghua.edu.cn/d/022a236da23141c0a0be/