近18年时间里已经有近100家上市公司,1000家企业和近10000名管理者成为THLDL大课堂学习型社区中的一员。

管理资讯|领导力首页 > 管理资讯 > 资本 > 金融 > 互联网金融法律研究院李爱君:人工智能法律行为论

互联网金融法律研究院李爱君:人工智能法律行为论

时间:2019-06-11 09:28:15 来源:网络

摘?要:?人工智能的法律性质受到了法学界的关注和研究,探讨人工智能法律地位,就是厘定人类与人工智能之间的关系。人类与人工智能之间的关系的厘定是以人类保证自身生存秩序和发展为终极目标。从法律价值层面,人工智能的法律性质应首先从实践中观察和研究人工智能对现有的法律关系有什么影响,并从影响中以保证人类的生存秩序和发展为终极目标,以防范人工智能在应用中对人类社会所产生的风险为核心,以服务于人类的幸福和发展为目的总结和抽象出人工智能的法律性质;?从法的结构层面,法是调整社会关系的规范,法的基本结构是主体、客体和行为。人工智能在法的基本结构中是主体、客体或是行为决定其法律的性质。学术界对人工智能的法律性质有主体说和工具说。笔者的观点,人工智能是研发者、制造者和使用者的法律行为。


【来源】本文来源于《政法论坛》2019年第3期。转引转载请注明出处。







引言

  “人工智能”是当下社会最热的词汇,然而无论其定义还是其法律关系中的性质,至今都没有形成共识。但人类社会正走向人工智能时代已是不争的事实,人工智能的迅速发展正在社会的政治、文化、经济等各个领域深刻改变着人类生活,同时改变着社会关系的结构,尤其对现行法律带来了冲击和挑战。例如人工智能的着作权问题、无人驾驶汽车的“交通权”和“责任”问题、人工智能律师权利问题等都需要从法律层面予以解决。艾伦·图灵等计算机大师曾提出,人工智能迟早会威胁到人类生存,必须在问题积重难返前,对人工智能的发展作出妥善的法律制度安排,以引导实践的发展。

  2017年7月20日,国务院印发《关于新一代人工智能发展规划的通知》(以下简称《通知》)[1],明确把人工智能的发展列入国家战略层面进行系统布局。同时提出加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理到的框架。现法学界对人工智能的法律地位、法律责任、权利义务等进行了研究,其中对人工智能法律地位的主体性研究尤为热烈。人工智能法律地位的研究是建立保障人工智能健康发展与维护人类生存秩序和幸福发展的法律法规、伦理道德框架的基础,因此,此项研究要慎之又慎。赋予人工智能法律主体、客体或是行为地位都不是目的,而是为了保障法律系统能够服务于人类社会的自由、安全和幸福发展。人工智能法律地位的研究应以实现法律价值为理论基础,以服务人类社会为目标,以防范人工智能所带来的社会风险为目的。只有这样才能真正实现《通知》的国家战略和防范人工智能对人类生存的威胁。

  一、人工智能非法律主体

  (一)人工智能法律主体的观点评析

  人工智能主体的观点主要有:一是电子代理人说。“电子代理人”最早见于1999年《统一计算机信息交易法》[2]。在美国统一州法全国委员会于1999年8月通过的《统一电子交易法》(修订稿)第2条对“电子代理人”进行了定义:“系指非经人的行为或审核,全部或部分独立地发起某种行为或应对电子记录或履行的计算机程序、电子手段或其他自动化手段。”{1}加拿大1999年通过的《统一电子商务法》中同样使用了“电子代理人”一词。二是电子人说。“2016年5月31日,欧盟委员会法律事务委员会提交一项动议,要求欧盟委员会把正在自动化智能机器工人的身份界定为电子人的身份,并赋予这些机器人依法享有着作权等特殊的权利与义务。”{1};三是有限法律人格说。有限法律人格说主要阐述了虽然人工智能能够具有行为能力、权利能力、责任能力,但承担责任能力有限,因此用已成立的《侵权法》进行调整并不完全适用,应重新构建一套适合人工智能有限法律人格的侵权责任的制度安排。四是独立的法律人格说。独立的法律人格说其本质是对人工智能的主体地位与自然人或与拟制的法律主体具有同样的地位,是对人工智能具有权利能力、行为能力和责任能力的全面肯定。其认为人工智能有独立的意识,能够进行独立的判断,已经摆脱了人的控制。

  (二)人工智能科学决定其非法律主体

  首先,人工智能是技能。在人工智能科学领域对人工智能的定义主要取决于“智能(智力)”。“智力理论的流派虽多,但一致的观点认为,智力是一种具有生物学物质基础的心理潜能,而不是一种熟练掌握的技能。智力是被个人的经验和学习(源于生活)塑造过的中枢神经系统(源于遗传)的功能活动,是一个先天遗传和后天学习的混合物”{2}(P.392)。目前人工智能都是处于能够熟练掌握技能的层面。技能是个体运用已有的知识、经验并通过训练形成一定的“行为方式”或“智力活动”。“行为方式”或“智力活动”应属于行为范畴,而不是主体范畴。不是主体就不可能成为法律主体。

  其次,人工智能是算法而非人类认知神经科学。算法是计算机通过计算机程序来处理信息的一种方式,通常通过此方式来控制和执行计算机的行为来完成人类所需求的一定任务。算法是以信息为基础的计算机处理信息的技术,1988年,明斯基借其着作《感知机:计算几何导论》扩充再版之机指出:“我们认为,由于缺少基本理论,研究已经基本处于停滞状态……”,对人工智能研究而言,这个结论到现在依然成立{3}(P.85)。“不仅指导人工智能走向未来的理论尚未建立,最佳实践也没有达到,这是有人忧虑人工智能进入再一个冬天的原因。有人指出,无论是IBM的‘危险边缘’,还是谷歌的AlphaGo,数据的作用及经验性知识没有得到恰当的评价;还有人指出,人工智能的神经网络研究进展,并没有跟上认知神经科学最新研究的成果,深度学习的算法与人脑的工作机制几乎没有共同之处。”{3}(P.85)目前的人工智能都是深度学习的算法来进行解决问题的,并不是运用人类认知神经科学来完成的,因此人工智能的“智能”不能与人的“智能”相提并论。如人工智能的“智能”不是人的“智能”,而法律又以人的“智能”为标准作为主体,那么人工智能就不能构成法律的主体。

  再其次,人工智能不符合自然科学主体性的构成要素。自然科学“主体性包括三个核心要素:拥有自我和意识、拥有资源、拥有自身行为的控制力。成为主体必须将自己的生存作为第一要务,必须有自己的意识和目的;作为智能主体,必须拥有与承担的智能任务相匹配的资源;作为智能主体,必须拥有控制自身行为的能力。尽管失控的行为,从功能看也是智能行为,但不符合主体的价值和意志。控制能力是主体性的必要构成部分。目前的人工智能在自我和意识层面都是人赋予的。”{3}(P.141)构成主体意识有三个基本要素:一是响应。能对外部事件与事物主动响应,能被唤醒或保持感知;二是自我体现。受到侵害时启动保护,始终将资源的获取和扩展置于行为的优先位置;三是学习。将学习作为主体生存和发展、完成智能任务的前提。所有的生物都具有响应能力。人工智能目前对外部有一定的响应能力,但人工智能的响应能力都是人赋予的,无论对什么响应、如何响应都是人赋予的。所以人工智能不拥有自我和意识{3}(P.142)。资源是人类生存的基本需要,如学习资源,维持生命资源和实现行为能力的资源。人工智能自身不占有资源,一是不占有维持生命的资源;二是不占有学习的资源(人工智能学习的资源是人类给的信息数据);三是不具有行为能力的资源。“主体性的控制力是指对非正常及非理性行为的约束,减少或不发生与主体意愿相违背的行为,或者说防止失控。”{3}(P.143)人工智能的实践并不能够实现自身控制力,一是人工智能的意识是人赋予的,不是自身控制自己的行为;二是人工智能在实践应用中所出现的风险事件也足以说明自身不具有理性的控制力。如“1978年日本广岛的摩托车厂机器人突然转身将其后的工人抓住并切割,1989年全苏国际象棋冠军击败人工智能机器人,但机器人自主释放强电流致使冠军身亡。”{4}

  最后,人工智能法律主体地位不是人工智能科学的价值目标。人工智能的发展“可以通过赋予的方式形成智能、逻辑功能和物理功能,但并不意味着必须像人一样具备广泛领域的能力,而是可以根据承担的智能任务类型分别形成不同的行为功能”{3}(P.85),以此为人类的生存、秩序、幸福和发展服务。既然人工智能科学的价值目标不是为了制造一个必须像人的物种,只是为了承担的智能任务类型分别形成不同的“行为”功能,那么人工智能就仅仅是人类的工具,从而是人类行为的延伸而不是法律主体。

  综上所述,人工智能无论是从人工智能科学的价值目标、智能的程度、智能的本质、智能的方式,还是自然科学的主体性构成都不具备法律主体性,而仅仅是技术工具或技术行为。

  (三)法律的价值决定了人工智能不具有法律主体性质

  法是人类在漫长的发展过程中创造的,其目的是作为服务人类所需的工具,而不是为了法的自身的存在和发展,因此法律价值的本质是法律如何服从和服务于人,是为人类能够更好地生活和生存发展服务的。法是“我的目的构成规定我的行为的内容”{5}(P.207)。“法律价值是指法律的存在、作用及其发展变化对一定主体需要及其发展的适合、接近或一致。”{6}(P.3)这里的“主体”是“人类”,因此法律价值的存在、作用及其发展变化是要与人类的发展适合、接近或一致。无论是法律的社会价值、法律的群体价值和法律的个人价值实质上都是服从和服务于人,因为社会是由群体构成的,群体是由自然人的个体组成的,归根结底社会和群体都是由个人构成的。所以法律的社会价值和群体价值都是由自然人的个体价值决定的,如果一味的脱离现实去把社会价值界定为高于社会和群体的价值就会使得法律价值走向异化之途,也就是说背离了法律的价值服务于人类的发展的需要,而成为人类为法律价值的需要存在。目前,人工智能是法律主体的观点已背离了法律价值的本质,如斯坦福大学教授克利福德·纳斯的观点:“生命是特别的,我们不应该像破坏法律那样去虐待那些机器、动物等非人类生命,非人类生命也应该有相应的‘人权’。”{7}纵观人权的发展历史,人权的主体随着人权理论的发展,不断扩大都是围绕人类的发展和幸福及更为尊重人性展开的,如从本国公民到外国公民,甚至发展为地球的其他物种。法律关系是法律的基本概念,法律就是处理和解决法律关系的,因此法律关系的构成要素,法律关系是实现为人类服务的法律价值的重要方式,主体是法律关系的构成要素,法律关系主体构成应实现法律服从和服务于人的价值。人工智能的法律地位的法律技术设计也同样应以人类为核心,既要控制人工智能给人类带来的风险,又要充分发挥人工智能为人类更好地服务。依据法律价值思考是否应赋予人工智能法律主体地位应从防范风险的两个维度为出发点:第一个维度是人工智能给人类带来的风险是否赋予了人工智能法律主体地位就能消解,否则就没有必要赋予其法律主体地位。因为一旦赋予了人工智能法律主体地位,会带来对法律体系的巨大冲击;第二个维度是赋予了人工智能的法律主体地位会给人类带来什么风险,此风险是否可控,如不可控就没必要赋予其主体地位。第一个维度人工智能给人类带来的风险是人工智能科技研发、设计、制造和使用过程中产生的风险。如英格兰麦格纳科学中心的捕食者机器人从科学中心逃脱根据自身的决策到达高速公路而造成交通事故和对他人损害。还有2016年3月,微软人工智能聊天机器人Tay在不到24小时就违背了设计者的伦理价值,到处散布种族主义、性别歧视和攻击同性恋的言论。上述这些风险主要是来自科技研发、设计、制造和使用本身的原因,而且这些风险不是人工智能能够防范和控制的,尤其是事前防范(人工智能的研发、设计、制造出来之前)。但这些风险恰恰是人工智能的研发者、设计者、制造者或使用者能够防范和控制的。因此科技研发、设计、制造和使用过程中所产生的风险是不能通过赋予人工智能法律主体地位格就能够消解和防范的,所以无需赋予人工智能法律主体地位;第二个维度赋予了人工智能法律主体地位产生的风险。赋予了人工智能法律主体地位就会导致人工智能不仅具有义务,还具有权利。由于人工智能是技术的产物,某些能力远远超越了人类,这已是不言自明的,而且在科技研发、设计、制造和使用中还会出现技术风险、操作风险及道德风险。如一旦赋予了人工智能权利,进而有可能对人类的安全和秩序产生威胁,甚至产生控制人类的风险。此风险是来自法律制度的技术设计,因此法律制度技术设计不应赋予人工智能法律主体地位,而是从防范人工智能技术对社会关系中的人类造成的风险来规范人工智能的科技研发、设计、制造和使用行为,而不是将人工智能本身纳入法律主体的范围来规范。人工智能的法律性质应以科学合理开发人工智能为目标,坚守安全的法律价值,以技术、法律为主导的规制模式,最终体现人的主体性{8}






  (四)人工智能不具有法律关系主体资格

  哲学理论中的主体是具有自我意识和认识客观世界能力的自然人。法学理论中的主体与哲学理论中的主体不同,法学理论中的主体不仅有自然人,还有、组织(法人)和国家(在特殊情况下)。法学理论中的主体是指“法律关系的参加者,即在法律关系中一定权利的享有者和一定义务的承担者。”{9}(P.135)民事主体结构有“二元论”和“三元论”。“二元论”的民事主体有自然人和法人;“三元论”的民事主体有自然人、法人和合伙等团体。无论是“二元论”,还是“三元论”,对法律主体资格的界定都是能否独立享有权利、承担义务能力和责任能力。法律关系主体的资格条件是具有权利和行为能力。人工智能如成为法律关系的主体也应具有权利能力、行为能力和责任能力。

  首先,人工智能不能赋予其权利能力。“权利能力概念是一种法律建构,权利能力全称应是权利义务能力,即参与法律关系的能力,所以,权利能力的实质是法律主体的资格,能力即资格。”{10}“权利能力是指能够参与一定法律关系,依法享有一定权利和承担一定义务的法律资格。”{9}(P.136)“自然人作为义务与权利的主体并非因其行为是这些义务与权利的客体的那个人,自然人仅仅是这些义务与权利的人格化。更准确地讲,自然人是这些法律规范的人格化,这些法律规范由于构成了包含这同一个人行为与权利而调整着个人的行为。”{11}(P.107)“法律上的人是法律或者戏剧伪饰的创造物和制度的产物。”{12}(P.18)法人的权利能力同样是法律赋予的结果,而使其具有人格。权利能力是人类为自身的幸福和发展而通过法律制度赋予的,是否赋予人工智能权利能力应根据人类需要的价值取向。人类需要的“价值”应是要体现人工智能能够更好地服务人类,不能对人类产生损害和威胁,其行为能够为人类所控制。而赋予人工智能权利能力的价值是为了实现其生命权并保护其不会遭受到侵害,是一种人类价值取向的异化。

  其次,人工智能不具有行为能力。“行为能力是指法律关系主体能够通过自己的行为实际取得权利和履行义务的能力。”{9}(P.137)[3]目前,自然人是否具有行为能力的判断标准主要是自身是否对自己的行为后果有一定的认知和判断,即独立意识;是否能够对自己的行为后果能够承担责任,即责任能力。因此自然人的行为能力的独立意识是与年龄和精神健康情况有关。自然人“是否达到一定年龄、精神健康情况是否正常是成为公民享有行为能力的标志。”{9}(P.137)各国对自然人的具有行为能力的年龄、精神健康情况都由法律予以规定。“法人组织行为能力是由其成立宗旨和业务范围决定的。法人依法成立之日就具有权利能力和行为能力,一旦依法撤销,其权利能力和行为能力就同时消灭。”{9}(P.138)但法人的独立意识归根结底来自自然人。法人本身不能思考也不能表达。其意思表示是通过法律上的归属规范将本质上人的意思表示归属于法人。因此,法人的意思表示是由其法人机关或者说由人组成的法人组织机构实现的。凡有人格者必有思维{13}(P.6)。从人工智能的科学技术的性质分析人工智能是不具有人类的独立意识,人工智能的意识是以事先被输入必要的数据、设定目的的程序实现的。人工智能的“智”是一种决策方法,是人类智力通过数据技术和数学技术的体现,是受人类的智力和伦理道德所决定的,因此人工智能不具有独立的意识。如机器人的相关三定律规定的内容:“机器人不得以作为和不作为对人类产生伤害和对人类的命令的服从。”从“机器人必须服从人类对它的行使指令”可得知机器人是没有独立的意识。纵观人类的法律制度设计出的各类法律主体,都是实现法律价值的产物及以人类为本的理念,也充分发挥了人类自身的独立意识与可控性。如现存法律关系中的主体除自然人以外,机构、组织(法人)和国家(在特殊情况下)主体的意识都是产生于自然人,只是不同的法律主体所形成的意识的程序和规则不同而已。随着民事主体制度的发展,主体从自然人到法人,但无论是自然人,还是法人的意思表示归根结底都是产生于自然人。如法人作为法律的产物其本身不能作出意思表示,其意思表示是通过法律的规定或约定由组成法人机关或法人组织的自然人实现的,因此其意思表示的本质还是来自自然人。但人工智能技术决定其意识不是来自自然人,而是来自自然人研发的算法、数据和搜索。这些人类研发的算法、数据和搜索产生的意识存在不确定性、不可控制性,进而会产生对人类利益的侵害和控制。

  再其次,人工智能不具有责任能力。法律责任“是指人们对违法行为所应承担的那种带有强制性的法律上的责任”{14}(P.429)。“某人在法律上应对某事负责,等于某人因其行为或伤害在法律上应受到惩罚或被迫赔偿。”[4]法律责任包括:刑事责任、民事责任和行政责任等。法律责任的价值目标是实现法律价值,即维护人类社会秩序与促进社会发展。“承担法律责任的具体形式有惩罚、补偿、强制等三种。”{9}(P.149)本文主要是通过惩罚来讨论人工智能的法律责任能力。“惩罚是国家通过强制对责任主体的人身、财产和精神实施的责任方式。”{9}(P.149)主要是通过民事制裁、行政制裁和刑事制裁等维护社会关系的安全与秩序,进而维护人类社会的公平与正义。“民事制裁主要是对责任主体的财产进行制裁”{9}(P.149)。行政制裁“是指依照行政法律规定对责任主体依其所应承担的行政责任而实施的强制措施,包括行政处罚、行政处分。”{9}(P.149)刑事制裁“是指依照刑事法律规定对责任主体依其所应承担的刑事责任实施的刑罚,包括自由刑、生命刑、资格刑和财产刑。”{9}(P.149)此三种制裁包含了对责任主体的财产、人身和名誉方面的惩罚。

  对人工智能如能发挥民事制裁、行政制裁和刑事制裁对财产制裁的效用,那么人工智能就需要拥有财产基础,就像法人拥有独立的财产一样。法人设立需有财产基础。财产是法人对外活动的责任保障。如《公司法》3条[5]这是对公司法人关于财产的规定。实践中人工智能并没有财产,不具有独立承担民事制裁的民事责任能力,也因此无法实现民事制裁对规范人工智能的法律效用;对人工智能如能发挥民事制裁、行政制裁和刑事制裁中对生命、自由、资格进行的制裁,那么就需要人工智能具有人的自然属性,如生命、尊严、名誉和活动自由。但人工智能并不具有生命、尊严、名誉和活动自由的属性,而且人工有限责任公司的股东以其认缴的出资额为限对公司承担责任;股份有限公司的股东以其认购的股份为限对公司承担责任。”

  智能的科学价值和目标并不是要创造与人一样的物种,仅仅是要创造一个能够代替人工作与为人类服务的技术工具。因此无论实践中的人工智能,还是未来的人工智能都不具有责任能力。

  综上所述,“人工智能是人控制下的、人能力的延伸物,它本身没有内源性的行为能力,也没有内源性的权利能力。”{1}从意识、行为能力和责任能力方面都无法成为法律关系中的主体,因为其不具有人类的意识、行为能力和责任能力。

  二、人工智能是主体(人工智能的设计者、制造者以及使用者等)的法律行为

  首先,人工智能是行为。行为是主体“受思想支配而表现在外面的活动”{15}(P.1291)。

  从人工智能的定义分析,人工智能是某种能力,能力是属于行为范畴,是与活动(行为)联系在一起的,是对活动的水平的呈现。如在《不列颠百科全书》中对其解释为:“一种心理品质,它体现了一个人通过经验学习的能力,对新环境适应的能力,理解和运用抽象概念的能力”{16};《现代汉语词典》对智能(智力)的定义是:指人认识、理解客观事物并运用知识、经验等解决问题的能力,包括记忆、观察、想像、思考判断等{17}(P.1479);“梅斯泰尔认为智能是一个系统在不确定环境中实施合适动作的能力;《麻省理工学院认知科学百科全书》对智能或智力的定义及注解是:智能可以定义为适应、影响和选择环境的能力。”{3}(P.129)能力是完成一项目标或者任务所体现出来的综合素质。能力是与人完成一定的社会实践活动和任务紧密联系在一起。如把能力与具体实践活动相分离就无法表现人的能力,更不可能发展人的能力。因此,人工智能是行为。

  从人工智能是工具的角度分析,人工智能是主体行为的延伸或行为的方式和方法。人工智能属于科学技术的范畴,科学是基于实验观察并以系统地发现因果关系为目的的实践活动,技术是人类改变客观世界的手段或工具{18}。约翰·麦卡锡(John?McCarthy)于1956年达特茅斯夏季讨论会上提出“从掰折的木棍、摩擦石块取火、用石块猎物到数控车床、计算机系统、航天器、人工智能系统等,每个历史阶段的工具都体现了这个阶段人类的认知水平”……“工具始终与科学技术的进步连接在一起,是科技进步最主要的标记,是人类智能的最直接的表达”{3}(P.60)。“人工智能也同样是代表了人类认知水平的工具”。“人工智能不能自行掌握能量的,都从属于人,是人的工具。”{3}(P.142)英国专门负责国内科技领域调整的国家机构“工程与科学研究委员会”(EPSRC,即Engineering?and?Physical?Sciences?Research?Council)”与2011年提出了五条方案:(1)不得专为毁灭或者伤害人们的目的而研发机器人;(2)承担责任的人是人,而不是机器人。机器人是达到人类目的的工具;(3)应当根据使用的安全性研发机器人;(4)机器人是人工造物,它们不应当在有感觉的人类情感中发挥作用。机器人必须与人类相区别;(5)任何时候都应当可以找出在法律上为该机器人承担责任的人{19}。2016年微软公司负责人也提出了六项发展人工智能的规则,其中第一项就是:“人工智能应当是为了帮助人类而建造。”从阿西莫夫机器人学三法则,以及之后相关规则都是围绕不伤害人类、服从人类和自我保护原则展开的,其目的通过这些科学技术的规则力图确保人工智能能够增进人类福祉,而不是给人类带来伤害。“工具是人制造出来的,但一旦制造出来,它就是一个独立的客体,一个将人的智能固化在工具中的知识载体。这个载体外在于人的大脑。”{3}(P.63)根据法律行为构成的客观要件,外在的行动(行为)、行为方式和具有法律意义的结果中的“行为方式是指行为人为达到预设的目的而在实施行为过程中所采取的各种方式和方法。方式和方法包括:行动的计划、方案和措施;行动的程式、步骤和阶段;行动的技术和技巧;行动所借助的工具和器械等”{9}(P.125)。人工智能是行为人为达到所需求的目标而通过计算机程序所设定的算法实施一定行为的方式和方法。

  其次,人工智能行为构成了其主体(人工智能的研发者、制造者以及使用者等)的法律行为要件。人工智能是主体行为借助的工具,因此是主体的行为的一种方式,是主体行为的延伸。此行为如符合法律行为客观要件、主观要件和法律行为的确认就构成了人工智能主体的法律行为。

  法律行为客观要件包括外在的行为、手段和结果。“行动是法律行为构成的最基本的要素,它是法律行为主体作用于对象的中介方式。”{9}(P.124)从前面人工智能分析得出其是行为,同时也是一种行为方式。因此人工智能是其主体“人工智能的研发者、制造者以及使用者”的行动和行为方式;人工智能具有法律意义的结果。判断法律行为结果主要有两个标准:一是行为给社会造成的影响;二是该结果具有法律意义。。这里主要从人工智能造成一定的社会影响来论述,因为结果应当从法律角度进行评价,是构建人工智能法律性质之后的评价。影响是对其他主体和社会的有益或者是有害。人工智能目前已造成一定的社会影响,“工具之所以被制造出来,是人为了适应环境、改变环境,是为了自身的生存和发展需要,是为了协助人类解决面临的各种问题,协助人类完成需要承担的各项任务。工具服务于人的生存和发展是一个不证自明的结论”{3}(P.63)。因此对其他主体和社会造成了一定的影响。综上分析,人工智能主体的法律行为符合法律行为的客观要件。

  人工智能的主体(人工智能的设计者、制造者以及使用者等)行为构成法律行为的主观要件。“法律行为的主观要件包括行为意思和行为认知。”{9}(P.126)人工智能的主体的法律行为意思指人们基于需要、受动机支配、为达到目的而实施行为的心理状态。人工智能是主体的法律行为,其行为意思是主体的行为意思,是主体基于需要、受动机支配、为达到目的而实施行为的心理状态。人工智能本身不能实施行为意思,因为人工智能是由人类赋予它的算法和信息来决定的。人工智能本身没有行为认知,其行为认知是人工智能的设计者、制造者以及使用者对自己行为的法律意义和后果的认识。因此人工智能主体行为意思和行为认知决定了人工智能行为是法律行为。实践中人工智能主体是自然人或是法人,而且自然人或法人具有行为意思和行为认知,所以人工智能的主体行为构成法律行为的主观要件。

  再其次,人工智能是其设计者、制造者和使用者的法律行为法律价值的实现。认定人工智能是其设计者、制造者和使用者的法律行为有利于实现法律的价值,因为通过人工智能行为形成的法律关系是其主体的设计者、制造者和使用者与其相对人形成的;客体是设计者、制造者和使用者及其相对人的权利和义务共同指向的对象;人工智能行为的责任主体是设计者、制造者和使用者。此法律关系的模式可以促使人工智能的设计者、制造者和使用者对人工智能的研发、测试、质量评估等过程中降低道德风险,尽到最大的谨慎义务坚守伦理底线意识,以此保障人工智能研发的安全和更好地服务于人类的发展。因为,人工智能的“智”是设计者以事先输入必要的数据、设定目的的程序来实现的,人工智能的“智”是受人类的智力和伦理道德所决定的决策方法和人类智力通过数据技术和数学技术的体现,人性中的恶与人类道德和能力上的缺陷是人工智能本身所不能克服的,只能对设计者、制造者和使用者通过法律进行规范,来防范人性中的恶与人类道德和能力上的缺陷所产生的对人类秩序与生存的风险。

  三、结语

  “法律是人类社会天性中的一项主要制度,若无法律,人类将成为一种截然不同的生物。”{20}(P.1)法律的价值是为人类的生存和发展服务,任何时代的法学理论、法律体系、法律规则都应以实现法律的价值为终极目标。另外人工智能是科学技术的产物,科学技术的价值同样服务于人类,这一目标与法律价值目标是相辅相成的。因此围绕着实现法律价值和人工智能技术价值的目标,在充分尊重人工智能技术客观规律的前提下,人工智能的法律地位不应界定为法律主体,而是人工智能研发者、制造者和使用者的法律行为,此法律行为决定了法律关系的形成、变更与消灭。人工智能法律行为论不仅能够保证法律理论的稳定、法律体系的持续运转和法律规范的最大效用发挥,还能够防范人工智能给人类带来的风险,使其在促进人类进步和发展的同时保障自身的健康发展。

电话:400-658-1599

邮箱:thldl@thldl.com

地址:北京市海淀区中关村东路18号财智国际大厦C座803-805号
邮编:100083

联系电话:400-658-1599 李老师:18911530278 力老师:13331039289

Copyright 2000 - 2019 www.thldl.com All rights reserved. THLDL大课堂 管理澳门银河真人娱乐 企业澳门银河真人娱乐 管理澳门银河真人娱乐网 企业管理澳门银河真人娱乐 版权所有. 京ICP备12035889号-5