分享
中新经纬>>科技>>正文

李爱君:人工智能不具有法律主体性质

2019-06-03 15:51:11 中新经纬

  中新经纬客户端6月3日电 题:《李爱君:人工智能不具有法律主体性质》

  作者 李爱君(中国政法大学互联网金融法律研究院院长)

  “人工智能”是当下社会最热的词汇,然而无论是其定义还是其法律关系中的性质,至今都没有形成共识。法学界对人工智能的法律地位、法律责任、权利义务等进行了研究,其中对人工智能法律地位的主体性研究尤为热烈。笔者认为,人工智能是研发者、制造者和使用者的法律行为。

  人工智能科学决定其非法律主体

  人工智能主体的观点主要有:电子代理人说、电子人说、有限法律人格说、独立的法律人格说四种。笔者认为,人工智能科学决定其非法律主体。首先,人工智能是技能。在人工智能科学领域对人工智能的定义主要取决于“智能(智力)”。目前人工智能都是处于能够熟练掌握技能的层面。技能是个体运用已有的知识、经验并通过训练形成一定的“行为方式”或“智力活动”。“行为方式”或“智力活动”应属于行为范畴,而不是主体范畴。不是主体就不可能成为法律主体。

  其次,人工智能是算法而非人类认知神经科学。算法是计算机通过计算机程序来处理信息的一种方式,是以信息为基础的计算机处理信息的技术。目前的人工智能都是以深度学习的算法来进行解决问题的,并不是运用人类认知神经科学来完成的,因此,人工智能的“智能”不能与人的“智能”相提并论。如人工智能的“智能”不是人的“智能”,而法律又以人的“智能”为标准作为主体,那么人工智能就不能构成法律的主体。

  再次,人工智能不符合自然科学主体性的构成要素。《智能原理》指出,自然科学“主体性包括三个核心要素:拥有自我和意识、拥有资源、拥有自身行为的控制力。成为主体必须将自己的生存作为第一要务,必须有自己的意识和目的;作为智能主体,必须拥有与承担的智能任务相匹配的资源;作为智能主体,必须拥有控制自身行为的能力。尽管失控的行为,从功能看也是智能行为,但不符合主体的价值和意志。控制能力是主体性的必要构成部分。目前的人工智能在自我和意识层面都是人赋予的。”

  构成主体意识有三个基本要素:一是响应。能对外部事件与事物主动响应,能被唤醒或保持感知;二是自我体现。受到侵害时启动保护,始终将资源的获取和扩展置于行为的优先位置;三是学习。将学习作为主体生存和发展、完成智能任务的前提。所有的生物都具有响应能力。人工智能目前对外部有一定的响应能力,但人工智能的响应能力都是人赋予的,无论对什么响应、如何响应都是人赋予的。所以人工智能不拥有自我和意识。人工智能的实践并不能够实现自身控制力,一是人工智能的意识是人赋予的,不是自身控制自己的行为;二是人工智能在实践应用中所出现的风险事件也足以说明自身不具有理性的控制力。

  最后,人工智能法律主体地位不是人工智能科学的价值目标。既然人工智能科学的价值目标不是为了制造一个必须像人的物种,只是为了其承担的智能任务类型分别形成不同的“行为”功能,那么人工智能就仅仅是人类的工具,从而是人类行为的延伸而不是法律主体。

  人工智能无论是从人工智能科学的价值目标、智能的程度、智能的本质、智能的方式,还是自然科学的主体性构成都不具备法律主体性,而仅仅是技术工具或技术行为。

  法律的价值决定了人工智能不具有法律主体性质

  法是人类在漫长的发展过程中创造的,其目的是作为服务人类所需的工具,是为人类能够更好地生活和生存发展服务的。法律价值的存在、作用及其发展变化是要与人类的发展适合、接近或一致的。无论是法律的社会价值、法律的群体价值和法律的个人价值实质上都是服从和服务于人的。

  人工智能的法律地位的法律技术设计也同样应以人类为核心,既要控制人工智能给人类带来的风险,又要充分发挥人工智能为人类更好地服务。依据法律价值思考是否应赋予人工智能法律主体地位,应从防范风险的两个维度为出发点:第一个维度是人工智能给人类带来的风险是否赋予了人工智能法律主体地位就能消解,否则就没有必要赋予其法律主体地位。因为一旦赋予了人工智能法律主体地位,会带来对法律体系的巨大冲击;第二个维度是赋予了人工智能的法律主体地位会给人类带来什么风险,此风险是否可控,如不可控就没必要赋予其主体地位。

  人工智能是人控制下的、人能力的延伸物,它本身没有内源性的行为能力,也没有内源性的权利能力。从意识、行为能力和责任能力方面都无法成为法律关系中的主体,因为其不具有人类的意识、行为能力和责任能力。

  人工智能是其主体的法律行为

  首先,人工智能是行为。行为是主体“受思想支配而表现在外面的活动”。

  从人工智能的定义分析,人工智能是某种能力,能力是属于行为范畴,是与活动(行为)联系在一起的。能力是与人完成一定的社会实践活动和任务紧密联系在一起。如把能力与具体实践活动相分离就无法表现人的能力,更不可能发展人的能力。因此,人工智能是行为。

  从人工智能是工具的角度分析,人工智能是主体行为的延伸或行为的方式和方法。人工智能属于科学技术的范畴,科学是基于实验观察并以系统地发现因果关系为目的的实践活动,技术是人类改变客观世界的手段或工具。约翰·麦卡锡(John McCarthy)于1956年达特茅斯夏季讨论会上提出“从掰折的木棍、摩擦石块取火、用石块猎物到数控车床、计算机系统、航天器、人工智能系统等,每个历史阶段的工具都体现了这个阶段人类的认知水平”,人工智能是行为人为达到所需求的目标,通过计算机程序所设定的算法实施一定行为的方式和方法。

  其次,人工智能行为构成了其主体(人工智能的研发者、制造者以及使用者等)的法律行为要件。人工智能是主体行为借助的工具,因此是主体的行为的一种方式,是主体行为的延伸。此行为如符合法律行为客观要件、主观要件和法律行为的确认就构成了人工智能主体的法律行为。

  从前面人工智能分析得出其是行为,同时也是一种行为方式。因此人工智能是其主体“人工智能的研发者、制造者以及使用者”的行动和行为方式;人工智能具有法律意义的结果。判断法律行为结果主要有两个标准:一是行为给社会造成的影响;二是该结果具有法律意义。这里主要从人工智能造成一定的社会影响来论述,因为结果应当从法律角度进行评价,是构建人工智能法律性质之后的评价。因此,人工智能主体的法律行为符合法律行为的客观要件。

  人工智能是由人类赋予它的算法和信息来决定的。人工智能本身没有行为认知,其行为认知是人工智能的设计者、制造者以及使用者对自己行为的法律意义和后果的认识。因此人工智能主体行为意思和行为认知决定了人工智能行为是法律行为。实践中人工智能主体是自然人或是法人,而且自然人或法人具有行为意思和行为认知,所以人工智能的主体行为构成法律行为的主观要件。

  再次,人工智能是其设计者、制造者和使用者法律行为的法律价值的实现。认定人工智能是其设计者、制造者和使用者的法律行为有利于实现法律的价值,因为通过人工智能行为形成的法律关系是其主体的设计者、制造者和使用者相对人形成的;客体是设计者、制造者和使用者及其相对人的权利和义务共同指向的对象;人工智能行为的责任主体是设计者、制造者和使用者。

  此法律关系的模式可以促使人工智能的设计者、制造者和使用者在对人工智能的研发、测试、质量评估等过程中降低道德风险,尽到最大的谨慎义务坚守伦理底线意识,以此保障人工智能研发的安全和更好地服务于人类的发展。因为,人工智能的“智”是设计者以事先输入必要的数据、设定目的的程序来实现的,人工智能的“智”是受人类的智力和伦理道德所决定的决策方法和人类智力通过数据技术和数学技术的体现,人性中的恶与人类道德和能力上的缺陷是人工智能本身所不能克服的,只能对设计者、制造者和使用者通过法律进行规范,来防范人性中的恶与人类道德和能力上的缺陷所产生的对人类秩序与生存的风险。(中新经纬APP)

  中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。本文不代表中新经纬观点。

(编辑:熊思怡)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编以其它方式使用。
关注中新经纬微信公众号(微信搜索“中新经纬”或“jwview”),看更多精彩财经资讯。
关于我们  |   About us  |   联系我们  |   广告服务  |   法律声明  |   招聘信息  |   网站地图

本网站所刊载信息,不代表中新经纬观点。 刊用本网站稿件,务经书面授权。

未经授权禁止转载、摘编、复制及建立镜像,违者将依法追究法律责任。

[京B2-20230170]  [京ICP备17012796号-1]

违法和不良信息举报电话:18513525309 报料邮箱(可文字、音视频):zhongxinjingwei@chinanews.com.cn

Copyright ©2017-2024 jwview.com. All Rights Reserved


北京中新经闻信息科技有限公司