时间:2023-10-31 06:28:56
当我们谈论人工智能(Artificial Intelligence,AI)时,很大程度上受到源自20世纪想象的影响,例如,直接把人工智能和机器人联系起来,甚至是人形机器人。这可能也会影响法律人对人工智能的想象,包括是否承认人工智能作为具有自我意识的法律主体地位(或至少是人类行为的人),从而保护其特定权利(言论自由、著作权)、划定责任(缔约、侵权),甚至强调可能的毁灭性风险。这种想象远非受到科幻作品影响那样简单,深层次中还反映出人工智能在技术和应用上不同的发展路径:早期人工智能研究更集中于对人脑的仿真模拟,探究意识、理性等更为宏大的哲学问题,但应用性较少;当下的人工智能走出了实验室,借助互联网服务直接影响到普通人的生活,在技术上并不执着于创造一个完美的智能体,而是依靠算法(如机器学习和神经网络)不断优化,对海量数据自动挖掘与预测,通过无所不在的传感器实时更新数据,动态掌控着人类社会各个方面的运转,并把从某个特定领域升级为通用人工智能作槟勘辍4诱飧鲆庖迳纤担人工智能并不神秘,它出现在日常生活中,不仅是工业社会生产自动化的延续,也是互联网商业化的必然结果和新阶段。时至今日,欧美国家纷纷出台政策,推动人工智能发展,力求提升经济效率和竞争力。 互联网公司正逐渐主导实体经济和金融生产
如果我们摆脱简单的拟人思维,把人工智能看作互联网智能演进的新阶段,为理解其法律规则,就有必要理解互联网法律在过去20年中形成的路径和推动力,从而探讨人工智能是否有任何特殊性以至于需要新的规则。本文将从网络法的两个视角――实证性和生产性――切入,将它们延伸至人工智能语境下分别讨论。“实证性”视角是我们观察和应用任何规则的惯常思维方式,例如人工智能行为的具体规则如何确立、如何规制等,本文将讨论支撑人工智能的两个构成性要素――算法与数据――可能带来的法律问题,以及法律人处理人工智能的两种路径;“生产性”视角则深入规则背后,探索规则形成的政治经济因素,特别是经济生产方式的内在要求。人工智能本质上是一套复杂的代码设计,既是影响社会行为的强力规范,也是产生新价值的生产机制;它驱动整个社会朝向更智能的方向变化,从而要求法律做出相应调整,尤其是确认新型经济利益的合法性。
限于篇幅,本文姑且将人工智能看成法律上的客体,暂不讨论赛博格(cyborg)之类的人体转向机械体或通过基因技术改变身体的问题(仍是法律上的人),也不讨论人工智能作为一种人造物的自我意识问题(一个难以达成共识的哲学问题)。
理解网络法的变迁
网络法在中国的变迁大致遵循两类逻辑:外生性的政治/监管逻辑和内生性的商业逻辑。政治/监管逻辑体现为对“实证性规则”的追求,这些规则集中在国家(包括法院和监管机构)如何对互联网的内容和行为进行规制,包括对网络和信息安全的追寻。这集中反映了国家权力如何试图介入新技术带来的问题与挑战。这一视角最早由美国法学界引出,特别是Lawrence Lessig的代码理论将代码(架构)和法律并列。由此,所谓的网络法不仅要约束社会主体在网络空间中的行为,也要对架构的变化本身做出回应。
首先,就规制主体行为而言,出现了是否按照传统线下行为规则的思路约束线上行为的讨论。这一讨论的核心是,互联网问题是否具有任何特殊性,需要某些新规来解决。我们已经看到,中国的互联网行为监管在很大程度上延续了传统规则和管理方式,采取渐进的方式,这不仅成本较小,也给予监管者一定的学习和探索空间。其次,就架构变化本身而言,国家在宏观上主张网络空间中仍然需要,不能成为法外之地,在微观上相应出现了国家与平台权力/责任二分的讨论。例如,政府权力何时需要介入平台治理,加强平台的行政管理责任或安全保障责任,还是由后者根据自身情况自我规制,实现治理目标。政治/监管逻辑要么遵循管理者的路径依赖效应,要么坚持既有社会稳定、意识形态安全价值。问题在于,监管者在多大程度上能够认识到代码及其商业模式的特殊性,从而使监管行为和行业特性相互协调融合。
另一种看待规则产生的方式遵循商业逻辑。这种生产性视角关注微观权力运作,综合将代码、法律与社会规范放在一起,不单纯从社会学意义上观察社会主体行为如何受到影响,而是在政治经济学意义上将网络空间的生成和扩散看成是一个由商业力量推动主导的生产性过程,关注价值由谁产生、如何分配,由此推动对新规则的内生需求。按照这一视角,无论是法律还是架构,在具有实证性规制功能的同时,也是一种“生产性规则”。互联网的生产模式决定了其对社会范围内生产资料的创造性生产和再利用,需要法律确认其生产方式的合法性,重塑关键法律制度,并解决和传统生产模式的利益冲突。这一视角无疑帮助厘清新经济主张的例外特性,不仅展示出架构和相应的法律改变,更指明了背后的政治经济原因,是更好地理解实证性规则的基础。
两类不同的逻辑在过去20年中交替出现,相互制约,共同塑造了中国网络法体系,也推动了中国互联网的整体发展。总体而言,鉴于国家有意促进新经济,需要推动传统的属地化、分口治理,事后运动治理模式发生转变,认清互联网商业模式和价值产生的根源,有利探索适应新经济性质的管理体制。从这个意义上说,信息资本主义不断要求对法律内核进行改造,取代其中的传统经济要素,打破限制生产要素自由流通的各类规则。
人工智能法律的实证性视角
如前所述,人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统,它实时收集信息,并按照算法的要求做出决定,继而行动。更重要的是,具有物理形体的人工智能可以推动群体智能发展,通过分布式终端收集更多数据加以处理,并不断传输至云端“大脑”,提升整体网络的智能水平。 人工智能巳深度介入医疗领域
根据算法的复杂性和学习/运算能力对强人工智能和弱人工智能进行区分,这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案。当我们说社会变得越来越智能的时候,事实上指由于数据搜集、储存和处理的能力不断增强,所有软件/算法都可能朝向自动收集数据,做出决定或判断的趋势,由于算法的复杂性,算法带来的结果可能无法预测,并在更大范围内带来系统性的不利后果。这种后果未必是毁灭性的风险,甚至只是在某领域的制度设计问题,但人工智能恰好将这类社会问题具象化,掩藏在外表华丽、高效、更多是私人控制的“黑箱”中,就会引发一系列问题。
如果放在一个更大范围内观察,在历史上,人类社会随着复杂性的增加,不可避免地产生以组织和技术形态出现的各类“黑箱”,它们的决定影响着社会发展和大众福利,但仍然保持着某种秘密性。这一隐喻未必是阴谋论,其核心问题在于信息不对称。为平衡相关当事人和社会大众的知情权、避免恐慌、保持某种预测能力,人们不断设计出某种程度的信息公开和透明化机制,例如政治辩论的公开化,法院诉讼程序透明化甚至公开庭审,上市公司强制信息披露等等。而人工智能不过是信息技术时代的新型黑箱,带来更加严重的系统化影响。互联网在兴起过程中,通过降低信息成本,推动了开放政府、庭审直播,使信息公开透明更加便利,将生产性资源不断解放出来,在更大社会范围内重新配置,产生新价值。然而,这一过程在消除一个又一个传统黑箱的同时,产生了更为复杂的新黑箱,进而主导整个社会的生产过程。生产资料之间的信息变得越来越对称,甚至可以实时互通信息,但作为信息匹配中介的人工智能却变得更不透明,其规则设计和运作从属于用户甚至开发者无法理解的秘密状态,这回到了法律如何处理与代码的关系问题。
一个类似的比较是人类自身:人脑经过上百万年的进化,演变成十分复杂精致的系统。尽管当代神经科学不断改变我们对人脑的认知,甚至每个人的大脑都不完全一样,但就法律而言意义不大,这只能在边际上改变个案判决。即使无从了解人脑的运转机制,或者依据某种更加先进的科学知识解释社会主体行动的具体理由,人类还是有能力形成社会规范,并演进成更加理性化的规则。这套规则只需要假定一般社会主体是(受限)理性的,由少数概念界定不同情形的心理状态(故意、过失),并集中对人的外在行为进行约束,确定权利与义务,就足以以简单规则应对(而非认识)这一纷繁复杂的世界。类似地,在处理算法的负外部性时,也可以有两种不同的路径:(1)关注算法的外部行为与后果,(2)关注算法内部的设计规则。
大部分现有规则关注算法导致的(未意料)结果,例如内容分发算法未经审查造成非法或侵权内容传播,这一般由信息传播者(即内容服务商)承担责任,算法本身并无法律地位,在造成不利后果的过程中只是一个工具。这类责任假定内容服务商应当知道非法内容的存在,并有能力通过算法设计或人力(比如人工审查)加以阻止。在诸多侵权场合,内容服务商可以通过“避风港”规则免责,只要无法证明它实际知晓状态。更复杂的是,如果软件开发者声称自己无法控制信息的生产和传播,却造成一定社会危害的情形。无论是在快播案还是BT案中,软件开发者都无法因这一原因而逃脱责任,法院的理由仍然是,开发者有能力知晓非法内容的输出(如果不是故意的话,例如快播向推广该播放器)。类似地,如果一个具有物理形体的人工智能由于处理信息不当造成了外在损害,按照这一逻辑仍应由算法开发者负责。
而且,还有必要将算法产生的错误和算法缺陷本身区分开。长期以来,软件行业一直通过拆封合同(shrink-wrap)解决缺陷软件造成的短时崩溃或重启问题,这种格式条款旨在确认这样一种事实:没有任何软件是百分之百完美的,只要在用户拆封使用该软件时运行正常即可,服务商并不为软件崩溃或死机造成的消费者损失负责,因为前者无法预料到缺陷带来的风险。这就是为什么消费者需要接受软件生产商不停的更新和补丁,软件/应用不受产品责任的约束,被视为一种可以不断升级改进的服务,这在免费软件时代更是如此。按照这一思路,似乎有理由认为,无人驾驶汽车因算法计算错误导致车祸(何况造成事故的概率远远小于人类司机的错误)是这类软件的正常的缺陷,消费者应当容忍这类错误。但无论是监管者还是潜在的受害人都无法接受这种比拟。声称有潜在缺陷的交通工具(也包括医疗设备和其他与生命财产直接相关的算法)一旦投入使用就需要为此造成的后果负责。无论如何,这类思路仍然是通过后果施加事后责任,监管者或法院并不想深入算法内部了解造成事故的技术原因是什么。只要法律认定这一黑箱应当在合理范围内得到控制,事故可以避免,黑箱提供者就应当承担责任。在这种情况下,保险(甚至是强制险)就成为确保这类发生概率小但潜在损失巨大的不二选择,航空、医疗保险市场十分发达,可以预见将会延伸至更多由人工智能驱动的服务行业。 现实与虚拟的界限不断模糊化
如果说事后救济还无法确保安全,事前干预算法设计则是另一种选择,同时带来的问题也更复杂。早在20世纪,阿西莫夫就试图为机器人立法,尽管他从未讨论技术上的可行性。安全可能是人工智能服务的首要问题之一:一个中心化的入侵可能会导致所有终端都变得极度不安全。行业监管者在不同行业为特定服务中的人工智能设定安全标准(如医疗器械、交通工具、自动化武器),实行安全保护等级制度,甚至要求被认定为重要设施的源代码(如windows系统)供监管者备案,或在设计自动化交易程序时控制报单频率的阈值等。又例如,在魏则西事件后,联合调查组在整改意见中要求落实以信誉度为主要权重的排名算法,对商业推广信息逐条加注醒目标识,予以风险提示。如果说这些监管手段针对的是作为商业秘密的私人算法,诸如Open人工智能这样的倡议则意在延续开源软件运动路径,确保软件漏洞能够得到更大范围内的监督和修补。至少在中国,信息披露机制尚未成为算法监管的重要手段,无论是强制性披露还是第三方披露。
(作者单位:上海财经大学法学院)
注释:
[1]当下的大众媒体、文化产品和社会公共认知正努力将未来的人工智能塑造成具有独立意识的逐渐演化的主体,这集中体现在诸如《终结者》《我,机器人》《西部世界》《2001银河漫游》这类科幻影视作品中。尽管人们也有理由进一步想象,一旦人工智能具有了自我意识,就不再可能忠实地为人类服务,而更可能对人类生存构成威胁。其路径和思维方式仍是20世纪的,和21世纪依托大数据机器学习迥然不同。事实上,按照日本学者森政弘提出的“恐怖谷理论”,人工智能不太可能在短时间内人形普及化,因为这会在消费者心理上引发不安甚至恐惧。像Siri和Cornata这样的语音助手、像Tay和小冰这样的聊天机器人则不会有这种负面效果,因为用户知道自己在和一个尚未通过图灵测试的算法对话,他们甚至乐于教Tay在推特上辱骂用户、发表种族主义和煽动性的政治言论。另一个可能影响中文世界读者想象的因素是,把robot翻译成“机器人”先验地赋予了这类客体某种拟人化主体地位,而人形机器人(android)却没有引起更多的关注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一个更加有用的综合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究将具有物理形体的机器人作为法律的对象,特别区分了信息性和物理性效果,见Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一个不同观点,见Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把机器人视为人在法律上也有相当的历史,见Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吴军:《智能时代》,中信出版社2016年版。
[4]例如阿西莫夫的机器人系列小说中,无一例外地设定机器人拥有一个“正子脑”(positronic br人工智能 n),但却没有给出任何解释。见阿西莫夫:《机器人短篇全集》,江苏文艺出版社2014年版。
[5]这被称为终极算法(master algorithm),见佩德罗・多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯・卡尔:《玻璃笼子:自动化时代和我们的未来》,中信出版社2015年版。在互联网发展的每一个阶段都有某种意识形态化的术语或热词吸引投资,例如宽带、大数据、分享经济、VR(虚拟现实)等,它们不过是互联网形态的各类变种。例如,一个关于分享经济和之前互联网经济的关联,参见胡凌:《分享经济的法律规制》,载《文化纵横》2015年第4期。
[7]这种思维方式可追溯到霍布斯以来的法律实证主义。
[8]胡凌:《代码、著作权保护与公共资源池》,载《腾云》2016年12月刊。
[9]关于两类逻辑的具体表现,集中参见胡凌:《探寻网络法的政治经济起源》,上海财经大学出版社2016年版。
[10]这在众多(特别是国外的)中国互联网观察者身上十分常见,人们的注意力全都转向中国政府如何严格管理和控制互联网。在政治学研究中自然而然地并入“国家与市民社会”传统框架,并吸纳了关于在线抗争、集体行动的传播学与社会学研究。
[11]劳伦斯・莱斯格:《代码2.0》,清华大学出版社2008年版。
[12]一个概述,见胡凌:《马的法律与网络法》,载张平主编:《网络法律评论》2010年第11卷。
[13]胡凌:《非法兴起:理解中国互联网演进的一个框架》,d《文化纵横》2016年第5期。这体现在版权、隐私、财产、不正当竞争、垄断、劳动法等一系列制度中。这种对法律制度的改变不单纯是在既有工业生产背景下微型创新带来的变化,而是社会生产的重塑。
[14]比如说,平台责任议题的出现,和互联网平台更多转向由第三方提供服务的信息中介模式直接相关。
[15]这一区分和观察中国式资本主义兴起的框架十分类似,政治经济学家们争论的焦点就在于如何解释中国改革开放三十年的成功经验,究竟是政府主导还是市场主导,但实质上是一个混合制经济。
[16]由于科斯所说的企业信息成本和管理成本降低,调动生产要素的边际成本趋近于零,企业组织形态本身将成为竞争的高成本。
[17]尼克・波斯特洛姆:《超级智能:路线图、危险性与应对策略》,中信出版社2015年版。
[18]古代的政治过程、现代的企业决策都是黑箱,对外人而言如果不是神秘,也是除魅之后的国家/商业秘密。卡夫卡的小说《审判》就精确描述了作为黑箱的诉讼过程,同一时代的韦伯也描述了理性化的国家机器应当像自动售货机一样。
[19]Frank Pasquale:《黑箱社:掌控信息和金钱的数据法则》,中信出版社2015年版。
[20]帕伯斯:《差错:软件错误的致命影响》,人民邮电出版社2012年版。
[21]长久以来民用航空器已经由软件深度介入驾驶过程,以至于人类驾驶员无法在短时间内预热,形成另一种风险。
[22]阿西莫夫提出的“机器人三定律”(后来扩展至四点)虽然十分基础,但仍然很难在具体情况下起作用,特别是当代伦理学上著名的“线车难题”之类的伦理困境。考虑到这些定律是为模拟人脑状态下设计的,就更可疑;因为人脑并不总是按某些理性伦理原则行事的,在某些关键场合强烈依靠某些默认设置――直觉。
[23]由监管机构强制披露并审查事实做不到,只能依靠像苹果这样的平台公司和软件分发平台帮助对成千上万个软件进行至少是安全审查。在台式机时代,这一平台责任几乎不可能,自然状态下的windows只能导致争夺私人控制权的3Q大战。但像乌云网这样的第三方白帽黑客也被禁止探测和公开互联网公司的漏洞。
[24]同注11。
[25]在笔者看来,法院应当将注意力放在知情同意的合同条款本身的适当性上,而不是一味接受黑箱的逻辑,因为后者确实无懈可击。如果格式合同能准确反映代码的设计,对其条款的审查是更好的选择。百度引发的被遗忘权第一案反映的也是这个问题。
[26]一个补救方法还是尽可能地披露算法信息,允许用户理性地生产/隐瞒个人信息,见戴昕:《自愿披露隐私的规制》,载苏力主编:《法律和社会科学》第15卷第1辑,法律出版社2016年版。
[27]法律的人工智能化是本文另一个没有讨论的问题,与此相关的是大规模监控、智能警务、犯罪预测等问题。
[28]美国诸多大型新闻机构都广泛应用人工智能进行新闻撰写和分发,而像ROSS系统这样的法律人工智能已经遭到美国律师协会的多讼,理由是提供法律服务缺乏资质和不正当竞争。
关键词:双师型;智能技能;实务技能;理论兼顾型
中图分类号:G45 文献标志码:A 文章编号:1002-2589(2015)17-0225-02
长期以来,在我国法学教育“重理论,轻实践”的理念影响下,高校法学教师的专业知识普遍存在着结构性失衡的问题。资深实务经验教师的匮乏导致了法学教育和法律职业的严重脱节,以至于法科学生的实务技能得不到很好的培养。正如贺卫方教授所说,“由于法律职业与法律教育的脱节,我们的法律实务难以成为专业知识得以生长的温床,书斋里的高头讲章与操作中的章法混乱形成了强烈的反差。”[1]为扭转这一局面,满足法学教育职业化发展的需求,需要重新审视法学“双师型”师资队伍的内涵,并对实务技能型师资在职业教育中的作用进行准确定位。
一、法学“双师型”师资队伍内涵重构
2011年我国教育部、中央政法委联合出台了《关于实施卓越法律人才教育培养计划的若干意见》(教高[2011]10号)(以下简称《培养意见》),正式启动了“卓越法律人才教育培养计划”,提出了“强化学生法律实务技能培养”,“加强法学师资队伍建设”的主要任务。由于我国高校实务型教师的匮乏以及法律技能教育的缺失,使得技能教育的阵地转向了司法机构和律师事务所,以此获得了替代性满足。如此一来,具有丰富实践经验以及高超法律技能的“双师型”法学教师构成了法学教育与法律职业间的纽带和桥梁。
(一)现有“双师型”内涵归纳的简要评析
关于法学“双师型”教师的内涵论者诸多,概括起来主要是指既具有系统的法学专业理论知识和较高的教育教学水平,又具备丰富的实践经验和职业经历,能培养应用型高素质人才的教师。笔者认为,这一归纳存在三方面的可议之处,其一,并没有突出法学教师应具有的职业技能。教育界已经达成了法学职业化趋势的共识,并一直呼吁强化法科学生的职业教育和法律技能教育。教师是教学的灵魂,是人才培养方案的实施主体,教学任务的承担者,法学“双师型”教师不仅应具有系统的法学专业知识和教育教学能力,还应具备高超的法律职业技能。其二,将教师所掌握的理论知识与实践经验等同视之。对于教师而言,应以掌握并传授系统的法学理论知识为主,实践经验次之,切不可本末倒置,矫枉过正。其三,这种界定方式是将法学教师的外延局限在校内专任教师的基础上,没有充分考虑法律职业者兼任法学教师的可能性。
(二)“双师型”师资内涵确定与外延界定
鉴于以上分析笔者认为,“双师型”教师的内涵应从两个维度来构建:其一,从教师的个体角度,是指具有“双师素质”的教师,即具有系统的法学理论知识和丰富的实践经验,掌握高超的实务技能,具有实践教学能力的教师。其二,从教师队伍的整体角度,是指“双师结构”的教学团队,既包括校内专任教师,又包括来自法律实务部门的兼职教师,是一个专兼结合、结构合理、素质较高的法律人才培养共同体。为实现培养高水平法律职业人才的目标,仅凭高校一家之力很难完成,因此,应扩大师资队伍外延,整合法律实务部门与社会教育资源,构建法律人才培养共同体。即以学校为核心,实务部门及相关高校共同参与,将法官、检察官、律师等法律职业者作为高校专任教师的有益补充,科学分工、深度合作,形成优势互补的法律人才培养师资群体[2]。本文主要从教师队伍的整体角度来进行分析。
二、法学“双师型”师资的角色定位
何美欢教授将法律人所需要的技能分为智能技能和实务技能两类。智能技能是诠释法律概念、分析法律条文和运用法律资料的能力;实务技能的核心是处理业务中的人际关系的能力[3]。相较而言,智能技能适宜于在法学院的基本课程中加以传授和练习,法学教师对此也更加擅长。实务技能的形成则需要丰富的人生阅历以及对人情世故的深谙,主要通过学徒式教育在执业界培养[4]。相应的,培养学生实务技能的师资可划分为专门实务型师资和理论兼顾型师资,其中,法律职业者应定位于专门实务型师资,校内专任教师则属于理论兼顾型师资。
(一)法律职业者定位于专门实务型师资
专门实务型师资是指专门从事实践教学的实务型师资。法律职业者有丰富的实践经验,在培养学生实务技能方面具有无可比拟的优势,但却缺乏系统理论知识和教学能力,实务工作所遇到的法律问题通常是个别的,甚至是高度重复的,这容易使实务工作者形成思维定式,少有人对抽象的法律制度进行理性思考和深入探知。因此,往往收不到理想的教学效果。将法律职业者定位于专门实务型师资,可通过经验的传授达到以下三个目的:第一,使学生得到实务部门工作的直接经验,帮助学生在步入法律职业之前对拟从事的工作有初步了解和体验,以便更好地选择就业方向;第二,指导学生将在理论教学中习得的各种技能进行演练和检验,实现理论与实践的有效衔接。第三,法律实务部门是法科学生的“消费者”“使用者”,了解社会对法科学生培养规格的具体要求。通过实务工作者参与人才培养过程可以及时对人才培养方向进行修正。
(二)专任教师定位于理论兼顾型师资
理论兼顾型师资是在理论教学中兼顾培养学生实务技能的师资。专任教师以广泛的法律领域中的全部问题为教学内容,对于抽象的法律制度,有着更加全面、深入的认识,具有较强的教育教学能力,更擅长于培养学生的智能技能。但由于缺乏实践经验却不利于学生实务技能的培养。实务技能本身缺乏知识的吸引力和智识的挑战性,再加之专任教师的工作重心在于知识传授及对学生智能技能的培育,从事实践活动会分散其在理论教学、科研方面的精力,从成本收益的角度分析,专任教师担任专门实务型师资的成本更高。当然,这一分析并不否认专任教师从事法律实践的必要性。智能技能与实务技能本就是相辅相成的关系,实务技能的提高对于理论教学与智能技能的提高可起到促进作用。专任教师从事法律实践可以扩展法律思维,提高对事实问题的敏感度,在实践中发现新问题,获取新知识,以实务技能促进智能技能的提高并渗透到理论教学中,因此,更适合定位于理论兼顾型师资。
三、“双师型”各类师资在实务技能培养中的理性安排
(一)专任教师在理论教学中培养学生的实务技能
将专任教师定位于理论兼顾型实务教师,目的是通过理论教学中的实践环节培养学生的实务技能。实务中的每个案件均是个案,案件之间都存在着差异性,处理方式各不相同。但个案事实具有对法条进行扩张、限缩解释的可能性,以及在法无明文规定时补充法律漏洞的可能性,这是在讲章中难以预知的,因此,实务技能的培养目标主要是在实践中扩展法律思维。中国法学教育的目标应定位于“法官能力的养成”,即培养学生“像法官一样思考”的能力。实践中法官探知法律事实的过程是法官借助法律论证、法律解释、漏洞补充、价值衡量等方法最后形成主观确信的过程。这一过程首先需要的是理论知识以及智能技能的支撑,其次才是在实践中扩展法律思维。因此,对于专任教师而言,其在实务技能培养中的主要任务是在传授理论知识及智能技能的同时扩展学生的法律思维。例如,讲诉讼法的教师在讲授诉讼法基本原理的同时要培养学生法律推理、论证及诠释的智能技能,兼顾训练学生的庭审技能、辩论技能等实务技能。讲实体法的教师首先应注重培养学生的法律知识理解力以及分析法律条文和运用法律资料的能力,兼顾训练学生案例分析能力和寻找问题切入点的实践能力。
(二)兼任教师在实训类课程中培养学生实务技能
当前,我国法学教育规模空前庞大,本科在校生达二十九万余人。如此庞大的人群,完全通过由实务部门安排专业实习或建设人才培养基地的方式很难消化。特别是对于应用型本科高校而言,近年来安排学生实习的难度越来越大,学生多采取分散实习的方式,这就使通过专业实习锻炼学生实务技能这一途径形同虚设。聘请实务部门兼职教师可以增加高校实务和技能教学的内容,使学生与司法职业者实现“零距离”对话,亲身感受中国司法的“原生态”。高校的兼任教师主要有法官和律师。在课程安排方面,建议由法官担任“模拟法庭”“法庭辩论技巧”“案例分析”等侧重于培养学生法官思维和诉讼能力的课程;由律师担任“法律诊所”“律师实务”“合同的起草与审核”“公司的创建与运营”等侧重于培养学生律师思维与非诉能力的课程。
在“法律人才培养共同体”中,应充分考虑到专、兼职教师各自的特点,对二者在实务技能培养中的作用进行准确定位。在此基础上,针对各类教师的角色,分别安排专任教师担任理论教学中的实务技能培养任务,安排法律职业者担任实训课程的实务技能培养任务,实现校外教师和专任教师的优势互补。共同打造一支专、兼结合,理论与实务兼具的“双师型”教师队伍。
参考文献:
[1]贺卫方.中国法律职业:迟到的兴起和早来的危机[J].社会科学,2005(9):90.
[2]付子堂.构建法律人才培养共同体,推动法学教育模式与机制创新[J].法学教育研究,2014(1):32.
[3]何美欢.理想的专业法学教育[J].清华法学,2006(3):6-7.
1.1完善相关法律法规
-于我国的智能化建筑领域许多方面尚不完善,行政管理部门的政策法规制定也不能完全适应智能化建筑领域的发展要求,要在对我国智能化建筑领域进行充分调查研宄之后,大力推进智能化建筑领域法律法规的建立和完善,?以法律形式保障智能化建筑领域持续、健康、稳定发展,由政府启动行政资源,对智能化建筑的技术发展情况和施工管理水平进行充分调査研究,组织各类社科机构和高等学校专业技术人员,与智能化建筑领域专业技术人员和施工管理人员进行沟通交流,将这些交流意见总结成文字的形式加以保存和推广,为智能化建筑领域法律法规的制定和完善提供理论基础,m要加大气量对智能化建筑领域的专业技术进行总结与归纳,并以法律形式保障这些知识产权的合法利益,涉及到智能化建筑的硬件设备,必须严格按照相关标准与规范执行管理,保证智能化建筑的重要部位安全可靠,还要规范智能化建筑性能考核和建筑质量考核的标准,以法律形式统一规范,促进业内交流沟通、人才流通和资源整合,要保证建筑内部各功能的有效发挥,确保建筑设施齐备,在对智能化建筑进行性能测试和功能评估时,要充分利用现代化高科技手段,对智能化建筑的性能和功效进行准确测量,既保证了施工方利益,也保证了工程的顺利进展。
1.2提高技术人员素质
智能化建筑是对建筑科技含量要求很高的工程,m对建筑施工专业技术人员的素质要求很高,智能化建筑领域覆盖面广,相关专业技术人才必须具备全面的专业技能,由于智能化建筑专业技术人员工作量大,工作专业化水平高,专业技术人才的素质对智能化建筑的质量和性能具有决定性作用,为确保客户满意程度,必须进行对专业技术人员素质的培养。专业技术人员必须充分认清客户的需求,按照客户的实际需求,进行智能化建筑的规划和设计,严格按照既定施工方案,对建筑的各项性能认真考察,当前,我国智能化建筑领域专业人才匮乏,这既需要充分重视并帮扶现有的专业技术人员,又需要各级政府部门加大力度培养智能化建筑领域全能型人才。
1.3采取科学方式吸纳人才
由于当前智能化建筑领域专业技术人才稀缺,一旦某些专业技术人才离职,将对正在进行的智能化建筑施工产生较大影响,因此,智能化建筑团队的管理层和决策层,要制定科学的经济激励制度,保障专业技术人才的工作积极性和对本工作的高度热情,避免因为人才流失而造成工程质量下降和工程竣工日期拖延,要重视知识产权的保护,施工团队对已经形成成熟理论的施工方案,要严格保护其知识产权,以法律形式确保施工方案设计者的合法权益,在征得设计师同意的基础上,将不同设计方案进行整合互补,以期形成本公司独有的设计性优势。
2结束语
在我国城市化建设不断推进的今天,许多大中型城市都在进行智能化建筑的施工,对智能化建筑的施工管理情况进行充分了解,有助于保证智能化建筑施工的科学高效,智能化建筑规模较大,结构较为复杂,这使得施工团队必须充分重视对人才的保护与培养,对现有智能化建筑领域充分暴露出的问题,要严格按照法律规范进行整改和调整。
关键词:建筑智能化工程;施工质量管理;应对之策
引言
在现代化科技快速发展的大背景下,人们的衣食住行均发生了巨大的改变。在“住”这一方面,随着各种智能化技术的广泛应用,智能建筑应运而生,并凭借能源节约及环境友好等显著优势,而得到人们的广泛认可。其中,建筑智能化工程设涉及到多个方面,对科技及集成化水平提出了比较高的要求,工程的施工质量与建筑物的质量及其功能的有效发挥有着非常紧密的联系。因此,建筑智能化工程单位应积极做好施工质量管理工作,从而推动我国建筑行业的智能化发展。
1建筑智能化在工程施工中质量管理方面存在的问题
(1)未能建立完善的相关法律规定。现阶段,国内不少城市已投入了建筑智能化施工中,然而,由于未能建立起完善的相关法律规定,使得施工质量管理工作无法可依,导致管理混乱等局面的出现,未能对施工全程展开行之有效的管理,从而引起一系列不容忽视的施工质量问题。此外,由于缺乏法律法规的约束及指导,建筑智能化工程单位对质量管理工作不够重视,缺乏完备的智能化技艺,这些因素使得我国建筑智能化的施工管理水平无法满足社会实际发展需求[1]。(2)缺乏高水平的专业技术。建筑智能化施工的开展大大节省了物力及人力的消耗,然而我国的建筑智能化施工水平不高,缺乏足够的理论知识与实践经验,大多数核心施工技术主要依靠国外引进,还未能形成成熟的施工计划于方案,施工管理机制也不够完善。总之,我国建筑智能化工程当前的施工经验及技能,已无法满足快速发展的社会需求。此外,建筑智能化工程涉及到众多技术与方面,但是多数建筑施工管理人员仅掌握本专业知识,很少有人对建筑智能化工程的相关知识有一个去那面掌握的,这给施工质量管理工作的顺利开展造成了非常不利的影响。(3)在同一领域无法形成有效的竞争.经相关部门调查统计得知,国内目前存在非常多的智能化建筑公司,但它们之间未能建立相应的人才交流体制及工作经验的交流平台等,通常是各自为政,无法在同一领域无法形成有效的竞争,导致建筑公司的水平存在良莠不齐的情况,进而对建筑行业的发展造成了不利的影响。但是,建筑智能化工程对施工环境有着比较高的要求,对施工管理工作也提出了更大的挑战。由于不少智能化建筑公司实战经验不足,导致施工管理出现偏差与失误,使得工程的施工质量无法满足与其的要求,对工期造成延误,并严重损害到业主的利益。
2建筑智能化施工质量管理问题的有效应对之策
(1)加快相关法律法规的制定。在建筑智能化工程方面,我国还存在许多不完善的地方,现有的法规及相关政策也无法完全符合当前建筑智能化施工的实际需求。在此种形势下,就需要深入调查智能化建筑领域的实际情况,加快相关法律法规的制定,为建筑智能化施工质量管理工作的开展提供可靠依据,促进建筑行业不断朝着智能化的方向稳定发展。具体来说,应当由政府部门启动相关行政资源,在充分调研建筑智能化施工技术及施工管理现有水平的基础上,组织高等院校及科研机构的专业型技术人员,与建筑智能化工程的施工管理人员及技术人员展开良好的交流与沟通,并以文档的形式将交流意见及成果保存下来,并进行推广,为建筑智能化工程的相关政策及法规的制定提供可靠的理论支持[2]。同时,还应积极归纳并总结建筑智能化施工的专业技术,并借助法律的方式来为知识产权的利益提供充分保障,还应以法律的形式对施工管理工作进行规范,做到有法可依,有法可循。此外,还需应用现代化科技准确评估智能化建筑的功效及性能,在为施工方的利益提供保障的同时,促进施工质量管理工作的顺利开展。(2)加强建筑智能施工质量管理队伍的建设。在建筑智能化工程的施工过程中,施工质量及效率的高低与管理人员整体素质具有密切联系,为了有效的提高施工质量管理水平,需要加强工程质量管理队伍建设。需要配备经验丰富的管理人员,加强对管理队伍人员整体素质的培养,对其专业知识与技能加强培训,以便确保监督管理人员素质水平的提高,能够更好的满足工作需求[3]。同时,可以开展各种管理工作经验交流活动,对施工内部管理机制进行有效的完善,以便建立一支专业技术高,监督行为规范,高专业技能的监督管理队伍。确保管理人员能够及时了解各种新的政策与相关法律发挥,并及时采用新理论对建筑智能化工程的施工质量进行有效监督,以促进工程质量水平的提高。(3)做好建筑智能化工程的监理工作。为确保建筑智能化施工的顺利开展,提高施工质量,就应当积极开展工程监理工作,确保人们充分认识到建筑智能化工程质量建设的重要性,并对原有的质量监督管理方式进行改革与完善。可以建立集体监督责任制,避免个人监督引起的权责不清的问题发生。一旦出现质量监督管理问题,需要进行集体责罚。在整个建筑智能化工程施工质量的监督管理中,每个建设项目需要配备两名以上的监理人员,并确保监理人员具备高水平的专业能力,在实际监督管理过程中,需要起到相互监督的作用。并建设完善的监理体系,将责任落实到各个工作人员手中,以便确保分工明确,促进工程施工质量监理水平的提高。
3结语
综上所述,智能建筑已成为现代化建筑的一项重要组成部分,其施工质量水平更是会对建筑物的安全使用及性能等产生直接影响。然而,在实际建筑智能化施工过程中,还存在不少问题,对施工质量及工程的顺利进行造成了不良影响。因此,建筑企业应当从实际情况出发,采取科学的管理措施,将建筑智能化工程中的施工问题进行有效解决,充分促进施工管理水平的提高。
参考文献:
[1]王良成,梁志勇.建筑智能化工程施工质量问题及应对措施[J].山西建筑,2015,41(03):210-211.
[2]刘忻.建筑智能化系统工程设计施工常见问题及对策[J].建材发展导向(下),2015,15(07):101.
[3]黄炬斌.建筑智能化施工管理中存在的问题及对策[J].智能城市,2016,21(03):122.
关键词:人工智能产品;侵权行为;侵权责任
一、引言――人工智能的异军突起
2016年3月15日,备受关注的围棋“人机大战”在韩国首尔结束,围棋大师李世石以1:4告负①。人工智能不只是在领域“崭露头角”,可以想象在未来诸多领域都会看到人工智能“脱颖而出”。在诸多影视作品中就已经出现大量人工智能产品.这些影视作品大胆畅想未来人工智能对人类生活的影响。事实上,在当前科技水平下,人类已经研制成功人工智能汽车、人工智能飞机等等。有的甚至已经走入人类生活,并成为不可或缺的一部分。本文认为从这些事例可以看出人工智能已经发展到相当高的水平,甚至有可能“超越”人类的控制。因此很有必要对人工智能进行“法律定位”。
二、人工智能及其产品概念概述
人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”比较好理解,一般而言即人能够制造或操作;关于什么是“智能”,争议很大,哲学、经济学、计算机等学科都对它有相关定义,但是从法律角度理解即在无人或者少人的状态下达到预期效果。其中“人工”体现了人的参与性与意志性,这一点是其能被法律调整的根源所在,符合法律关系构成的主体要求;“智能”体现了人的意志的效果性,这一点是其被法律调整的目的所在。“人工”是“智能”的前提,“智能”是“人工”的体现。
综合起来,人工智能的法律定义可以为:人基于自身的意志,制造或操作某些工具,从而在无人或者少人的状态下达到预期效果的系统。以此类推,人工智能产品即为生产并投入市场的该系统的具体商品。
三、人工智能产品侵权主体的确定
人工智能产品侵权主体的范围是责任认定过程中首先需要明确的一个问题。由于人工智能产品是在无人或者少人状态下进行工作,尤其是侵权行为发生时人的参与性较低,因此人工智能产品侵权主体的确定具有一定特殊性,其与一般产品责任相比有共性也有特殊性。正如前文所述,即使无人少人,但也是在人的参与下进行的,这样便可以进行法律上的“归责”。按照人工智能产品的设计、生产与使用的逻辑顺序,其责任主体可以归为产品设计研发者、产品生产者、产品销售者、产品运行的操作者和相关监管机构等。
(一)产品设计研发者
设计研发环节是人工智能产品存在的第一个环节,设计研发的质量决定了该产品运行过程中的稳定性、可靠性。设计研发者的工作成果影响产品设计、生产和使用的整个过程,这个环节的过错将对其他各个环节都产生重大影响。由于人工智能产品也属于商品,对产品设计研发者的归责可以按照《产品质量法》的规定进行。
(二)产品生产者
产品生产一直是我国法律界关注的重大问题,可以预见,人工智能产品也不可能“免俗”,在生产领域一定会产生和普通产品相同或者类似的问题。目前相关立法比如《产品质量法》对于产品质量引起事故的追责规定的企业质量体系认证、产品质量监督检查制度以及严格责任原则等等。对于一般产品生产领域的规范同样适用于人工智能产品。同时必须指出的是,人工智能产品具有事前操作,事中无人少人的特点,人的主要参与在于事前。因此其质量要求更高,对于人工智能产品的生产应当更为严格监管。
(三)产品销售者
产品销售者的责任来源于对产品的保管义务与公平交易的义务。如果因为销售者的不当管理,使产品质量受损,或者销售假冒伪劣产品,从而造成侵权案件发生,应当由销售者承当责任。
(四)产品运行的操作者
对于产品运行的操作者进行归责是比较复杂的问题,同时也是人工智能产品特殊性的体现,因为任何产品肯定存在明确的设计研发者、生产者,但是对于操作者或者使用者而言,便不一定明确,甚至可能不存在,人工智能产品可能就是这样。虽然具有这样的特殊性,但是这并不能表明对操作者无法归责,也不能因此将责任全部强加到设计研发者与生产者头上。对于操作者的归责强调必须存在过失,主要考察操作者在使用产品过程中是否存在违反技术规范行为,是否尽到应尽的注意义务,以及是否尽到维修保养产品的义务。对于操作者的注意义务,本文认为人工智能产品科技含量高,操作技术要求高,不能按照一般普通人注意义务要求,最起码应当按照处理自己同一事务注意义务要求。
四、人工智能产品侵权违法行为的认定
人工智能产品侵权行为应当具有违法性。侵权责任理论通说认为违法行为要件包含两个构成要件:一是客观上存在加害行为;二是加害行为具有不法性②。人工智能产品侵权行为应当符合该违法行为的要求,鉴于其特殊性,本文以人工汽车为例,假想法律与科学技术允许其行驶的情况下,分以下几种侵权情况讨论。
(一)人工智能汽车与行人之间
人工智能汽车具有程序化的特点,即使科技水平再先进,其突况反应能力也不及人类。因此可以认为人工智能汽车在道路上受保护的程度应当高于行人,最起码要于行人相等。结合现行的《道路交通安全法》主要保护行人的立法规则,要促进人工智能汽车的发展,必须进行相应修改。人工智能汽车与行人之间发生的侵权行为情况会很多。例如,人工智能汽车经程序设定后,在无人状态下按照预定路线、轨道进行运行,在某个路口与行人相撞,造成重大伤害结果。这种情况下,可能因为汽车一方的过错,也可能因为行人一方的过错,或者双方均有过错。完全归责于行人一方过错的情况不是本文探讨的重点,本文只探讨汽车一方存在过错的情况。汽车一方存在过错有如下情况。第一,汽车程序设计者设计方案存在失误;第二,生产者生产过程中存在过失,造成产品不合格;第三,销售者未尽到合理保管义务,致使原本合格产品出现质量问题;第四,产品使用者在操作产品运行时,未按技术标准进行操作。需要指出的是,由于人工智能产品运行时的无人少人状况以及危机处理的不敏感性,对运行道路要求较高,道路设施出现故障也可能扰乱汽车的程序,例如因为红路灯出现故障,可能成为事故发生的主要原因。这时就应当有富有维修维护道路设施责任的有关机关负责。
(二)人工智能汽车与普通汽车之间
人工智能汽车与普通汽车最大的区别是,人工智能汽车运行时人较少操作,人的参与属于事前参与;普通汽车运行时人全程操作,人的参与属于全程参与。对于普通汽车一方的追责,是基于驾驶人员对于汽车驾驶员的意志,汽车的运行超出驾驶员的意志,按理说不应当追究责任。比如汽车本身固有的根本无法克服的故障而导致汽车失控,除非这个故障是由于驾驶员未尽保养义务造成的。对于人工智能汽车的归责则不同,因为人工智能汽车在运行过程中几乎没有人的参与,人的意志在运行过程中无法体现。此时归责的思路应当转变,应当向前延伸,着重考察人工智能汽车运行前操作者对于路线、时间、避险等设置是否符合操作规范。这里需要指出的是,操作者事前不可能完全预料到险情的具体时间地点等因素,我们不可能苛求他对一切了如指掌。对于人工智能汽车操作者的归责仅限于事前是否按照技术标准合理设置,并且如果因为未尽保养义务而出现故障造成的侵权也应当属于归责范围。另一个需要关注的问题是,普通汽车在与智能汽车相遇时,普通汽车应急能力强,避险的可能性大,因此其受的规范应当多一些。这样,对于普通汽车来说较为不公平,最好的办法是严格区分两者的道路。我们的社会必定要经历两种汽车共存的时代,行驶区域的划分,一是可以减少两种不同汽车相撞的可能;二是归责时也可以根据行驶区域判定责任的分担。
(三)人工智能汽车与人工智能汽车之间
两种相同技术与操作的汽车,同样都具有较强的程序性,紧急情况处理能力也都不强,如果都按照技术要求设置与操作,发生碰撞的可能性不是很大。二者之间发生碰撞可能是基于汽车自身的故障原因,因此归责思路应当向前逐步延伸,一直到设计研发开始。这样来看,人工智能汽车与人工智能汽车之间的碰撞,大多因为产品质量问题,产品责任的可能性大很多。
五、人工智能产品侵权因果关系的认定
侵权法理论上的因果关系,指违法行为作为原因,损害事实作为结果,由原因引起后果的客观联系。人工智能产品侵权行为尤其特殊性,尤其是行为主体参与性较低,因此其因果关系确定有较大的困难。
对于人工智能产品侵权因果关系的证明,因其具有事前参与,事中无人少人的特点,故证明因果关系存在一定难度。其难度主要体现在以下方面。第一,行为人的行为与结果的发生在时间上存在较大间隔,期间很有可能出现其他情况间隔行为与结果之间的因果关系;第二,结果发生前,存在较多行为主体参与行为,因此责任主体可能较多,他们行为与结果的因果关系甄别与证明较为复杂;第三,较多因素导致较多结果,侵权损害可能只是其中一个,这样因果关系可能更为难以辨析。综合这些特殊情况,以下几点着重说明。
1、多因一果。即造成损害结果的原因有很多个。在这种情况下,不能仅仅使被告席的被告对损害结果承担所有责任。比如当产品设计发生失误,生产环节存在漏洞,操作者违规操作,道路交通设施发生故障的问题同时出现,共同造成损害结果时,就应当剖析损害事实的发展过程,合理划分责任主体及其具体责任的大小。
2、多因多果。即多种因素造成多个损害结果,且这些结果都属于侵权责任构成要件的要求。这种情况下,不能杂乱无章地混乱分析,首先应当合理去除某些结果,只分析系案件争议的损害结果的因果关系。剖析损害事实的发展过程,同时也需要依照前文“多因一果”的讨论,合理划分责任主体及其具体责任的大小。
六、结语
人工智能产品侵权,尤其是人工汽车侵权,虽然还没有发生,但是可以料想,未来一定会有发生。由于人工智能产品具有事前操作,事中无人少人,以及危机处理能力较差的特点,处理人工智能产品侵权问题具有特殊性。处理其特殊性主要抓住三点。第一,人工智能产品也属于产品,对于普通产品的法律法规,对于人工智能产品依然适用;第二,人工智能产品侵权主体具有特殊性,尤其是操作者的归责,要以过错为前提;第三,人工智能产品侵权案件因果关系具有复杂性,必须延长事情发生的时间,向前追溯剖析因果关系。(作者单位:陕西师范大学政治经济学院)
注释:
① 《人机大战下一站将是中国?谷歌CEO到访中国围棋学校》,2016,谷歌中国。
② 张新宝.侵权责任法[M].北京:中国人民大学出版社,2013.
参考文献:
[1] 张新宝.侵权责任法[M].北京:中国人民大学出版社,2013.
[2] 唐洪霞.论土壤污染侵权的责任认定[J].黑龙江省政法管理干部学院学报,2014(6):115-118.
[3] 陈晓林.无人驾驶汽车对现行法律的挑战及应对[J].理论导刊,2016(1).
[4] 张冷夫.产品责任的认定研究[J].社科纵横,2004,19(2):66-67.
[5] 刘学宽,陈李丽.浅谈产品责任的因果关系认定[J].山东审判:山东法官培训学院学报,2013,29(3):93-95.
【关键词】多元智能 教学策略
物理学是一门以实验为基础的自然科学,是观察、实验和科学思维相结合的产物。物理学使用数学作为工具,是一门定量的科学。它研究最基本最简单的运动形式的一般规律,以及如何运用这些规律为社会生产、生活和发展服务。多元智能理论指出,每个人至少具有八种智能,即:语言智能、数学-逻辑智能、空间智能、身体-运动智能、音乐智能、人际关系智能、内省智能、自然观察者智能。这八种智能对学生的发展都是重要的。教师在教学中要给予同等的注意,以促进学生的全面发展,而不能延续传统的只注重培育语言智能、空间智能和数学-逻辑智能的教学方法。物理学是一门以实验为基础的学科,是可以广泛联系生产、生活实际的学科,在课堂教学中,如何发展学生的多元智能,同时又能体现物理教学的特色,按照多元智能理论,对教师的教学工作应提出那些要求,下面就从语言智能和视觉智能中谈一下这些问题
一、教学中语言智能的培养
教学实践表明,学生在准确表达物理概念、叙述物理规律、说明实验现象和准确书写物理名词方面存在困难。口头回答问题时不能兼顾准确性、系统性和科学性,往往顾此失彼、漏洞百出。
教师在进行课堂教学时语言必须规范、准确、流畅 教师在进行课堂提问、阐明概念、叙述规律、对学生进行点拨、指导时必须给学生起示范作用。教师应该使用标准的普通话授课,使用规范的专业术语。例如,将“匀速直线运动”简写为“匀直运动”就不够规范。教师流畅的表达,抑扬顿挫而又富有魅力的语调,不仅能顺利表达出教学内容,同时还给学生一种愉悦的美感,进而提高学生学习的兴趣。
二、教学中视觉培养
视觉-空间智能在物理课堂上主要表现为观察能力。观察对物理学研究发展有着重要的作用:伽利略通过观察教堂摆动的吊灯发现了摆的等时性;牛顿通过对月球、行星等运动的观察,在前人研究的基础上,经过长时间研究提出了万有引力定律。物理课上,无论是教师的演示实验还是学生的分组实验,都要注意培养学生的观察能力,使学生掌握科学的观察方法,通过开发学生的空间智能,来提高物理教学质量。
1.教师要多给学生提供实验的机会,增加演示实验或变演示实验为学生分组实验,布置可行的家庭小实验
2.要求学生多用图示展示物理过程 初中学生通过观察滑轮组的绕线方法,看清线的头和尾,应该能够在纸上做出绕线图。高中学生更应该在物体受力图、运动过程分析图上加强训练。类似的还有光学中规范的光路图、电学中的电路图、螺线管绕线图和磁场分布图等。
关键词:智力成果,范式,权利对象
借用库恩的理论,如果我们假定知识产权法学是一门成熟的学科,它必定已经形成某种范式,即学科共同体普遍认可的理论与法则。从表象上看,当得范式概念之名的,只有“智力成果权说”。“一个范式在标准科学时期是被认为理所当然的东西。”(注:斯坦因。U.拉森尔:《社会科学理论与方法》,任晓译,第46页,上海人民出版社2002年版。)在知识产权的诸种定义中,占据主流地位的显然是智力成果权。“intellectual property”中的“intellectual”、“知识产权”中的“知识”、“智慧财产权”中的“智慧”,都体现了权利与智力的关联。这些称谓的权威地位至少从一个侧面反映出智力成果权说的影响力。在试图给出知识产权概念的著述中,智力成果权说在数量上占据了绝对优势。由于世界知识产权组织在其出版物中采纳了智力成果权说,更加强了该理论的权威性。故我国不少资深学者指出:智力成果权说“概括了知识产权的最本质的因素,是比较准确而经历过反复推敲的”:“确实是经过深思熟虑的”。(注:郭寿康主编:《知识产权法》,第5页,中共中央党校出版社2002年版;郑成思:《知识产权法详论》,第71页,法律出版社1998年版。)
但是,学界也不乏对智力成果权说的批评,批评的主要依据是:智力成果权说不能圆满地解释商业标记权。(注:刘春田主编:《知识产权法》,第6页,中国人民大学出版社2000年版。)如果我们把“智力成果权说”作为现有的范式,就不能忘记,范式仅仅是一种许诺,它许诺可以成功地解释所有的现象,但“这种成功只有在一些经过挑选的例子中才可以找到,也就是说不是所有的例子都合适。”(注:斯坦因。U.拉森尔:《社会科学理论与方法》,任晓译,第46页,上海人民出版社2002年版。)范式形成之后,学者总是致力于证明事实与范式的一致性,为了消除范式与某些事实之间的不和谐,会不断进行理论上的修正和新的解释。这一倾向在知识产权法学中同样存在,因此我们不能忽略学者们为维护智力成果权范式所作的努力。这些努力的方向大致相同:即解释商标的智力成果属性。解释角度包括:1.商业标记的设计与选择凝结了智力劳动;2.商业标记权的利益来源于商业信誉,信誉的建立、维持包含了智力劳动。这些解释在逻辑上的困境是显而易见的。只有当某个对象的智力含量成为该对象受保护的法律要件时,把该对象称为“智力成果”才具有法律意义。法律概念中突出的每一个特征都应当具有规范意义。如果法律不以商标的创造性作为保护要件,即使商标的设计、信誉的维持在客观上含有智力劳动,把商标称为“智力成果”也是无意义的。譬如,一个物的生产者可能在生产过程中投入了智力劳动,但物并不因此成为“智力成果”。
此类的逻辑批判已不鲜见。我们不禁追问:为何智力成果权说仍然能够占据范式地位?这个问题不能通过单纯的逻辑分析得到解答。在法律概念的研究中,历史分析是必不可少的。概念作为一个独立物形成之后,人们的使用会成为一种传统,久而久之,便忘却了其形成的背景。因此,概念评价的另一种思路,是分析概念形成的历史背景、以及该背景是否发生了本质的变化。近来,偶读英国学者Brad Sherman和Lionel Bently所著《现代知识产权法的形成-1760~1911英国经验》一书,书中提出一个观点:权利的统一基础从智力劳动到权利对象,是现代知识产权法的特征之一。这说明,在人类思维的发展史上,对知识产权体系基础的理解曾历经了从智力创造到权利对象的过程。这个研究结论提供了一个思路:智力成果权说本是历史性的结论,它注定要被超越。如此,逻辑上的勉强捍卫便毫无意义。知识产权史著作甚是寥寥,故本文对此书观点略作推介,与同仁共飨。
一、“智力劳动”在早期知识产权理论中的地位
Brad Sherman和Lionel Bently把19世纪50年代之前的知识产权法称为“前现代”(pre-modern)制度,以“智力劳动”或“创造性”统一知识产权是前现代知识产权制度的特征,前现代知识产权法最关注的问题(overriding concerns)之一,就是创造性。这一思路的形成有三个重要原因:
1.知识产权制度产生之初,人们对于无体财产的可保护性抱有怀疑的态度,因此,智力劳动作为重要的辩护理由,被突出强调。
一个新的财产权诞生之初,关于保护合理性的形而上争论是必不可少的。正因为如此,Sherman和Bently指出,关注财产权的本质、用古典法理学的方式思考,是前现代知识产权法的特点。从罗马法开始,先占被视为财产所有权的依据。(注:张恒山:《法理要论》,第422~423页,北京大学出版社2002年版。)17世纪的法学家格老秀斯继承了这个观点,他认为,“人们成为目前处于无主物状态的物品的所有者的惟一必要条件是公开为占有行为。”(注:J.M.凯利:《西方法律思想简史》,王笑红译,第220页,法律出版社2002年版。)在18世纪,版权的合理性受到怀疑。反对版权者认为,不可占有的对象无法成为财产权的基础。回应这种观点的思路之一,是重新提出财产权的依据。于是,支持版权保护者以洛克的“劳动所有权说”为依据,指出占有不是财产取得的惟一依据,劳动也可以产生财产权,无论是体力劳动还是智力劳动。(注:BradSherman、Lionel Bently:《The making of modern intellectual property-theBritish experience,1760~1911》,第20~24页,Cambridge University Press 1999)既然智力劳动是支持知识产权存在的依据,它在前现论中必然会占有中心地位。
这个思维角度形成之后,在知识产权制度建立的过程中,权利对象的智力含量常常作为论证的依据,由此也反映出前现代思维对智力因素的依赖。在18世纪中叶,英国发起了一场文学产权辩论(literary property debate),争论的焦点是“版权应否获得永久性保护”。反对者将版权与专利权进行类比,认为专利权有期限限制,版权也应该如此。赞成者把器具、书籍、机器分别作为体力劳动成果、版权对象和专利权对象的模型,器具是体力劳动成果;书籍是智力劳动成果;机器是体力与智力劳动的混合物。因此,对专利的保护应当介于物与作品之间,版权的保护时间长于专利权,并无不当。赞成者的另一个辩护理由是根据非法复制投入的智力含量区分版权与专利权。他们认为,复印书籍是纯粹的机械操作,一个目不识丁的人也能够完成。而复制机器的人必须理解机器的原理,因此,保护专利的法律意义不如对版权的保护,版权应当获得比专利权更长的保护期。(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第144~147页,CambridgeUniversity Press 1999)在19世纪60年代,许多国家掀起了取消专利权的运动。维护专利权的人质问:为什么不取消性质相同的版权?反对专利权者回应:文学作品是创作者独一无二的表达,而相同的专利可以由若干不同的人独立作出。如果莎士比亚没有写出《李尔王》,任何其他人都不会写出这部作品;但如果瓦特没有发明蒸汽机,其他人迟早会发明。因此,发明实际上等于发现,发明者不过是找到了一个本已存在的解决问题的答案,发明与作品存在质的不同。于是,人们转而求助于“契约说”支持专利制度:尽管发明只是对已有知识的发现,但国家鼓励最先的发现者把他的发现告知公众,并以独占权为对价。专利制度是国家与发明者的契约。(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第151~156页,Cambridge University Press 1999)
可见,智力劳动不仅成为知识产权一般性存在的合理性基础,而且智力劳动的质与量还成为具体制度设计的合理依据。
2.前现代知识产权理论忽视了法的第二性,过分关注劳动过程。
法调整社会现实,社会现实是第一性的,法是第二性的。法的模式是选择的结果,它只能选择自己能够解决的问题和能够实现的手段来塑造自我。譬如,著作权法中的“不问作品艺术价值原则”就是典型的例子,因为艺术判断已经超出了法的能力。而前现代时期,人们往往混淆了第一性的现实和第二性的法律,似乎法律能够判断事实上是否发生了创造性劳动,把知识产权对象的本质当作动态的(dynamic)、关涉过程的。(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第49页,Cambridge University Press 1999)这种思路“假想法律在调整一个已经事先存在的对象,法律的任务是发现、确定该对象。这个对象处在从作者到作品、或从发明者到发明物的时间序列中,法律假定存在一个促成一个无体财产发生的事件或来源。”(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第56~57页,Cambridge University Press 1999)换言之,人们假想可以先认定劳动过程是否属于“智力劳动”,而后推出劳动结果能否受到保护。这种假想在第一性上是成立的,创造性结果必然来源于某种智力活动的过程,当智力劳动的过程完结时,结果就产生了。但是,这种假想忽略了法的局限性-它无力再现过程。根据民法理论,创造是事实行为,事实行为的构成要件中必然包含了结果的描述。“民法对事实行为的概括往往以行为所造成的客观后果作为最终要件。”(注:董安生:《民事法律行为-合同、遗嘱和婚姻行为的一般规律》,第113页,中国人民大学1994年版。)所以,在法律上,劳动结果决定劳动性质,而不是相反。例如,只有产生了作品的劳动才是创作,产生了临摹品的劳动则是复制,临摹过程的艰辛毫无法律意义。法律应当关注权利对象自身的特征,而非权利对象产生的来源。
因此,对智力劳动过程的强调,反映了前现代时期法律思维的幼稚。
3.商业标记权产生较晚,19世纪后半期之前的知识产权类型只有智力成果权。
19世纪50年代之前,商业标记的财产性还没有被承认。当时的知识产权类型主要是版权、专利权、外观设计权,因此用“智力成果权”来概括这些权利,在逻辑上是成立的。
总体观之,“智力劳动是最有影响力的组织前现代知识产权法的原则。”(注:BradSherman、Lionel Bently:《The making of modern intellectual property-theBritish experience,1760~1911》,第173页,Cambridge University Press 1999)
二、智力劳动意义之式微
现代知识产权法统一的基础之所以转向权利对象,主要也有三方面的原因:
1.现代知识产权法在法律思维上更加成熟,能够区分现实的第一性和法的第二性,即发现了法的自我创生性(itself creative)(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第57页,Cambridge University Press 1999)。
法律的形成过程是自我创生的,它以现实为基础,但不是现实的复本,至多是现实的模拟而已。例如法人概念就是法自我创生的主体形态。因此,法律可以根据规范的需要为权利对象的统一赋予一种法律上的意义,自主地发现表面上不相类似的对象所具有的相似性并且创造(invent)它们之间的对应关系。(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第57页,Cambridge University Press 1999)
所以,用以解释知识产权本体合理性的智力劳动,对于第二性的法律设计并无太大的意义。我们可以与物权类比,关于财产所有权依据的学说有“先占说”、“劳动及个人需要说”、“社会公认说”、“主体的占有意志与公共的权威意志结合说”、“个体的自由意志说”,(注:张恒山:《法理要论》,第422~434页,北京大学出版社2002年版。)但这些依据并没有成为物权概念的组成要素,物权概念只是突出其权利对象是“物”。19世纪时,功利主义与实证主义开始向法学渗透。人们认为,有些事物即使不符合创造性的本质,但社会观念认为有必要保护,并且与智力成果具有相似的法律特征,也可以成为知识产权的对象。Sherman和Bently指出,“重要的不是工作中的劳动或创造性,而是工作本身的贡献,尤其是从经济学或准经济学的角度衡量的贡献。”(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第174页,Cambridge University Press 1999)前文所述的专利制度“契约说”就是典型的例子,即使发明被等同于发现,也不妨碍专利制度的存续。英国议员Beiper在1875年指出:“发明人对他的发明的垄断并没有自然的或原始的权利……专利的存在只能以公共福祉的理由来捍卫。”(注:BradSherman、Lionel Bently:《The making of modern intellectual property-theBritish experience,1760~1911》,第174页,Cambridge University Press 1999,注1.)这种思路的转变减弱了智力劳动在统一知识产权中的作用。在19世纪后半期,“再也没有必要对无体财产的意义或性质进行形而上的探询。”(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the Britishexperience,1760~1911》,第175页,Cambridge University Press 1999,注1.)
2.登记制度促进了知识产权对象与“劳动背景”的脱离。
谈到知识产权的登记制度,人们往往强调登记的公示作用。登记制度还有一个被人忽略的作用,即促进了知识产权的统一基础“从智力劳动到权利对象”的进程。用Sherman和Bently的表述,登记制度促进了知识产权对象的闭合(closure)。在他们看来,权利对象的闭合完成于19世纪后半期,这标志着知识产权法逻辑的重大转变。(注:Brad Sherman、Lionel Bently:《The making of modern intellectual property-the British experience,1760~1911》,第194页,Cambridge University Press 1999)
知识产权的对象是非物质性的,其对象的存在不具有直观性。在物权领域,物是否存在,不成为问题。而权利对象是否存在,往往是知识产权争议中的首当其冲的问题。如前所述,即使智力劳动解释了权利的性质,但智力劳动却不能成为判定权利对象的标准,因为智力劳动本身需依靠对劳动结果的鉴别来反推。于是,人们选择了一种“官僚体制”的解决途径(bureaucratic means)-登记制度。(注:Brad Sherman、LionelBently:《The making of modern intellectual property-the Britishexperience,1760~1911》,第62页,Cambridge University Press 1999)依靠行政机构的登记职能,财产的存在由某种陈述(representation)来确定。对财产的陈述在法律上被等同于财产本身,如专利、外观设计登记文件中的说明就是专利、外观设计本身。“以陈述性登记(representative registration)为基础,无体财产被约简为纸上的表述。”(注:Brad Sherman、Lionel Bently:《The making of modern intellectualproperty-the British experience,1760~1911》,第182页,CambridgeUniversity Press 1999)财产的确定途径从本质的追问(是否真的来源于智力劳动),转向了文件的表象(surface of the document)。Sherman和Bently把这种现象称为权利对象的“无背景化”(decontextualise)(注:Brad Sherman、Lionel Bently:《Themaking of modern intellectual property-the British experience,1760~1911》,第182页,Cambridge University Press 1999),对象从它的产生背景(智力劳动)中独立出来,实现了自身的闭合。当然,登记的作用不是绝对的。首先,作品的保护范围无法通过陈述性登记来确定,对象的判定在著作权法中依然是一个难题;其次,登记的结果可以受到质疑,某个对象是否真的是一个实质合法的发明或商标,离不开解释。对象的确定必须通过解释,是知识产权法的一大特点与难点。但是,登记制度的出现,至少反映出人们在实现象独立化方面的卓越努力。陈述性登记尽管可能被推翻,但与暧昧的、不可逆转的“劳动过程”相比,它大大地增加了财产界定的明晰度。
以陈述性登记确定财产,也是法的第二性的体现。法的技术是选择的结果,法选择了一种更易于操作的判断技术。随着智力劳动在法律判断中作用的削弱,法律关注的焦点日益转向权利对象本身。
3.商标权的出现,瓦解了智力劳动对知识产权的统一功能。
关键词:人工智能;负外部性;制度检视;经济法规制
一、问题的提出
2017年7月,国务院印发的《新一代人工智能发展规划》提出,人工智能是一项引领未来的战略性技术,旨在以科技创新引领开拓发展新境界。2019年3月,李克强总理在《政府工作报告》中又明确提出,要“深化大数据、人工智能等研发应用……壮大数字经济”[1]。因此,可以说人工智能的发展已经进入新阶段,成为国际竞争的新焦点和经济发展的新引擎。美国、日本、欧盟等都在近3年内制定并实施了人工智能发展规划。对比之下,我国目前缺乏与人工智能快速发展完全相配套的法律法规。科技的不确定性加上法律制度的不确定性导致人工智能“危”“机”并存,我们在欢享人工智能发展给我们带来的“福利”等正外部性时,也要警惕其给我们带来的“危机”等负外部性,包括但不限于冲击现有的社会经济秩序、弱化法律的调整功能、增加社会管理主体的治理成本等,所以,要注意人工智能演化给现有法律关系带来的影响[2]。人工智能的良性发展能带动制度的进步,反过来合理的制度实现人工智能的价值。基于这种关系,本文拟从制度层面探讨解决人工智能负外部性的可行性方式。诸多负外部性是多种因素共同作用所导致的,而其中不容忽视的因素之一即为法律缺位和制度不足。从经济法视域来看,人工智能市场准入制度、人工智能市场监管制度、人工智能信息披露制度和人工智能主体责任制度大都存在不健全的情形。经济法律制度的不健全不但影响对约束人工智能负外部性的规范,甚至可能进一步加剧人工智能的负外部性。经济法的主要调整对象(包括市场主体规制法律关系、市场秩序规制法律关系、宏观经济调控法律关系和经济监管法律关系等),决定了其不可能对人工智能负外部性视而不见。因此,围绕人工智能负外部性的经济法规制亟需在法治框架下探讨以下问题:人工智能负外部性有哪些表现?其制度原因体现在哪些方面?如何完善经济法规制路径?本文在人工智能发展对经济法的需求以及审视经济法存在不足的基础上,主张完善人工智能市场准入制度、人工智能市场监管制度、人工智能信息披露制度和人工智能主体责任制度,以期为解决人工智能负外部性问题提供一些新的思路。
二、人工智能负外部性的影响及制度因素分析
1.人工智能及其负外部性的界定
人工智能(AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,是一门涉及计算机、信息科学、系统科学、控制论、语言学、认知学等多学科的综合性技术[3]。1956年,“人工智能”这个词首次出现在达特茅斯会议上,标志着其正式成为一个新的研究领域。关于人工智能的分类,有不同的划分标准和具体表现。目前科学界一般认为人工智能的发展可以分为弱人工智能、强人工智能和超级人工智能3个阶段;也有的将人工智能分为弱人工智能和强人工智能[4]。弱人工智能是指各种模拟人或动物智能解决各种问题的技术,包括机器人学、专家系统、人工神经网络等。强人工智能是指有自我意识、自主学习能力和自主决策能力的技术。波斯特姆在美国《连线》上提出所谓的“超级人工智能”,其区别于当前已经广泛应用的“弱人工智能”。据相关权威人士分析,中国人工智能研究在安保、金融、生物医学、能源、城市管理、交通管理等领域的应用非常关键[5]。在云计算、大数据、深度学习的孕育催化下,人工智能模拟和表现了人类的智慧力,并以高于人类的工作速度、优于人类的工作精度、胜于人类的工作态度,协助人类解决各种各样的问题[6]。然而,人工智能也同样给人类带来了各种棘手的问题,如个人隐私可能被侵犯,人身安全可能难以得到保障等。囿于篇幅和主题,本文主要探讨人工智能的负外部性及其经济法解决之道。
什么是负外部性?不同领域的研究角度不同,其定义也不尽相同。从经济学角度来看,外部性指未被市场交易所体现的额外成本或额外收益。区别于经济学对负外部性的定义,从法学角度上看,负外部性是指经济主体在行使权利时,表现为权利义务不对等以至于利益的失衡。具体而言,负外部性是一个经济主体在行使其权利时将本应该由自己承担的义务施加给其他经济主体[7]。最典型的负外部性例子就是环境污染。一个化工厂将本应该由自己处理的污水随意排放,无形中给周围其他主体施加了污水处理义务,造成两者之间的权利义务失衡。人工智能负外部性就是以人工智能为中心的市场生产、经营主体在行使其权利时将本应该由自己承担的义务施加给其他主体,由此引发的负面影响。人工智能是科技发展的结果,也是信息演进的结果。人工智能作为一项科学技术本该是中性的。但是,在实际的社会生活中,人工智能研发者、生产者和销售者垄断信息、无视数据风险,使得消费者和他们三者之间的权利义务失衡,此乃本文探讨的人工智能负外部性。归根结底,从经济法视域来看,人工智能负外部性是由于准入制度的匮乏、市场监管的低效、信息披露的不足和法律责任的模糊所造成的。为此,我们必须建立健全相关的经济法律法规。通过矫正和抑制上述各个主体的负外部性行为,各自的权利义务才能在合法范围内重新达到均衡状态。
2.人工智能负外部性的具体影响
(1)冲击现有的法律秩序
美国法理学家博登海默认为,秩序指“在自然进程和社会进程中都存在某种程度的一致性、连续性和确定性”。社会秩序是建立在一定经济基础上,以人为中心的动态平衡的社会状态,表征社会关系的稳定性、进程的连续性、行为的规则性以及财产和心理的安全性[8]。人工智能负外部性在这里则体现为冲击现有社会秩序的有序性、连续性和确定性,体现在增加法律制度风险和引发社会道德危机方面,从而加剧了人类社会未来发展的不确定性。
第一,挑战既有法律制度。制度风险指向制度结局或结果的风险,人工智能负外部性既冲击民法、刑法、经济法等正式制度,也冲击行业规范等非正式制度。作为社会秩序现实表现——社会结构功能的功能失调、反功能、潜功能的存在,预示着制度风险具体表现为功能失调、反功能和潜功能[9]。进入人工智能时代后,法律制度本身就存在滞后性而不适应新形势的情形。这就产生了法律制度的不确定风险。无人驾驶汽车的研发者、生产者、销售者目前均享受着国家政策的红利,但其享受的权利与承担的义务相对不匹配,其负外部性正挑战着我国现有的包括《中华人民共和国道路交通安全法》等在内的法律制度[10]。人工智能的负外部性破坏了法律调整对象的稳定性、规制方法的有效性、主体资格的确定性,进而使多个部门法出现重复规制或无效规制情形,由此增加法律制度风险发生的概率。
第二,引发社会道德危机。人与人、人与社会、人与自然之间存在不同维度、不同位阶的权利义务关系,而这来源于人类自身在发展过程中总结的善恶标准。人工智能时代,“人机关系”将跃升为新型关系。伴随着无人驾驶汽车的突然出现,空中无人机的普遍存在,以及自动化机器开始在更为复杂的情况下进入日常生活,诸如伦敦、哥本哈根的地铁系统[11]。而基于此,处于道德两难困境的伦理学家虚构的“失控电车案例”[12]代表了人工智能体道德在现阶段承受的全新挑战。人类社会目前已经存在恶意窃取别人隐私、诚信滑坡等显性问题,而弱人工智能体阶段的智能体因不存在显性道德约束机制和有效的法律约束机制,就更容易被有不良道德的人利用而从事损害他人利益或者公共利益等冲击社会秩序的行为。
(2)弱化法律的调整功能
由于资源的稀缺性、机会的不平等性、信息的不完全性和风险的不确定性,初次分配的结果一般都是不公平的[13]。因此,国家必须通过税法、财政法等宏观调控法来调整各类经济主体的初次分配结果,注重对信息主体权利义务的调整,进而强化法律对社会治理的调整。而人工智能的负外部性却在一定程度上对法律调整功能产生一定的冲击,即使这种冲击不一定产生直接的负面影响。
第一,弱化法律对初次分配的调整功能。我国现有的与社会主义市场经济相适应的初次分配制度还不完善,还不能完全适应市场经济的发展。人工智能的出现或许将使现有初次分配制度更难以发挥作用。与前几次工业革命不同的是,人工智能可能使得人类就业岗位呈现爆发性和彻底性的消失态势。麦肯锡的一项研究结论表明,在60%的不同职业中,会有30%的工作被机器所取代[14]。其另一项报告指出,到2030年机器人将取代8亿人的就业,而中国将面临最大规模(最多可达1亿人)的就业变迁[15]。因此,人工智能不仅会淘汰“工作岗位”,还会淘汰“工作技能”,故“无论你的领子是什么颜色,机器都会毫不留情”[16]。这就逼迫一些经济主体不仅要和其他经济体竞争,更要和机器人等人工智能竞争。不可否认,人工智能的研发、推广及应用会减少人类在驾驶员、保安等职业领域获得初次分配的机会,尤其是在重复性、标准化的工作中。而这部分人就业机会的减少使得其收入相应减少,但是生存成本却维持不变。原本应由个体承担生存成本的义务间接转嫁给了整个社会整体,再次分配制度不得不侧重维护这部分个体的权利而减少其义务。因此,从个体而言,就业机会的相对减少,生产和消费将可能出现不均;从社会整体而言,经济主体的初次分配将可能更加不公。
第二,弱化法律对信息主体权利义务的调整功能。在生产力发展进步的过程中,资金力量和人才储备雄厚的大企业可能很快即可实现自身的工业模式转型,并且享受技术革新的红利,而中小企业则可能因为自身实力不足而无力承担“极高的初创成本”,从而导致行业垄断的事实形成[17]。为适当解决信息主体权利义务严重失衡的问题,反垄断法等经济法律法规正发挥着不可或缺的重要作用。在人工智能、海量数据与产业日益深度融合的社会背景之下,数据量和准确度也必将成为影响社会分配的重要因素。与人工智能相关的生产者、经营者拥有的数据量越大,数据信息越准确,数据更新越快速,那么其越有获得更多社会初次分配成果的可能性。加之,我国在人工智能领域发展较早且具有垄断地位的企业占据着社会大部分信息资源,可能使其权利义务不匹配。在某种程度上,信息优势主体在人工智能信息方面的权利未变但义务实际上减少,使得权利与义务更加不匹配。经济主体本来就存在权利义务不平衡的问题,加上信息失灵的双重影响,人工智能的发展或许会继续拉大社会分配的差距,从而加剧现有信息主体权利义务不匹配的主要矛盾,降低法律对其的调整功能。
(3)增加社会治理成本
弗朗西斯·福山认为治理是政府制定和执行规则、提高公共服务的能力[18]。社会治理既包括政府提供的公共产品,又包括社会的自我服务。当代社会治理已突破传统的线性模式[19],政府主要依靠法律制度来实施社会经济治理,但是包括税法、反不正当竞争法、反垄断法等在内的经济法律制度大都具有天然的滞后性,无法及时对人工智能时代到来所产生的新现象、新问题做出及时有效的规制。进一步说,经济法律制度的制定者缺乏对人工智能的及时了解和提前谋局,使得法律不可能快速回应相关的社会治理的现实需要。由此可见,以法律为主要手段的社会治理本身就需要耗费很大成本。人工智能负外部性则增加了政府进行社会治理的成本,具体主要表现为:
第一,增加社会治理的信息成本。以信息不充分、信息不准确及信息不对称为主要表现的信息失灵直接增加社会治理决策主体的成本。决策者在对人工智能的信息掌握不充分时只能自行收集信息,这无疑会增加信息成本;当人工智能信息不准确或存在错误时,社会治理者则会耗费成本去判断信息真伪性。当前,信息拥有者可以被划分为3个层次:信息的绝对拥有者、相对拥有者和不拥有信息者。信息绝对拥有者将既有信息看作是自己的私有资产,阻碍其他主体对信息的收集和使用,进一步增加了信息劣势者获得信息的成本。同时,信息所有者基于隐私权保护之故也不愿意将自己的信息公之于众。如此,信息的不对称导致社会治理主体难以获得治理对象的有效信息。掌握人工智能优势信息主体权利义务的失衡或许会进一步加剧信息失灵,由于此类信息失灵,从而会增加社会治理的信息成本。
第二,挑战社会的法律治理模式。人工智能以大数据为基础,以深度学习的方式不断进行自我学习和自我突破。人工智能的出现使得法律的调整对象变得更加复杂。在某些方面,人工智能已经远远超过人类的能力,非现有的法律调整方式可以规制。以经济法为例,我国当前的《中华人民共和国产品质量法》不能完全有效地解决基于人工智能产品产生的法律纠纷。虽然不能把传统治理模式的不适应和转变看成人工智能的负外部性,但事实上这在某种程度上加剧了人工智能的负外部性。因此,人工智能正挑战着原有基于法律的社会治理方式、程序和手段。权利义务不匹配的传统经济社会治理方式和程序不仅不能有效地解决人工智能负外部性,而且可能使人工智能负外部性愈演愈烈,从而增加潜在的社会治理成本。
3.人工智能负外部性的经济法检视
人工智能在本质上是科技发展的结果。现实中不健全的法律制度在某种程度上“诱使”了人工智能负外部性的溢出,引发了人们对其安全问题的普遍担忧。考察现行有效的经济法律制度,可以发现只有《中华人民共和国中小企业促进法》这1部法律对“人工智能”进行了粗略的规定(第33条)。随着人工智能对社会经济关系的影响日益深入,以市场主体规制法律关系、市场秩序规制法律关系、宏观调控法律关系和经济监管法律关系等为主要调整对象的经济法,无疑发挥着激励人工智能正外部性与解决人工智能负外部性的关键作用。“蓬勃发展的人工智能产业尤其需要经济法的有效规制……对于其消极效应,应加以限制或禁止”[20]。但问题是,现有相对滞后的经济法难以有效解决人工智能的负外部性。所以,有必要从经济法视域来检视人工智能负外部性产生的具体原因。
首先,基于经济法立法思维缺陷视角的分析。引起解决人工智能负外部性的经济法供给不足的因素之一即为经济法立法思维的供给不足。反过来,经济法立法思维的缺陷又可能使人工智能负外部性进一步加剧,进而导致人工智能负外部性难以有效地受到现实经济法的规制。现行的经济法渗透着单向度和滞后性的立法思维,没有对将来可能发生的人工智能问题作出该有的前瞻性和预判性的因应,如当人工智能产品侵害消费者的合法权益时,人工智能本身是否应承担法律责任。因此,如果经济法的立法思维跟不上人工智能的发展速度,必然无法有效解决人工智能负外部性问题,而只会进一步导致分配不公平、信息不平衡、秩序不稳定等社会问题。
其次,基于经济法适用领域视角的分析。现有经济法不是因人工智能而生,因此不会、也不可能完全适用于规制人工智能。而问题在于,对人工智能能进行有效规制的经济法尚处于缺位状态。例如:不完善的人工智能市场准入制度使得部分市场主体无法进入人工智能领域,从而导致市场竞争不足,最终会出现社会初次分配不公平的负外部性;不健全的人工智能市场监管制度无法适用到人工智能领域,也无法抑制人工智能负外部性;不健全的人工智能信息披露制度,使得原有的信息不对称的负外部性更加突显;不清晰的人工智能市场主体责任制度可能导致人工智能相关主体出现系统性规避责任的情形,如当服务型机器人对第三人侵权时,不论是机器人、所有者、销售者、生产者还是研发者都可能出现相互推诿法律责任的情形。
三、人工智能负外部性经济法规制的路径选择
法律作为控制社会的主要手段,对历史发展的影响绝对不亚于历史发展对法律的影响[21]。对于人工智能的目前现状来说,立法宜粗不宜细。人工智能涉及众多社会关系,不可能由某一部具体的法律就可以进行有效的规制,而只能由多个法律部门共同调整,最大程度地发挥各个部门法规制的边际效应,保障人工智能朝着有益于人类安全的方向发展。在鼓励人工智能发展的当下,立法应当树立开新意识,以发展开放的思维为指导,以中立审慎的态度持续推动经济法对人工智能负外部性的规制进程。从经济法视域来看,当前应该重点完善人工智能的市场准入制度、市场监管制度、信息披露制度和主体责任制度。
1.完善人工智能市场准入制度
人工智能市场准入制度是国家为了克服人工智能市场失灵而实施的、依据一定的规则允许人工智能市场主体进入具体人工智能市场的干预制度。根据人工智能的不同发展状态和阶段,人工智能市场准入宜相应地灵活选择适用放松规制、强制规制和综合规制方式。由于人工智能涉及不同行业和领域,而且对立法需求程度不一,因此没有必要建立统一的市场准入规则。建议可以根据人工智能在该领域的特征予以单独立法,具体可以从准入主体制度、准入范围制度和准入程序制度进行完善,以解决人工智能的负外部性。
(1)完善人工智能市场准入主体制度
从市场准入主体制度上抑制人工智能负外部性是一个极具有实践操作性的路径选择。人工智能市场准入主体制度解决了哪些市场主体可以进入该市场的问题,进而可以避免由于不当进入人工智能市场引起的人工智能负外部性强烈冲击现有法律和社会秩序的情形发生。从现行的法律来看,市场准入的主体一般是法人、其他组织和个人。对于一般的人工智能市场,只要符合法律的一般性规定,即法人、其他组织和个人都可以进入。为激励人工智能的正向发展,这种人工智能市场准入主要有赖于民商事法律制度的宽泛确认。而对于经济性市场、社会性市场和垄断市场等特殊人工智能市场,如类脑研发、高级医疗智能器械等,立法应该制定更高的市场准入标准(参见表1)[22],以保证现有企业的正外部性供给即鼓励公共产品的生产。如此一来,人工智能市场主体资格的明确可以有效地减少“经济人”带来的道德危机。
人工智能所依赖的大数据可分为公共数据库和私人数据库。政府主要承担公共数据库资料的收集以及接口的完善,一般市场主体都可以进入公共数据库,同时要求使用公共数据的主体进行时进行即时电子化登记。涉及国防、金融安全等敏感数据的使用时,相关主体需要到实体经营所在地获得许可并且备案,便于人工智能监管主体进行常规检查和临时抽查。这样既可以有效保证一般市场主体在同等条件下进入并进行市场竞争,防止带来社会初次分配不公,又可以降低社会治理信息成本。
(2)完善人工智能市场准入范围制度
符合国内人工智能一般市场准入主体资格的,除非按要求需强制行政许可外,市场主体可以根据法律规定自由进入人工智能交易市场,以实现自由交易和人工智能资源共享。对于国内经济性市场准入、社会性市场准入和垄断性市场准入,除非法律有明确禁止性规定,立法应该允许部分主体先进入适当的人工智能市场领域。在法律允许的范围内,人工智能市场主体应当积极提供就业岗位。这样可以有效解决就业机会减少带来的负外部性,进而化解社会分配不公导致的矛盾。
充分的国际合作为我国有效应对人工智能国际市场的负外部性营造了有利的环境。人工智能立法不仅要建立科学合理的国内市场准入制度,更应该加强国际合作。在国际人工智能市场准入方面,应当尽快完善《中华人民共和国对外贸易法》等配套法律法规,如《中华人民共和国对外贸易法》第十六条第四款规定:“国内供应短缺或者为有效保护可能用竭的自然资源,需要限制或者禁止出口的”,应当动态调整并且及时公布限制进出口的货物、技术项目。我国应当积极加入国际性人工智能协会,主动参与人工智能市场准入规则的制定。通过划定国内人工智能一般市场、特殊市场以及国际人工智能市场准入范围,使得某一个具体的人工智能市场主体能够准确找到对应的市场领域。这样,人工智能研发者、生产者和销售者既能减少不必要的要素支出,又能从侧面降低人工智能市场负外部性。进而,抢抓人工智能之“机”即激励其正外部性和转化人工智能之“危”即解决其负外部性。
(3)完善人工智能市场准入程序制度
要解决人工智能市场准入法律问题,准入程序是关键环节。人工智能市场准入程序应当根据人工智能市场的准入范围而灵活构建。除了法律规定的保留事项之外,应当对我国现行的500项行政审批项目进行仔细筛查与分析。对于其中确需行政审批的人工智能项目,应当继续实施强制许可制度;对于不适宜保留的行政许可则可以改为普通登记备案。同时,我国法律应当鼓励人工智能市场相关主体主动申请备案,例如法律可以对主动备案的市场主体简化准入程序环节并给予政策优惠等激励。一般的人工智能附属产品可不经审批或者登记备案直接推广使用及自由交易。这样,主动优于被动的准入程序制度就能发挥其激励功能,有效抑制人工智能市场主体准入程序中的负外部性。
涉及社会型、经济型等特殊人工智能市场,我国应当实施特殊强制许可制度。即使符合准入资格的人工智能市场主体,也必须经过相关审核主体的最终审核才能进入特殊人工智能市场。同时,严格规范这种类型的人工智能市场主体的准入程序,严格禁止不符合法律规定硬性指标的市场主体进入特殊人工智能市场。同时,宽松的一般准入程序与严格的特殊准入程序相辅相成,不可随意变更。另外,建立健全人工智能市场准入分流程序制度,提高人工智能市场准入制度的规制效率,也是解决人工智能负外部性的有效路径之一。
2.完善人工智能市场监管制度
所谓市场监管,是指市场监管主体对市场活动主体及其行为进行限制、约束等直接干预活动的总和[23]。我国《“十三五”市场监管规划》对人工智能市场做出的整体监管规划,给广大市场主体一个清晰的信号和稳定的预期。综合监管与行业领域专业监管、社会协同监管分工协作、优势互补、相互促进的市场监管格局对于解决人工智能负外部性具有非常重要的意义。在上述法律监管之下,政府应鼓励企业在法律允许的范围内发展人工智能产业,主动内化人工智能发展过程中的负外部性。因为法律监管既涉及制度风险的消解和道德危机的化解,又涉及社会治理成本降低和社会公平的维护,所以,我国更应该注重人工智能监管体系的建立健全。
(1)完善人工智能行业的监管制度
电气类专业(包括电气工程和自动化等相关)就是关于电气控制方面的专业;专业的目标就是怎么让机器自动运行,就是人们常说的“智能化”,机器能够自己根据环境变化调整工作。PS:电气并不是电器,它包括了所有的用电的设备。这个概念相当的广泛,只要是用电的就是电气,只要是用电控制的就是电气控制。在某些层面上看,电气工程的先进水平暗示着我国的科技发展水准。所以,电气工程的有关教育与相关工作的展开一直被视为重中之重。
(2)完善人工智能多元化监管制度
建立具有可操作性的多元化、综合性预防监管体系,有助于降低新型制度风险带来的人工智能负外部性。综合性预防监管体系需要实行多元化的法律监管制度,而监管方式又是监管制度中不可或缺的重要组成部分。现有法律监管的主要方式涉及取缔营业执照或资格、要求缴纳保证金、纳入负面清单和交纳保险等。但现有监管方式并不能直接运用到人工智能领域的监管。人工智能监管制度的主要目的是防范人工智能的风险,而风险主要来自两个方面:产品本身的风险和制造者的风险。针对制造者产生的风险,可以继续沿用传统的监管方式;而对于人工智能产品产生的风险,可以在传统监管方式的基础上,尝试性采用预先强制性认证、保险等。例如对于无人驾驶机动车,可将汽车的销售与责任保险捆绑在一起,保险费则依生产商、汽车类型、所有者或者使用者的情况来定[24]。使用者和保险方则可以对“无人驾驶汽车”这类人工智能产品进行外部性监督,这样就可以在一定程度上解决人工智能负外部性。另外,还需要创新人工智能的监管模式,即充分利用人工智能企业的技术和数据分析优势,积极开展合作,不断强化事中事后监管[25]。还可适当赋予人工智能自治组织自治权,允许人工智能协会或者行业组织积极建立统一的监管标准和行业道德标准,从而引导人工智能企业在符合人类整体利益和道德伦理基础上,研发和应用人工智能技术。
3.完善人工智能信息披露制度
法律不仅为私人经济活动,也为国家对经济的干预设定规范,既提供渠道又施加限制。信息披露制度是经济法规制人工智能负外部性的重要内容。拓宽人工智能的信息披露渠道是人工智能相关者获取关键信息的重要途径,也是降低人工智能信息失衡负外部性不可或缺的重要一环。要使人工智能负外部性透明化,健全与人工智能相关的信息披露制度无疑是经济法解决人工智能负外部性必须考虑的关键问题。因此,随着大数据的广泛传播,我国有必要出台专门的人工智能企业信息披露制度。
(1)确立人工智能信息披露原则
社会整体利益要求义务主体合法披露人工智能产品的即时信息,即告知社会公众人工智能产品的操作方法、产品参数等信息。人工智能信息的披露义务主体必须在信息披露原则的指导下,以合适的方式披露人工智能产品有关信息来保障社会公众的知情权。社会公众一旦有完整准确的人工智能产品信息,那么其就有更多机会监督人工智能企业。人工智能信息披露原则主要包括及时性原则和真实性原则。第一,及时性原则。人工智能信息披露的首要原则就是及时性原则,这根源于人工智能信息的快速传播。人工智能的特殊性要求相关义务主体披露的信息必须完整及时,以解决人工智能信息不及时的负外部性。在借鉴银行监管的及时性要求时务必明确,只有及时的信息才具有法律监管的相关性,因此应该以足够的频率和及时性提供信息。第二,真实性原则。人工智能信息披露义务主体应当基于对人类整体安全真实披露涉及的真实数据。研发生产人工智能相关产品的主体都是信息披露义务主体,披露的信息必须与人工智能实际使用的参数一致,不得虚假记载、误导和欺骗。同时,政府作为人工智能主要的监管主体,务必将人工智能的基础信息准确告知社会公众。
(2)建立人工智能信息分类披露制度
可以将人工智能相关的产权信息、研发信息等按照一定的可以分为一般信息和特殊信息,法律应当明确规定这两类信息各自的披露义务主体、披露内容和披露程序。信息披露义务人可以定期披露特殊信息,但是对一般信息则必须履行连续披露义务。比如无人驾驶汽车的智能技术备案属于一般信息,生产厂商应当在机动车进入消费市场后连续披露相关参数。按照人工智能涉及的信息与社会价值、环境价值、经济价值的重要性,可以将其分为3层(如表2所示)[26]。按照这3层信息涉及的信息拥有者来设计分类分层的信息披露制度。
基础信息具有广泛性、全面性的特点,而且带有“公权”色彩,该部分主要由政府、政府组织和非政府组织收集,具有一定公共性。针对第一层信息,政府可以建立公共数据库,明确政府和非政府组织的披露义务。第二层信息的拥有者在一定程度上带有“经济人”性质,如算法等关乎商业秘密的核心信息不必主动向社会公众披露,但是应当建立严密的资料信息库。第三层信息的披露义务主体是各类营利性组织,允许其保留核心信息,但涉及人工智能使用者的产品参数、操作方法等应当标注清楚。通过要求不同的信息拥有者从不同程度按照法律法规的要求进行信息披露,从而达到分层解决人工智能系统信息失衡负外部性的目的。
4.完善人工智能主体责任制度
弱人工智能引发的法律责任是其负外部性所致的最终结果,实质上仍然是人类的法律责任,大部分类似于当前的产品质量责任或产品侵权责任。因此,明确各主体的法律责任是维护社会公平秩序,优化社会治理模式的最后一道防守线。强人工智能基于深度学习和大数据能独立做出决定,这使得社会主体很难识别法律责任主体。所以,关于强人工智能的责任分担问题,我国首先应当借助既有的法律制度,同时前瞻性地对部分内容进行调整以应对人工智能的发展之需,待到条件成熟后再建立全新的系统的法律规则体系,从法律责任的分担规则上真正解决强人工智能的负外部性。
(1)完善弱人工智能责任制度
弱人工智能的责任分担类似于产品质量责任或产品侵权责任。首先需要明确相关主体的法律责任分担,以便保障受损消费者的合法权益和维护人工智能市场的良好秩序。现有的人工智能技术大部分规定是依附在具体的实物上,即为实物的构成部分,因此可将其法律责任的分担视作产品质量责任的分担。现行的《中华人民共和国产品质量法》大部分是对生产者和销售者的义务性规定,该部分规定可以继续适用。在归责原则上,对生产者仍然可以继续适用严格产品责任原则,而对销售者适用过错责任倒置原则。销售者在对销售附有人工智能技术的产品进行举证时,法律不应该太严苛,只要符合一般人的产品注意义务即可。是否有必要将独立的研发主体纳入产品责任原则的适用体系中,需要进一步的探究。另外,笔者认为立法上可以考虑将人工智能侵权作为独立的侵权形式补充到《中华人民共和国侵权责任法》中。若与《中华人民共和国产品质量法》重合,则采用特殊法优于普通法方式来确定最终适用的法律法规。在责任的承担方面,可以继续沿用《中华人民共和国民法总则》第一百七十九条的规定,而违反刑法的,还应当承担相应的刑事责任。
(2)建立强人工智能责任制度
强人工智能虽然并没有完全出现于当前社会中,也没有弱人工智能阶段的社会关系复杂,但它客观上形成了部分需要法律调整的特殊社会关系。因此,对强人工智能发展过程中可能产生的负外部性,立法者在分配法律责任时,应当坚持下列原则:一是立法者应当保持一定的克制,不宜仓促地出台法律以免阻碍智能制造的动态发展,毕竟人工智能产业属于国家发展战略而不是一般产业;二是严格责任或者连带责任的适用与否必须在考虑人工智能对经济影响的基础上进行进一步的论证,即初期应当有所限制,甚至在必要时可以选择适用产品质量责任之发展风险抗辩制度;三是智能制造网络的参与者必须可以被识别,这是判断合适的责任承担者的前提和基础[27]。为了人类社会的长远发展,立法应当根据本阶段人工智能负外部性的实际情况,可以在法律上将人工智能主体拟制为限制行为能力人以承担相应的法律责任。这种行为归责类似于将公司拟制为独立的法人主体行为。还可以用法律形式为高级阶段的人工智能体创设监护人(比如使用者)。若发生人工智能体对监护人侵害权益时,监护人是否可以直接适用既有的产品质量责任,这有待于深层次探讨。如果人工智能体实际发生对监护人以外的第三人侵权时,先规定主要由监护人承担法律责任。当监护人无力承担法律责任时,限制或剥夺该人工智能体的自由可能也是一种可行的法律责任承担方式。这样就从责任分担上解决了强人工智能负外部性。
四、结论
人工智能不仅是科技创新,更是第三次工业革命核心技术驱动力的科技革命。人工智能既给人类社会带来新机遇也带来新挑战,因此,人工智能的不确定性导致其“危”“机”并存。发展人工智能时成果与代价同在,利益与风险并存。弱人工智能应用和产业已经在多个领域取得重大发展。根据目前的发展态势,强人工智能时代也可能快速来临。我们应当以开放的心态、审慎的态度正视智能革命时代的到来,在享受其带来的正外部性时也应当透彻分析和解决人工智能的负外部性。因此,为抢抓人工智能之“机”即激励其正外部性和转化人工智能之“危”即解决其负外部性,需要完善的经济法进行因应。