1939年,乔治·威尔斯73岁。有一天,他在参加一个招待会时独坐一隅,静静沉思。他的好友问他:“你近来在干什么?”他说在给自己写墓志铭,一句很短的墓志铭:“上帝将要毁灭人类——我警告过你们。”
时至今日,随着人工智能(AI)技术的飞速发展,这位以预言精准闻名的科幻作家所做的最后警告也越来越多地被人们想起。同时,史蒂芬·霍金、比尔·盖茨、伊隆·马斯克等国外科技界杰出人物频频发出对人工智能的忧虑,引发人们对相关伦理、法律和社会问题的高度关切。
实际上,人工智能的发展,现在正面临拐点,在其失控前把握方向已成为当代人不可回避的责任。
失控危险
虽然人工智能目前还处于弱人工智能的阶段,但因其具有长期积累、短期爆发的特点,所以强人工智能时代很可能不期而至。展望未来,360公司首席安全官谭晓生认为,“人工智能必将会进入一个越来越快的发展轨道,而且很可能会失控。”
谭晓生是长安汽车的独董。最近,他去参观长安汽车的工厂时,发现焊接工人已经不多了,大部分都已被机器所替代,喷漆的生产线则全部都已是机器人。“我和厂里的领导聊天的时候,他们告诉我,如果一条产线用机器人来替代人,其成本 12~15个月可以回收的话,就可以考虑了,而事实上3.5-3.6个月就可以把投资成本全部收回。”
此前,麦肯锡发布有关人工智能的报告称,全球约50%的工作内容可以通过改进现有技术实现自动化。在上海交通大学科学史与科学文化研究院院长江晓原看来,“让很多蓝领工人和下层白领失去工作岗位”正是人工智能带来的近期威胁之一。与此形成反讽的是,研究人工智能究竟能取代多少就业岗位这一问题本身已经变成了一种职业,好多人已以此为生。
“我们不能‘养虎为患’。如果不对人工智能的发展予以规范的话,我们未来将面临人工智能的反叛和失控,甚至会因它的发展而消解人类生存的根本意义。”江晓原说。
4月13日,中国科学院科技战略咨询研究院与腾讯研究院联合主办了“2017人工智能:技术、伦理与法律研讨会”,汇聚了来自中科院、社科院、复旦大学、华中师范大学及上海纽约大学等多家学术机构的科技专家和社科人文学者,以及腾讯、阿里巴巴、英特尔等企业界的技术和法律专家。中国科学院科技战略咨询研究院院长潘教峰指出,“人工智能发展前景广阔,但与此同时,它模糊了物理现实、数字和个人的界限,衍生出了复杂的伦理、法律和安全问题,需要我们提前布局,审慎应对。”
腾讯研究院院长司晓认为,与国外相比,我国对从社会科学角度探讨人工智能的发展还不够重视,当天的研讨会可谓“正逢其时,是一个好的开始。”
何以复杂
“火车正在急速行驶,不能急停,而正前方有一分叉路轨,左边有5个小朋友在铁轨上玩,而右边则有一个小朋友在玩。假如你是扳道工,你会不会把火车板向右边?”这是中科院虚拟经济与数据科学研究中心研究员刘锋在研讨会上提出的一个问题,其折射的是人工智能所面临的伦理选择与困境之一。
中国社科院哲学研究所研究员段伟文认为,探讨人造机器时有一个核心的问题是,“它能够比人更道德吗?”他的结论是,在感性、智能、自由意志等某个方面可能存在缺陷的机器人,其道德能力很可能和普通人一样,也就是说,“智能机器不可能比人更道德。”
他指出,现在的智能机器实际上是资本、知识和权力结构下的产物,所以只可能是有利于资本、知识和权力的最大化。因此,我们需要有一种对抗性的设计,即体现公民权利、人的权利的设计。
随着人工智能技术的发展,人的尊严和地位遭到了威胁和动摇。法国皮卡第儒勒-凡尔纳大学副教授柳渝认为,正是在此意义上人工智能的伦理学问题成为了当前的焦点,一线科学家不得不对此作出回答。
“人工智能平台上的伦理学基础问题实际上是把人机之间的技术关系提升到了伦理关系,这对哲学及伦理学来说都是相当严峻的考验。”柳渝认为,人机的伦理关系是人工智能伦理学中最根本的问题,而这种关系最终取决于对人的意义、价值和地位的理解。“实际上,这是一个最古老、最深刻的哲学问题,也是中西方哲学思想中根本的问题。”
而解决这一问题的前提是,“我们要对生物进化的方向与目标形成共识。”刘锋说。
跨越边界
今年以来,美国政府连发三份AI报告,其中提出了美国国家人工智能战略,包括理解并解决潜在的法律、道德和社会等影响。英国政府则连发两份AI报告,呼吁重视并研究AI伦理与法律问题。种种迹象表明,AI的伦理问题日益突出,发达国家政府已开始对这一问题给予相当多的重视。
与此同时,国外民间机构也开始采取行动。2016年12月,电气和电子工程师协会(IEEE)推进《以伦理为基准的设计》的制定,面向全球征求意见。其主旨在于鼓励科研人员在AI研发过程中,优先考虑伦理问题,将人类规范和道德价值嵌入AI系统。
针对这一现状,中国科学院科技战略咨询研究院学部科学规范与伦理研究支撑中心研究员李真真指出,“我国的人工智能技术可谓与世界发达国家‘同步’,但伦理和法律研究则严重滞后,这会制约我们未来的发展。”
究其原因,李真真认为,主要是“我们的人文研究和科学技术分离,企业界和学术界分裂。”
而要解决问题,李真真认为,首先要跨越边界,构建对话平台,让科学技术专家和社科人文学者对话,让学界、企业界、政界与公众对话,加强技术、伦理和法律问题的研究合作。
她倡议,中国的学术界和企业界共同建立一个AITEL(人工智能技术、伦理和法律)联盟和联合实验室,共同推进我国人工智能领域的健康发展。