人工智能之后,人类的结局

时间:2022-07-21 07:20:57

人工智能之后,人类的结局

图/GETTY

>> 人工智能之后,人类的结局 论人工智能与人类智能的关系 人工智能的威胁 人工智能的忧思 人工智能的未来 人工智能的江湖 人工智能的黎明 《人工智能的未来》 人工智能会不会威胁人类? 人工智能超越人类会如何 人类智慧vs人工智能 人工智能2.0与人类命运 是人工智能还是人类公敌 人工智能会战胜人类吗 人工智能的应用和超越人类 人工智能与人的智能 探讨人工智能与人类智能 人工智能是否终将超越人类智能 简述人工智能与人类智能 可调戏的人工智能 常见问题解答 当前所在位置:中国论文网 > 艺术 > 人工智能之后,人类的结局 人工智能之后,人类的结局 杂志之家、写作服务和杂志订阅支持对公帐户付款!安全又可靠! document.write("作者: 本刊编辑部")

申明:本网站内容仅用于学术交流,如有侵犯您的权益,请及时告知我们,本站将立即删除有关内容。 图/GETTY

人工智能就是科幻电影里的那些玄乎的未来吗?

人工智能听起来总让人觉得是科幻未来派常常谈到的那些神秘存在,即便生活日新月异,却很难想到人工智能已经是身边存在的现实――人工智能更像是一个从未被实现过的流行概念。那么我们来看看:

什么是人工智能?

关于人工智能的定义,一直存在诸多争论。第一个提出这个词的是计算机界的诺贝尔奖――图灵奖的获得者约翰・麦卡锡,在1956年的达特茅斯会议上,他对人工智能的定义是“制造智能机器的科学与工程”。维基百科关于“人工智能(Artificial Intelligence, AI)”的词条将对它的定义划分为四类:机器“像人一样思考”“像人一样行动”“理性地思考”和“理性地行动”――这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。

人工智能分“强”“弱”:在一个叫WAIT BUT WHY的网站上流传出一篇文章《The AI Revolution: The Road to Superintelligence》,知乎用户@谢熊猫君把它翻译成了中文。里面提到,弱人工智能是擅长于单个方面的人工智能。比如有能战胜国际象棋世界冠军的人工智能,但是它只会下国际象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。强人工智能则是人类级别的人工智能,真正能推理和解决问题的智能机器,并且,它们有知觉,有自我意识。强人工智能在进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作时和人类一样得心应手。然而,创造强人工智能比创造弱人工智能难得多,以现在的科技发展水平,人类还创造不出强人工智能。

还有一种超越了前二者的是超人工智能: 牛津哲学家、人工智能思想家Nick Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑聪明很多,包括科学创新、通识和社交技能。”这个距离我们的生活就更远了。

人工智能并不是一个遥远的事情,我们现实生活中正在应用着许多弱人工智能,只是我们还没有意识到。不少人认为,人类其实已经掌握了弱人工智能,我们正处在一个弱人工智能无处不在的世界。

生活中的已经发生的弱人工智能,你可能还没意识到……

这些文艺作品中的人工智能可能就要实现……

科幻小说家查理 ・ 简 ・ 安德斯在他的一篇文章中写道,许多经典科幻文艺作品中的人工智能构想可能就要实现。

动画片《辛普森一家》

这部动画片的主创萨姆 ・ 西蒙在3月8日刚刚离世。他让这部经历26个年头、美国历史上最长寿的动画片又回到人们的视野。《辛普森一家》中的未来恐怕是人们见过的最经典的乌托邦世界了。故事发生在公元2062年,一个人人都是中产阶级的天堂。安德斯说:“很明显,这是一个后稀缺社会。美国的制造业不仅仍然存在而且朝气蓬勃,乔治只需每周工作9个小时便能养活他那当家庭主妇的老婆、两个孩子和一条狗。这里的人们生活在摩天大楼里,用私家火箭上班。”

成真理由:我们已经部分具备了修建“智能房屋”的建筑能力。唯一存在的问题仅仅是我们到底能修多高,但是毕竟我们已经掌握了这方面的技术。然而,飞行车的实现我们还差得很远,但一些已经上市的概念车也与它越来越接近。“飞行车的出现对于社会安全亦存在威胁。在地面上驾车的酒鬼就足以撞死人和撞倒电线杆了,一名醉驾者在空中横冲直撞将会多么可怕?只怕会撞向电力变压器或者撞毁摩天大楼。”

游戏《超人类空间》

这款于2002年出品的角色扮演类游戏将时间设定在2100年,在之前21个世纪中,人类在信息技术、基因工程、纳米技术和核物理方面都取得了卓越的成就。在《超人类空间》中,“中国是第一个殖民火星的国家,在月球、拉格朗日点、所有太阳系带内行星和土星的部分卫星上已经有了永久居住的人类。我们已经找到了治愈癌症和艾滋病的良方,臭氧层空洞已经被修复,地球的生态系统开始重新呈现一副欣欣向荣的景象。通过对基因的操控,单身汉、同性恋伴侣甚至能将三人或三人以上的遗传基因植入一具胚胎当中,更能对胚胎进行改良。你还可以将自己的意识备份到磁盘之上,这项工程被称之为‘意识上传’。”

成真理由:在该游戏的设定里最诱人也最难实现的就是“意识上传”,在英剧《黑镜》中也反复提到它。而在《超人类空间》的世界里,另一项很重要的技术便是基因工程的运用,在产前基因测试方面我们现在也取得了一定成就,在未来实现对胎儿进行改良并非遥不可及。

小说《她乡》

这部由夏洛特 ・ 珀金斯 ・ 吉尔曼于1915年完成的女权主义小说。在遭遇火山爆发以及奴隶暴动之后,这个世界只剩下了女性。此后不久,便发生了一件基因学上的奇迹,五名不同的妇女分别发现自己怀孕了。其结果便是出现了“一个战争、冲突和威权皆不复存在的完美社会”。

成真理由:安德斯写道:“迄今为止,在哺乳动物中还未出现过单性繁殖(或无性繁殖)的先例。然而,在蛇类、科莫多巨蜥以及其他爬行动物当中存在为数不少的‘孤雌生殖’现象。与此同时,两只雌性哺乳动物之间也能在实验室内培育出后代。在日本,一只名为Kayuga的老鼠便是两只母老鼠的后代。”当然,从目前对无性繁殖进行的研究上来看,女性单性繁殖似乎还距离我们很远。

小说《钻石时代》

这又是一个后稀缺社会,和《辛普森一家》很像。书中每个人都能获得免费的食物和资源配给,还有一座勉强能称之为中央能源电网的设施,被人称为“给养站”,由某个宗族所掌控,宗族在小说中类似于某种意义上的国家。小说中三个真实世界的纳米技术科学家出现在一幅壁画里。故事发生的时间范围比较模糊,安德斯揣测,应该是在一两个世纪之后的未来。

成真理由:“小说中的后稀缺世界似乎存在某种基于纳米科技的类似复制器的仪器。其本质实际上是基于现实社会当中的纳米工厂的分子级装配器。2001年的时候,亚瑟 ・ C ・ 克拉克曾预言这项技术将在2040年之前出现,他同时也预言将会出现克隆人。”而小说中出现的那些个性化的报纸,和现在的平板电脑基本差不多。

电影《回到未来2》

《回到未来2》里描述的2015年的世界,其本质只是夹杂了一些高精尖玩意儿的80年代的翻版。安德斯说:“在那个美好的80年代版本的未来世界里,很多东西现如今已经实现。比如无所不在的监视摄像头、亚洲文化输出、宽频电视、整容手术的大范围流行以及不需要手或是传统摇杆进行操控的电子游戏,等等。”

成真理由:《回到未来2》中的许多东西现在仍然没有实现,但毕竟我们现在已经拥有了悬浮滑板!2014年美国加州技术公司Hendo已造出了实物,虽然它只能离地大约一英寸(2.54厘米),而且即使这么低的高度也必须是在导电材料如铜质或铝质的表面才行。电池的续航时间为15分钟―这点时间几乎不够像电影主人公那样从敌人身边快速逃离。

人工智能将带给我们怎样的结局?

最近的一个大事件是百度公司创始人李彦宏在“两会”上提出设立“中国大脑”计划的提案,希望以此推动中国整体创新水平的提高。他说的“中国大脑”其实是做一个“人工智能的基础设施”,即在智能医疗诊断、军事和民用机器人技术等领域,建立相应的服务器集群,支持有能力的企业搭建人工智能基础资源和公共服务平台,“让大家在这个大平台上进行各种各样的尝试和创新”。

2014年在清华用中文演讲的Facebook创始人扎克伯格直言,未来科技的主流将是人工智能以及虚拟社交。

谷歌CEO拉里 ・ 佩奇认为,人工智能将会在人类未来社会中扮演重要角色,而且势必引起两个变化:1.大部分工人的工作被人工智能取代(约90%),而这些工作往往并不是他们原先想要去做的事情(仅仅为了养家糊口的那些事)。2.人工智能会让生活成本大大降低,但是越来越多的工作要求创造性智慧、社交技能和利用人工智能技术的能力。

曾发明了盲人阅读机、音乐合成器和语音识别系统的谷歌技术总监雷 ・ 库兹韦尔也曾表示,2045年人工智能将会超过人类水平。

特斯拉汽车创始人马斯克在麻省理工学院航空航天系2014百年纪念座谈会上,直接将恶魔与人工智能画等号―马斯克曾将研制自治可思考机器的做法描述为“召唤恶魔”。他疾呼:人工智能比核弹更加可怕,人类可能自行毁灭。

斯蒂芬 ・ 霍金一向持有人工智能将毁灭人类观点,他曾说,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”霍金说:“它(人工智能)能够自行发展,并且以从未有过的速度重塑自我,而人类受限于缓慢的生物进化,无法与之抗衡而终将被替代。”

走在最前沿的科技界,无论新秀还是大佬,都绕不开人工智能的话题。近年来,不少严肃的科技大佬都在公开场合表达了他们对人工智能的看法。自动驾驶汽车、智能安检员、机器人同事……这一切可能性虽十分美妙,但不可否认,它们也给人带来恐惧。

不久前,与霍金、马斯克站在同一立场的这群科学家和企业家通过非盈利机构“未来生活研究所”公开信,再次提醒人们警惕人工智能的过度发展,人工智能对人类构成的威胁甚至可能超过核武器。他们警告世人,如果智能机器缺乏监管,人类将迎来一个黑暗的未来。信中指出,科学家需要采取措施,避免人工智能研究出现可能导致人类毁灭的风险。

从弱人工智能,到强人工智能,最终到达超人工智能还有很远的路要走。在这段旅途中,人类也许将获得永生,也许无法生还,但无论如何,世界将会改变。霍金说:“尽管我们可能正面临人类历史上最好或是最坏的时代,但如果做一些严肃的研究或许将会有所帮助。我们所有人都应该问问自己,我们应该做些什么才能最终趋利避害。”

上一篇:《伦敦新闻画报》中的晚清三十年 下一篇:酣睡的沙孜湖