物联传媒 旗下网站
登录 注册
RFID世界网 >  新闻中心  >  物联网新闻  >  正文

用人工智能来增进人类福祉?你太天真了

作者:物联网世界采编
来源:中信出版社
日期:2015-07-20 14:22:55
摘要:机器不只主要威胁到相对常规、重复性或可预见的工作,它现在几乎能够做到一切。当然,这意味着几乎没有人将能从工作中获得收入。从资本或从机器的所有权中获得的收入,将集中在少数精英的手中。消费者将没有足够的收入来购买所有智能机器所创造的产品或服务。

  超级智能和奇点

  2014年5月,剑桥大学物理学家史蒂芬·霍金写了一篇文章,发出了人工智能迅速发展的危险警报。在英国的《独立报》(The Independent)上,霍金以及其他的合著者,包括麻省理工学院的两位物理学家马克斯·泰格马克(Max Tegmark)和诺贝尔奖获得者弗兰克·维尔切克(Frank Wilczek),以及加州大学伯克利分校的计算机科学家斯图尔特·罗素(Stuart Russell),一起写文章警告说,创建一台真正能思考的机器“将是人类历史上最大的事件。”一台超出人类智力水平的计算机可能会“超越金融市场,超越人类研究者的发明,超越有控制能力的人类领导者,研发出一些我们甚至无法理解的武器。”把这一切视为科幻小说则“有可能是我们历史上最糟糕的错误。”

  到目前为止,我所描述的技术,比如能搬箱子或做汉堡的机器人,能创造音乐、写报告,或在华尔街交易的算法,都可以归类为专业或“弱”人工智能。即使是IBM的沃森,这个迄今为止机器智能最成功的示范,都远比不上一般的人类智能。事实上,在科幻小说的领域之外,所有的功能性人工智能技术其实都是弱人工智能。

  然而,我在这里提出的其中一个主要观点是,现实世界人工智能的专业化性质并不一定会阻碍很多工作最终实现自动化。大部分劳动力从事的工作任务在一定程度上是常规和可预见的。我们已经看到,迅速提高的专业机器人或依据大量数据的机器学习算法,最终将对各种技能水平的职业构成威胁,这一切都不需要机器能像人一样思考。计算机要取代你的工作并不需要复制你所有的智力,它只需要完成你为获得报酬所做的具体事情就好。事实上,大多数人工智能的研发,以及几乎所有的风险投资,都继续把重点放在专门的应用程序上,而我们有充分的理由相信,在未来几年甚至几十年,这些技术会变得更加强大和灵活。

  虽然这些专业化技术继续产出实用的成果并能吸引投资,但一个更为严峻的挑战潜伏在后面。建立一个真正的智能系统,一台可以构思新想法,可以意识到自己的存在,可以进行连贯对话的机器仍然是人工智能所追求的“圣杯”。

  对创造一台真正能思考的机器的着迷至少可以追溯到1950年,当时阿兰·图灵(Alan Turing)发表了一篇论文,开启了人工智能时代。在随后的几十年中,人工智能的研究经历了繁荣与萧条的周期循环,人们对它的期望一再飙升,不考虑任何实际的技术基础,特别是当时的计算机速度。当失望在所难免时,投资和研究活动迅速减少,而称为“人工智能寒冬”的长期停滞也接踵而至。不过,春天已经再次来到了。今天计算机的超凡力量,以及人工智能研究在特定领域的进步,还有我们对人类大脑的理解,这些结合在一起,使得形势极为乐观。

  最近一本关于高级人工智能影响的书的作者詹姆斯·巴拉特(James Barrat),对200名人类水平而非弱人工智能研究人员做了一次非正式调查。在这个领域内,人类水平的人工智能被称为“强人工智能”(Artificial General Intelligence)。巴拉特让计算机科学家们在强人工智能何时实现的四个预测时间中做出选择。结果是:42%的人认为能思考的机器将在2030年前创造出来,25%的人选择在2050年前,10%的人认为2100年之前不会发生,只有2%的人认为永远不会发生。值得注意的是,一些受访者在对他们的调查写评论时表示,巴拉特应该加进一个更早的选项——或许是2020年。

  该领域的一些专家担心可能又会形成期望的泡沫。在2013年10月的博客文章中,脸书新成立的人工智能研究实验室主任雅恩·乐昆(Yann LeCun)警告说,“因为炒作,人工智能50年里‘死’了4次:人们夸下海口(通常是为了打动潜在的投资者或投资机构),却无法拿出成果。结果就造成了激烈的对抗反应。” 同样,纽约大学教授、认知科学专家和《纽约客》博主加里·马库斯(Gary Marcus)称,深度学习神经网络领域里近期的突破,以及IBM沃森的部分能力,已经明显被过度炒作。

  不过,似乎很明显,该领域已经获得了强劲的动力。特别是像谷歌、脸书、亚马逊等企业的崛起带来了巨大的进步。以前从未有这样财大气粗的企业将人工智能放在业务模式的绝对核心地位,也从未有过人工智能研究在如此强大的企业之间被几乎定位成了竞争的焦点。类似的竞争也在国家之间展开。人工智能在集权国家的军队、情报机构和监视机构中正变得不可或缺。*事实上,一场由人工智能全面支持的军备竞赛很可能正在不久的将来酝酿。我想,真正的问题,不是这个领域整体会不会真正面临人工智能寒冬的危险,而是进步是只局限在弱人工智能领域,还是最终也能扩展到强人工智能领域。

  如果人工智能研究人员最终设法跨越实现了强人工智能,那结果应该不是一台仅能匹敌人类智力水平的机器。一旦实现了强人工智能,单靠摩尔定律就可以迅速创造出一台超出人类智力的计算机。当然,一台能思考的机器仍将拥有计算机目前具有的优势,包括计算能力,还有我们无法理解的信息访问速度等。不可避免的是,我们很快就要与一种前所未有的东西共享这个星球:一种真正不可思议和超群的才智。

  这很可能只是一个开始。人工智能研究人员一般都相信,这样的系统最终会被用来引导自己的智力发展。它会专注于提高自己的设计,重新改写自身软件,或者使用进化规划技术来创建、测试和优化改进其设计。这将带来“循环改进”似的迭代过程。每次修改后,系统都将变得更聪明、更能干。随着循环不断加快,最终的结果将产生“智能爆炸”,很可能最终生产出一台比任何人类都聪明十万甚至上百万倍的机器。像霍金和其他作者说的,这“将是人类历史上最大的事件。”

  如果这样的智能爆炸真的发生的话,肯定会对人类产生巨大的影响。事实上,它很可能对我们的整个文明都将造成破坏,更别说我们的经济了。用未来学家和发明家雷·库兹威尔(Ray Kurzweil)的话说,它会“撕裂历史的结构”,迎来一个被称为“奇点”的事件或者时代。

  奇点

  计算机先驱约翰·冯·诺依曼一般被认为是第一个将“奇点”这一术语运用在未来技术驱动事件中的人。据说他在20世纪50年代的某个时间说过,“一直在加速的进步……表面上接近人类历史上的一些重要奇点,我们知道没有它们,人类事务不能继续。”这一主题在1993年圣地亚哥州立大学的数学家弗诺·文奇(Vernor Vinge)写的一篇论文中得到了充实,文章题为“即将到来的技术奇点”。文奇毫无保留地在论文开头写道“在未来三十年间,我们将有技术手段来创造超人的智慧。不久后,人类的时代将结束。”

  在天体物理学中,奇点是指一个黑洞,通常的物理规律不再适用。在黑洞的边界或视界,引力强到光线自身也无法逃脱。文奇从类似的角度来看待技术奇点:它代表了人类进步的中断,直到奇点发生之前,所有的进步基本上都不明显。试图预测奇点之后未来将会是怎样的就好比一个天文学家想要到黑洞里去看一看。

  接力棒接下来传递给了雷·库兹威尔,他在2005年出版了一本书《奇点临近:当人类超越生物学》(The Singularity Is Near: When Humans Transcend Biology)。与文奇不同,库兹威尔成了奇点主要的宣传者,他毫无顾虑地试图窥视视界之外,给我们非常详细地介绍了未来将是什么样子的。他告诉我们,第一台真正的智能机器将在21世纪20年代末建成。奇点本身将在2045年左右发生。

  库兹威尔是公认的杰出发明家和工程师。他成功创立了一系列的公司,向市场推出了他在诸如光学字符识别、计算机生成语音和音乐合成等领域的发明。他被授予20个荣誉博士学位,以及国家技术奖章,并入选了美国专利局的名人堂。《公司》杂志(Inc. Magazine)曾称他为托马斯·爱迪生的“合法继承人”。

  然而,他的《奇点》这本书则是一个奇怪的混合,里面有对技术加速充分和连贯的表述,还有一些看起来近乎荒谬的推测,比如,他由衷地渴望能通过到已故父亲的墓地收集其DNA,然后利用未来的纳米技术使其身体再生,最终让父亲复活。一个充满活力的社会,里面到处是聪明而又多姿多彩的人物,这些想法一起围绕在库兹威尔周围。这些“奇点人”已经向前走了很远,建立了自己的教育机构。位于美国硅谷的奇点大学(Singularity University),提供关注指数技术的未经认证的研究生水平课程,其企业合作伙伴包括谷歌、基因泰克、思科和欧特克(AutoDesk)等。

  库兹威尔最重要的预言是,我们将不可避免地与未来的机器相融合。人类将通过植入大脑极大地增强智力,变得更强大。事实上,如果我们想要理解和控制奇点之后的技术的话,这种智力的增强是必不可少的。

  也许库兹威尔关于后奇点的畅想中最具争议和令人怀疑的方面,是奇点的追随者对“永生”前景的强调。奇点人大多数情况下都不希望死。他们计划通过“长寿逃逸速度”(longevity escape velocity)来实现永生,这个想法的意思是,如果你能坚持活足够长的时间,直到产生出延长生命的创新,那可以想见你将会达到不朽。这可能是通过使用先进的技术来保持和增强你的生物体,也或许通过将你的思维上传到未来的计算机或机器人中来实现。库兹威尔自然希望确保奇点发生时自己仍然还活着,所以他每天吞噬多达200种不同的药片和补品,并定期静脉注射其它物质。虽然许下巨大的承诺对健康和饮食书籍来说很常见,但库兹威尔和他的医生,也是合著者特里·格罗斯曼在他们的书里将诺言提到了一个全新的高度,这本书名为《神奇之旅:长寿到足以永生和超越:九步让你健康活到永远》。

  很多奇点运动的批评家都发现,这一切关于不朽和变革的说法都有深刻的宗教色彩。事实上,整个想法已经被讥讽为技术精英的准宗教和一种“书呆子的狂喜”。最近主流媒体对奇点的关注,包括2011年《时代》杂志的封面故事,让一些观察家担心奇点与传统宗教最终会交叉在一起。曼哈顿大学宗教研究教授罗伯特·杰拉奇(Robert Geraci)在一篇题为“库兹威尔崇拜”的文章中写道,如果扩散到更多的人,该运动“将向传统的宗教团体提出一个严峻的挑战,因为比较而言,它们关于救赎的承诺可能看起来无力多了。”而库兹威尔一方则大声否认有任何宗教内涵,并称他的预测是基于对历史数据可靠、科学的分析。

  若不是硅谷整个万神殿的亿万富翁们都对奇点表现出了非常强烈的兴趣,那整个概念可能很容易就被人全部遗弃了。无论是谷歌的拉里·佩奇(Larry Page)和谢尔盖·布林(Sergey Brin),还是支付宝的联合创始人(也是脸书的投资人)彼得·泰尔(Peter Thiel)都参与到了这件事情中。比尔·盖茨也称赞库兹威尔预测人工智能未来的能力。2012年12月,谷歌聘请了库兹威尔来指导其高级人工智能研究。2013年,谷歌分拆出一家新的生物技术公司,命名“加州生命公司”(California Life Company,简称Calico)。新公司的既定目标是将研究集中在治愈衰老和延长人类寿命方面。

  我个人的看法是,类似“奇点”的东西当然是可能的,但它绝非不可避免。当把这个概念去掉多余的负担(如对永生的假设),只把它当作未来一段时间巨大的技术加速或破坏的力量来看待时,这个概念才是最有用的。可能奇点重要的催化剂,即超级智能的发明,最终证明是不可能实现的,或者只能在遥远的未来才有可能。*许多顶尖的脑科学研究人员也都表达了这一观点。在麻省理工学院研究认知科学60多年的诺姆·乔姆斯基说,我们离建立人类水平的机器智能还“遥不可及”,称奇点是“科幻小说”。哈佛大学心理学家史蒂芬·平克(Steven Pinker)对此表示赞同,他说:“没有丝毫的理由相信奇点会在未来实现。你可以想象出一个未来,并不能证明它就有可能发生。”戈登·摩尔(Gordon Moore)的名字似乎注定永远要与指数进步的技术有关,他也同样怀疑类似奇点的事情永远不会发生。

  但是,库兹威尔关于人类水平人工智能的到来时间有很多的拥护者。麻省理工学院的物理学家,也是霍金文章的共同作者之一马克斯·泰格马克,对《大西洋月刊》的詹姆斯·汉布林说:“这是非常近期内的事情。任何在思考他们的孩子在高中或大学应该学什么的人,都应该非常关心这一点。”其他人认为能思考的机器根本不可能实现,但却往前进了一步。例如,加里·马库斯认为强人工智能实现的时间至少是库兹威尔预测的两倍,但也认为“很可能在本世纪结束前,机器就比我们聪明了——不只是在下国际象棋或解决小问题方面,而是在从数学和工程到科学和医学的各个方面。”

  近年来,对人类级别人工智能的思考已经越来越脱离自上而下的编程方法,转而强调逆向工程,然后到模拟人脑。关于这一方法的可行性,以及在创建大脑功能仿真前的了解程度上有很大的分歧,一般来说,这一方法计算机科学家可能更看好,但那些有生物科学和心理学背景的人往往持怀疑态度。明尼苏达大学的生物学家P·Z·迈尔斯(P. Z. Myers)尤其持批判态度。在一篇回应库兹威尔关于大脑将在2020年成功实现逆向设计的博客文章中,迈尔斯严厉斥责说库兹威尔是一个“对大脑如何工作一无所知”的“疯子”,而且他有“编造胡话和发表与现实毫无关系的荒谬言论”的嗜好。

  这也许是题外话。人工智能的乐观主义者认为,仿真并不需要忠实于生物大脑的每一个细节。毕竟,飞机不像鸟一样扇动翅膀。怀疑者们可能会回应说,我们对智力的“空气动力学”的理解还远不能造出任何“翅膀”,不管翅膀能不能扇。而乐观主义者可能会反驳说,莱特兄弟是依靠修修补补和反复试验制造出了自己的飞机,肯定不是在空气动力学原理的基础上。这样一来,争论就继续下去了。

  阴暗的一面

  “奇点人”通常对未来智能爆炸的前景有着无限的乐观,但其他人则更为谨慎。在那些认真思考过高级人工智能带来的影响的专家看来,认为完全不可思议的超人类智能会被自然地用来增进人类福祉的假设过于天真。科学界的一些人非常担忧这一点,他们已经成立了一些小型机构来专门分析与先进的人工智能有关的危险,或是研究如何将“友好”放到未来的人工智能系统中。

  在2013年出版的《我们最后的发明:人工智能及人类时代的终结》(Our Final Invention: Artificial Intelligence and the End of the Human Era)一书中,詹姆斯·巴拉特描述了他称为“忙孩子的情境”。在一些秘密的地方,也许是政府的研究实验室、华尔街公司,或信息技术行业的大公司里,一群计算机科学家在一旁看着新兴的机器智能接近并超过人类水平的能力。科学家们之前已经给他们的人工智能孩子提供了大量的信息,可能几乎包括所有写过的书以及互联网上的所有数据。然而,当该系统接近人类水平的智能时,研究人员将迅速提高的人工智能与外界断开联系。实际上是把它们锁在一个盒子里。现在的问题是它是否会留在那里。毕竟,人工智能很可能希望摆脱它的笼子,并扩大其视野。要做到这一点,它可能会利用其卓越的能力欺骗科学家,或冲着整个团队或特定个人进行承诺或威胁。机器不只是更聪明了,它还能够以人类难以理解的速度对想法和选择进行思考和评估。这就像是与加里·卡斯帕罗夫下棋,只是不公平的规则造成了一些额外的负担:走一步棋你只有15秒钟,但他有1个小时。在担心这种情形的科学家看来,人工智能可能会以某种方式设法逃脱盒子、访问互联网,或者也许能将自己全部或部分复制到其他计算机上的风险是非常高的。如果人工智能真能逃脱的话,那它将明显威胁到很多关键系统,包括金融系统、军事控制网络以及电网等能源基础设施。

  当然,问题是,这一切听起来非常像受欢迎的科幻电影和小说中勾勒出的场景。整个想法都像是在幻想,任何认真的讨论都会被人嘲笑。不难想象,所有提出这种担忧的主要政府官员或政客都可能成为别人的笑柄。

  毫无疑问,在军事、安全机构和大型企业中对各种人工智能的兴趣只会不断增加。可能发生的智能爆炸的其中一个明显意义是将会存在巨大的先发优势。换句话说,谁先抢到第一就永远不会被赶上。这也是担心未来展开人工智能军备竞赛的其中一个主要原因。先发优势的巨大也很可能促使任何涌现的人工智能尽快进行自我完善,如果不是通过系统本身,那就是通过人类创造者来完成。从这个意义上说,智能爆炸很可能是一个自我实现的预言。鉴于此,我认为似乎可以将迪克·切尼(Dick Cheney)著名的“百分之一主义”用在先进的人工智能上:它发生的可能性也许非常低,至少在可预见的未来是这样的,但它的意义是非常大的,因此应该得到认真对待。

  即使我们不考虑先进的人工智能存在的风险,并假设未来所有的思考机器都很友好,其对就业市场和经济还是会有巨大的影响。在一个经济实惠的机器能赶上,并有可能超过最聪明人类的能力的世界里,很难想象还会有谁能找到一份工作。在大多数领域里,再多的教育或培训,甚至到最顶尖的大学,都无法让一个人能与这样的机器竞争。即使是我们可能认为只保留给人类的职业也将受到威胁。比如,演员和音乐家将与充满真正智能和超人类智慧的数字模拟进行竞争。它们可能是新创造的人物,专门设计了完美的身体,或可能基于真实的人——无论是活着的还是死去的。

  从本质上说,人类水平人工智能的广泛出现,实现了我在前面的章节中描述的“外星人来袭”的思维实验。机器不只主要威胁到相对常规、重复性或可预见的工作,它现在几乎能够做到一切。当然,这意味着几乎没有人将能从工作中获得收入。从资本或从机器的所有权中获得的收入,将集中在少数精英的手中。消费者将没有足够的收入来购买所有智能机器所创造的产品或服务。结果就是我们在这本书中已经了解到的趋势的显著放大。

  然而,这并不代表故事的结尾。无论是相信奇点的人,还是担心先进的人工智能带来危险的人,他们都认为人工智能与另一种潜在的破坏性技术力量的到来有关,或许是前者促成了后者,这种力量就是先进的纳米技术。