物联传媒 旗下网站
登录 注册
RFID世界网 >  新闻中心  >  物联网新闻  >  正文

纠“三观” 关于人工智能技术的11种谬误

作者:本站采编
来源:好奇心日报
日期:2015-10-09 10:29:29
摘要:真正的人工智能的出现,或许超越常人的庸俗想象。它在出现之后,就会自我优化,自我扩张,提升智能,直到计算能力也就是其智力超越人类几千万倍。随着人工智能越来越近,人们对人工智能的渴求也愈加狂热,从而产生了一些遍地开花的谬误。

  真正的人工智能的出现,或许超越常人的庸俗想象。它在出现之后,就会自我优化,自我扩张,提升智能,直到计算能力也就是其智力超越人类几千万倍。随着人工智能越来越近,人们对人工智能的渴求也愈加狂热,从而产生了一些遍地开花的谬误。

  1、我们造出了像人脑一样的计算机

纠“三观” 关于人工智能技术的11种谬误

  今天大小科技公司都在谈人工智能,而神经网络计算则是说明自己技术前沿的最佳例证。当它的原理被市场部们几经简化之后,已经变成“像人脑神经网络一样工作”。

  但是1980年就已经出现的神经网络计算和人脑只有极为模糊的联系。一个大问题是科学家目前根本不知道人脑里那张由无数神经元突触组成的网络究竟是怎么“计算”的。正如伯克利大学人工智能与机器学习专家迈克尔·乔丹(MichaelI.Jordan)所说的:

  “我们完全不知道大脑是怎样存储信息和运作的,这里头的规则是什么?是什么算法?因此我们现在还不能说用大脑的理论去指导人工智能系统。”

  2、它通过了图灵测试,所以它有智力

纠“三观” 关于人工智能技术的11种谬误

  你一定还有印象,2014年出现过这样的新闻标题:“俄罗斯团队开发人工智能机器人,首次通过图灵测试。”这台名为Eugene Goostman的计算机被描述为“把自己伪装成十三岁的男孩,骗过了超过30%的评测人员。”

  计算机科学之父艾伦·图灵在1950年首次提出了这个关于机器人是否可以思考的著名实验:人类测试员在不知情的情况下面对计算机,用文字和其交谈,如果计算机成功欺骗了测试人员假装成一个真实的人类,那么该计算机便被证实“会思考”。

  后来英国皇家学会将图灵的标准具体化:在一系列时长为5分钟的键盘对话中,只要计算机被误认为是人类的比例超过30%,那么这台计算机就被认为通过了图灵测试。

  一年一度的LoebnerPrize比赛便以此标准,这个大赛也早就出现了“通过测试”的机器人,比如2011年的Cleverbot程序达到59%的通过率。

  Eugene Goostman的批评者认为,这个所谓机器人就是单纯地为了通过这个5分钟测试而设计的,编写者还颇有心机地把它设定成一个13岁的非英语母语的小孩,以便在很多问题无法回答或者出现错误的时候,让裁判误以为这是因为他年龄小而产生的语无伦次。也就是说,Goostman既不是“第一个通过测试”的程序,也不是一台人工智能机器人。

  话说,想让计算机蒙混过关并不复杂,这里还有10个伎俩,有兴趣的话可以看看。

  3、这个机器人的智力已经接近XX岁的儿童

纠“三观” 关于人工智能技术的11种谬误

  “百度内部有个‘百度大脑’的项目,用技术模拟人脑思维,现在大约已经相当于2-3岁孩子的智力水平。未来十几二十年,这样的大脑或许比人脑还要聪明。”这话出自百度CEO李彦宏。

  给人工智能程序定义年龄的还有不少,比如伊利诺大学芝加哥分校的研究者,他们对一台计算机做了IQ测试,最终的结果是机器人的“智力”已经接近4岁的人类儿童。而微软小冰的营销文案中,这个语音助理被定义为“一个17岁的萌妹子”。

  瑞典的科学家在2012年开发了一个据称智商达到150的人工智能程序,媒体的报道称它“击败96%的人类”。

  但如果这些科技公司能抛开营销的废话,诚实地谈论自己的人工智能。“这个机器人的智力相当于5岁的智力受挑战的儿童”可能是比较好的说法。

  首先,智力测试本身就存在争议。智力由三种能力组成:短期记忆力、推理能力和语言能力。三个变量相互作用,也许你会在推理方面天赋秉异,但记忆力并不好。一套由11个项目组成的考试题并不能全面反映智力的水平。

  上面提到的Jeff Hawkins说,人类的大脑能学习几乎所有东西,比如两三岁的孩子已经能够掌握至少一门的语言、能从极其复杂的环境中一眼认出父母,不管他们的站姿和表情。人工智能相距甚远,更不用说搞清楚“智力”这种玄乎的东西了。

  4、算法正在控制一切

纠“三观” 关于人工智能技术的11种谬误

  “通过算法,我们可以比人做出更好的选择”,每隔几年,这样的论调都会重复一次。2005年创立、用机器聚合科技网站新闻的Techmeme使用了算法自动抓取互联网上的新闻内容。但事情在这几年发生了些变化。

  2008年,Techmeme招聘了前《连线》杂志的科技记者Megan McCarthy,她的任务是对计算机挑选的新闻进行人工干预。Techmeme创始人Gabe Rivera说,纯算法推送的内容存在问题,比如质量参差不齐以及推送时机不对。理想的新闻聚合网站是采用“自动 人工”混合模式,这能够更有效地处理新闻,弥补人或计算机的不足。

  现在,Techmem维持着一个9人的编辑团,用人工进一步挑选新闻。

  另一个出现逆转的是智能助手,以Siri为代表的智能助手描绘了这样一个未来:你对着麦克风说一句话,人工智能便帮你打理好一切,不管那是订餐、找电影票还是看球赛结果。但国内外新近出现的助手式生活服务为了保证准确率,已经基本转向人工处理。甚至Facebook新推出的FacebookM也是人工帮助处理请求,机器学习人的工作方式。

  至少相当长的一段时间,算法与人工还是相互辅助的关系。

  5、这台机器人已经学会自我繁殖

纠“三观” 关于人工智能技术的11种谬误

  最近剑桥大学的实验室里就诞生了一台被媒体冠以“会生孩子”名头的机器人,它的“母体”是一只机械手臂,“婴儿”则是一个个3D打印的蓝色小立方块,每个方块内有一个独立的电动马达。

  关于机器人繁殖的脑洞,现代计算机之父冯诺依曼曾指出:任何能够自我繁殖的系统应该同时具有两个基本功能:它必须能够构建某一个元素,并且用这些元素组装和自己一样的下一代;它必须能够把对自身的描述传递给下一代。这么来看,这台所谓“会生孩子”的机器人并不符合“繁殖”的定义。

  就算哪天会有能像病毒一样传播的人工智能,它的影响也非常有限,因为能毁灭人类的计算机需要实体,人工智能专家、OnIntelligence一书的作者JeffHawkins就说过:“你能想象它(人工智能)自己组建一个工厂然后不停地生孩子吗?”

  6、终结者来临,机器人都会杀人了

纠“三观” 关于人工智能技术的11种谬误

  今年7月,德国大众汽车的一家外包工厂里用作流水线组装的机器人成为了众矢之的:在作业中,这台机器手臂突然抓住一名人类工人,后者被重重地压在金属板上导致胸部受重伤,继而死亡。

  接下来我们就看到了“机器人杀人”这样的新闻标题,以及这些文章对科技名人“人工智能威胁论”的引用,比如霍金的“人工智能会导致人类灭绝。”、马斯克的“人工智能的危险性高于核武器。”

  不过具体到大众的“终结者”,事情其实和车祸没什么区别。大众汽车证实,这起事故来自“人为操作失误”,杀人的“机器人”虽然可以经过编程自主完成动作,但它和“人工智能”还差了十万八千里。

  第一起记录在案的工厂机器人致死事件发生在1979年福特的美国工厂。自此这类事件平均每年发生不到一起──比起车祸来基本不值一提。

  7、人工智能的外形,一定要像人

纠“三观” 关于人工智能技术的11种谬误

  日本有位知名的人工智能专家石黑浩,他做的事情就是把机器人造的十分接近人类,他甚至丧心病狂地复制了一个自己。

  我们常常幻想着有一个和我们人类一模一样的机器伴侣,但别指望他(她)会帮你做家务,因为在那之前你已经被吓坏了。根据“恐怖谷”理论,机器人如果真能达到100%的和人类相似,人类的反应是积极而正面的,但在此之前“像又不是很像”的阶段,比如石黑浩的机器人,反而会让人感觉见到行尸走肉一样恐怖。

  是不是觉得圆滚滚的扫地机器人温暖又可爱呢?

  8、机器人会遵循阿西莫夫的三定律

纠“三观” 关于人工智能技术的11种谬误

  科幻小说家阿西莫夫在1942提出了著名的“机器人三定律”:机器人不得伤害人类,或因不作为使人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二法则下,机器人必须保护自己。

  尽管科幻小说爱好者都将它当成未来的基本规律。但事实上,让机器决定人的生死并不是异端。在全球已经有超过30个国家配备了“致命性自主武器系统”,未来战争的一些区域有可能是人工智能在一些区域自助决定是否射杀屏幕上出现的运动物体。

  从军队角度,人工智能决定生死有诸多好处,比如它会坚决地执行任务,并且杀人的机器不会有负罪感。完全由人工智能决定生死意味着不再需要无人机操作员扣下扳机。白天在弗吉尼亚的封闭楼宇里远程操控无人机,晚上和家人一起吃饭看到误炸新闻并不是一份轻松的工作。

  人工智能决定生死毫无疑问会引起许多争议。2013年5月,由它引发的道义、伦理、人权问题首次被提到联合国人权理事会。但这并不是一场一边倒的争论,阿西莫夫的三定律不一定是我们将会面对的未来。

  9、我的人工智能可以……因为它会深度学习

纠“三观” 关于人工智能技术的11种谬误

  大约从Google收购DeepMind开始,深度学习就成了每个和人工智能沾边的创业公司挂在嘴边的神器。似乎只要有了据说“像大脑一样学习”的“深度学习”,你的手机就一定能在嘈杂的环境下听懂你说的每个词并带着语气翻译出来;就一定能认出眼前那位姑娘穿的衣服,并在淘宝上找到同款。

  “深度学习”在创业公司的宣传语中已经快变成半个世纪前无所不能的“社会主义”。

  有超过30年人工智能研究经验的学者,facebook人工智能总监YannLeCun这么解释深度学习:创造学习机器,用同一种方法训练它学习一切。

  作为一个训练系统,海量的训练依然是基础,这是许多创业公司没能做好的。

  并且即便有海量的训练,原先的限制依然存在。当Google经过海量训练,用深度学习让机器认出猫的时候,机器只能在猫正脸朝着镜头的时候确保认出它。

  “把人工智能比作大脑,是给它赋予了一圈神奇的光环,这种描述是危险的,将导致天花乱坠的宣传。”

  LeCun说道:

  “这样的描述能给投资机构、公众、潜在客户、创业公司和投资人带来一个预期,让他们相信我们正处在时代的前沿,相信我们正在打造一个像大脑一样强大的系统。实际上我们距离这个目标还非常远。”

  10、埋头苦干几个月,机器人就有自我意识了

纠“三观” 关于人工智能技术的11种谬误

  科幻电影中的人工智能总给人一种非常乐观的印象:开发出一个有模有样的机器人非常简单。

  比如在《超能查派》中,主角机器人在一个类似车库的杂物间里被改装,从诞生起它就可以快速的自我学习,没几天就长成了成年人。《钢铁侠》系列中有着英式口音的超级人工智能管家JARVIS出自TonyStark那间浮夸的实验室。《超验骇客》里,Johnny Depp饰演的科学家能轻松地在自己家里上传意识,继而成为了不死的虚拟人。

  别以为现实里的科学家都这么厉害。Artificial Intelligence:AModern Approach的作者、加州大学的StuartRussell教授说,单枪匹马、闭门造车地开发人工智能机器人实在太不现实了,这样的工作往往需要一个科学家团队,成果的出现也必然是长久和缓慢的过程。

  关于上传意识,Russell教授直接说这是“无稽之谈”,因为人类自己连“意识”到底是什么还说不清楚呢。

  11、我们复制你的记忆,用人工智能技术让你作为虚拟人永生

纠“三观” 关于人工智能技术的11种谬误

  一家数据分析和人工智能方向的创业公司说,他们能打造一个虚拟的你,模仿你的一切元和思维,这意味着你的记忆会被永不磨灭地保留下来,你将得到永生。

  先别做这么好的美梦,这家公司存下来的只是社交网络、邮件之类的数据而已,现在没有任何办法移植记忆。原因挺简单,没人知道大脑究竟怎么存储记忆。事实上,就连记忆存在大脑的什么地方都是未解之谜,更别提什么保存记忆了。

  或者让我们更(笨拙地)哲学一点,到底什么才算是“记忆”?你记得的那些,还是你认为你记得的那些?