据英国每日邮报报道,当英国剧作家道格拉斯•亚当斯(Douglas Adams)写《银河系漫游指南》时,他写道这样一句话:“有关生命、宇宙和万物的终极问题的答案是42。”然而,谷歌的最新机器人对此可能并不赞同。这家科技巨头的研究人员近期训练电脑进行对话,然而提出一系列有关技术支持、常识甚至哲学的一系列问题。当问及生命的意义时,机器人回答道:“为了永生。” 生命的意义是什么 这个名为神经(感知)会话模型的“对话模型”是由谷歌大脑的科学家研究员奥利奥尔•温雅尔斯(Oriol Vinyals)和吴恩达(Quoc Le)建立的。他们使用了所谓的串联顺次框架,也即模型是通过预测对话里的下一句话进行对话。取决于所问的问题,它可以从各种数据集里收集信息,包括IT帮助台手册、电影和字幕数据库,书籍里的引用等等。 使用了串联顺次框架,也即模型是通过预测对话里的下一句话进行对话 例如,在技术支持问答环节里,机器可以利用用户的虚拟隐私网络诊断问题,继而解决浏览器崩溃的问题。然后,它被要求进行日常对话,例如它问人类有关他们自身的问题并对答案做出回应。一旦它被训练后,研究人员就开始询问更加复杂和高级的问题,这些问题或者涉及使用更大数据库来回答常识问题,或者要求更加模糊的回答,例如道德、宗教和生命的意义。 结果产生了非常混杂的结果。机器可以正确的鉴别卢克天行者、猫是否会飞以及天空的颜色。当问及什么是生命的意义时,它回答“为了服务大我”,以及生存的意义是“永恒的生活”。 机器人无法确定情绪的意义 然而它无法确定情绪的意义,且当被问及道德和利他主义时它似乎非常困惑。例如它表示有孩子是永生的,利他主义的定义是“如果你不相信上帝,那么你一无所知。”此外,它也无法回答一个简单的数学问题,且认为一只蜘蛛有三条腿。 “对话建模是自然语言理解和机器智能里的一个重要任务,”研究人员这样解释道。 “尽管存在先前的方法,但它们往往受限于特定的领域(例如定航空机票)并要求人为制定的规则。在这篇文章里,我们提出了针对这一任务的一个简单方法,它使用了近期提出的串联顺次框架。我们发现这个直接的模型可以产生一个常用训练数据集里的简单对话。”本月上旬谷歌发布了一系列图片来帮助解释它的系统是如何学习的以及当出错时会发生什么。 当将一张图片插入神经网络里,并要求机器强调它可以识别的特征,在这个例子里是指动物,就会创造图像。“人工神经网络在图像分类和语言识别方面取得了突破性的进展,”谷歌人工智能小组的亚力山大•莫尔德温采夫(Alexander Mordvintsev)、克里斯托弗•欧拉(Christopher Olah) 和迈克•特卡(Mike Tyka)这样说道。 “尽管这是基于已知数学方法的非常有用的工具,对于为什么某些模型有效而其它模型无效方面,我们的了解出人意料的有限。”谷歌训练了一个人工神经网络,它主要是不断的展示上百万张训练图像例子然后逐渐调整网络参数直到它产生了研究小组希望获得的分类。研究小组甚至给这些图像取名为Inceptionism。 爱德华•蒙克(Edvard Munch)的《呐喊》便是被分析的图像之一。 这个网络一般包含10到30个堆叠的人工神经元层。每一张图像都被放在输入层,后者会与下一层会话,直到到达“输出”层。这个网络的答案来自最终的输出层。通过这个过程,这个软件逐渐了解到了它认为物体应该的样子。当利用谷歌人工智能进行多次分析后,创造一种反馈回路并不断放大这个网络最熟知的东西后——在这个例子里是指动物——一张看似简单的云图片里被发现有好多只动物。研究小组甚至对人工智能进行编程试图鉴别整个物体,产生了一些很好笑的结果。 |