安全第一
DeepMind的成功目前支持Hassabis关于增强学习会有很多应用的说法。AlphaGo的成功让很多专业围棋手和计算机专家惊讶,因为围棋实在非常复杂,很难让基本依靠计算不同走法可能结果的软件胜利,也就是1997年IBM的深蓝用来打败世界象棋冠军Garry Kasparov的方法。平均来说,象棋玩家每一步有35种可能的走法;在围棋中,有250种。围棋中位置可能性排列组合的数量,比宇宙中原子的数量都多。“象棋是一种计算游戏,”Hassabis说,“围棋太复杂,所有玩家靠的是直觉。在类别上完全不一样。你可以把AlphaGo想象成一个超级人类的直觉,而非超级人类的计算。”
围棋世界冠军李世石回顾他1-4败于AlphaGo的比赛。图片来源MIT Technology Review。
不论你是否同意AlphaGo具有直觉,能让软件掌握更复杂的任务显然很有用。DeepMind正在和英国国家健康服务的项目合作,训练软件帮助医务工作人员发现肾脏问题的迹象,这些问题经常被忽视,并造成大量可以避免的死亡。团队还在和谷歌业务团队合作,Hassabis说他的技术可以让虚拟助理浮现,改善推荐系统,这对于YouTube等产品非常重要(类似的系统也是谷歌广告产品的基础)。
能解决问题的一个非主流办法是,学习真实的大脑。
更远的未来,DeepMind需要很多突破,才能往Hassabis解决智能的目标靠近,即使是未来几年都在Labyrinth里面试验。最关键的一个缺口是一种叫做分块的技能,人类和动物的大脑用以处理世界的复杂性。Hassabis举了个去机场的例子,你可以想好如何去机场并且完成计划,而不用考虑走去门口的时候每一步走在哪儿,如何转动门把手或控制每一个肌肉纤维。我们可以用高层次的概念来计划和行动,而不用考虑每一个细节,并且通过重新组合我们熟悉的“分块”,或者概念,来适应新环境。“这大概是人工智能领域内未解决的最核心问题之一。”Hassabis说。
这是许多研究团队在钻研的问题,包括其他谷歌团队。但是,DeepMind希望能解决问题的一个非主流办法是,学习真实的大脑。公司有一个由著名研究员Mattew Botvinick领导的神经科学家团队,他直到最近一直是普林斯顿大学的教授。与大部分神经科学研究不同的是,他们不仅要研究大脑如何运作,还要告诉DeepMind如何设计软件。
有一个近期试验测试了Hassabis关于人脑如何组织概念的理论,利用一个伪造记忆的标准程序。它给测试对象呈现一系列相关词,例如“冷”、“雪”和“冰”。人们经常错误地记得听到一些其他相关词,例如”冬天“。
3月,AlphaGo与李世石的比赛进行中的DeepMind员工。via MIT Technology Review。
“根据我的机器学习概念,我想这一定暗示了那种概念信息如何在大脑中组织,“Hassabis说。DeepMind团队研究出一个大脑的颞叶前部如何组织概念的理论, 通过观察正在进行记忆任务的人的大脑,确认了理论的假说。这项结果可能会改变DeepMind设计人工神经网络来呈现信息的方式。
DeepMind的”待发现“列表上还有,将它在软件上做过的、抓取文本意义的实验,与Labyrinth中漫游的软件实验结合起来——有一个可能性是在虚拟空间内开始摆上标识。Hassabis说,他还在计划一种“野心勃勃”的方法,来测试是否准备好面对比Labyrinth更加真实的世界。他希望DeepMind未来可以控制机器人,他认为机器人受限于软件对世界的理解能力。“有一些很了不起的机器人,不能充分发挥他们的能力因为还没有算法。”他说。
如果成功,那会引发一些关于人的本质定义、以及人工智能的合理使用范围等严肃的哲学和伦理问题。Hassabis说,他鼓励人们讨论这项技术可能的风险。(虽然他满意地表示,物理学家Stephen Hawking在于他见面后,已经停止警告人工智能会毁灭人类;将人工智能研究比作”召唤魔鬼“的Tesla创始人Elon Musk也被泼了冷水。)DeepMind有一个内部的哲学家、律师和商人团队。Hassabis说也许”很快“就会公布他们的名字,以及他也在努力召集一队类似的外部团队,在多个计算机公司间共享。
DeepMind的工程师们设计新实验暂时还不需要伦理学指导,Hassabis说。”距离我们能担心的成果还远着呢,“他说,”更重要的是让所有人加快速度。“如果所有都如Hassabis所愿,他的伦理团队才能真的有点事儿做。