你的位置:主页 > 产品中心 > 计算机将拥有“常识”?还有很多关要闯

计算机将拥有“常识”?还有很多关要闯

admin 发布于 2016-12-17 10:56
计算机将拥有“常识”?还有很多关要闯计算机将拥有“常识”?还有很多关要闯

  前一段有“深度学习教父”之称的 Geoffrey Hinton 预测在十年内将出现“具有常识”的计算机系统。此言一出,“常识”顿时在媒体上成了个高频词,还有名人为此预测的成败公开打赌。在这一片热闹之中,却很少有人解释一下“常识”究竟是什么,以及为什么拥有常识比击败围棋高手还难。也许这本身就是常识,因此无需解释?且待我们细细看来。

  “弱方法”和“强方法”

  目前这种对于领域知识的依赖也体现在很多机器学习算法对“大数据”的依赖之中。数据不够,再强的学习算法也是“难为无米之炊”的。在很多情况下,只要数据够了,用哪个算法差别都不大。这就是“数据为王”这个说法的根据,其实和“知识就是力量”异曲同工。

  人工智能和“常识”

  在开发专家系统时,一个常见的问题就是专家所提供的知识不足以推出所需的结论,而中间所缺乏的是“常识”,就是平常人际交流时无需说出的那些人人知道的事情。在计算机不能自动获取这种知识的情况下,有必要把有关事实存进一个“常识知识库”里面。这个知识库和前述“专家知识库”相比有两个主要不同点:首先,这个库是通用的,不用为每个应用系统建一个;其次,这个库要比专家知识库大好几个数量级,因为“常识”实在是太多了。

  深度学习和“常识”

  前面的介绍说明“常识”在人工智能研究中远非新问题,而且以往的工作也有一定的成果,金百博,尽管离“计算机已经有常识”还差很远。在这个课题上,前面的工作都是由“逻辑学派”做的,而这次 Hinton 说的当然是深度学习可以实现这个目标。他的根据是什么呢?毕竟这对深度学习是个新课题。

  由于 Hinton 并没有展开谈,下面只能是我的推测了。基于深度学习已经展现的力量,它带给这个领域的新思路大概不外乎是“从已有材料中学习常识”。和传统的知识库构建方式比较,这里的新意主要是两点:一是直接利用已有材料,尤其是互联网上的文本和多媒体信息;二是用这些材料训练神经元网络,而非把知识表示为命题或语句集合。

  “常识”中的麻烦

  但“让计算机有常识”可远不仅意味着存储和检索海量知识,其中的困难大概还远没有得到充分认识。

  首先要问的是“谁的常识?”这个问题很少被讨论,因为答案似乎显而易见??当然是人的常识。但“人类常识”不是一个有明确定义的范畴,而某个信念是否属于常识可能是有争议的。比如说“太阳东升西落”和“地球围绕太阳转”哪个是常识?“新年是在冬季”只在北半球是对的,那还算常识吗?在辩论双方都指责对方“缺乏常识”或“违背常识”的时候,谁有资格做裁判?

  就算我们可以就“人类常识”的范围和内容达成共识或妥协,它和“机器常识”的关系仍是个问题。一个智能系统的知识应当来自其经验,包括得自感觉-运动的直接经验和得自系统间通讯的间接经验。即使一个人工智能系统具有和人相似的认知功能,它的经验也不会和人的经验达到同等的类似程度。就算是人形机器人,它的躯体和感觉-运动器官也不会和人完全一样。在通讯的过程中,一个人工智能同样不可能得到和人一样的社会经验,因为人们不会把它当人来对待。

  因为环境的相似性和人机通讯的同化效用,一个人工智能系统的经验当然和人类经验会有相当程度的共同性和对应性,但差异仍会非常大。这和系统的智能水平无关。如果两个智力相当的人是在非常不同的自然和社会环境中长大的,那他们获得的“常识”一定是非常不同的。古龙的《绝代双骄》和马克?吐温的《王子与贫儿》讲的都是这种故事。

  我们当然可能把人类常识灌输给一个人工智能系统,而利用其强大的记忆和处理能力构造一个包罗万象的知识库。但如果这些知识既不能指导这个系统的行为,又不能根据这个系统的经验被修正,那这个知识库对这个系统就没有意义,尽管它可能对某些旁观者有意义。这正是塞尔的“中文屋”思想实验所批评的情形。一个通用人工智能系统的世界观一定是和人的不完全一样的,否则它就不是真的有智能,金百博,而只是人类的应声虫,金百博。但另一方面,让智能机器发展它们自己的“常识”会为我们对它们的理解和控制带来挑战,如我在《人工智能危险吗?》中所讨论的。

  纳思和“常识”

  通过人机交流,人类知识会成为纳思信念的一部分,但不会是全部,而它也会根据自己的经验对有关知识的适用程度进行评估,并决定是否依此行事。因为纳思的信念可以成为它的思维对象,系统可以在一定程度上区分人类教给它的知识和它自己总结出的知识。这就像我们可以了解他人的信念,但并不需要完全接受这些信念。

  参考资料

  [1] George F。 Luger, Artificial Intelligence, 6th edition, Addison Wesley, 2009

  [2] Pei Wang, Rigid Flexibility: The Logic of Intelligence, Springer, 2006