你好, 我不是人工智能。

这几天帝都热的要命。周末我碰巧受人之约跑到外地,躲过这一场热劫。然而写文章的时间又到了, 这可躲不过。 旅馆房间外就是风景, 天已大亮,得抓紧时间完成任务, 好出去走走。

上周看光量子计算机放了个卫星, 写了篇量子的科普。这周可燃冰又放了个卫星, 搞出了能开5万公里的可燃冰汽车。主要过程是记者看到有说法一升可燃冰可释放1百多升天然气, 又看到现在烧天然气的汽车,装满天然气能跑300公里, 就脑补说如果把天然气换成可燃冰可以跑300公里的一百多倍吧,5万公里的笑话就这么出来了。 实际上烧天然气的汽车里面是高度压缩后的天然气, 并不是可燃冰释放出来的一个大气压的标准气态天然气。单论燃烧,可燃冰里含有一定比例的水,还比不过当前汽车用的高压天然气(大约200个大气压,按照高中物理, 体积压缩了200倍)。记者闹出这种大笑话,还被权威媒体报道,负面影响不小。

为什么记者会犯这种错误, 假设他不是故意的, 那就应当是缺少常识,不知道天然气汽车用的是高压天然气, 跟可燃冰释放的天然气压力不同,物理特性也不同。而当下正火的人工智能也有同样的问题, 缺乏这类常识。现在新闻有了所谓自动采编,意思是不需要记者了, 靠人工智能就能自动写报道。 可能搞点简讯还行,一旦需要加工素材,就危险了。因为就常识来说, 人工智能还拼不过文科生记者。

当前人工智能缺乏常识这个问题反过来思考,做人工智能研究的人就应用研究怎么做出常识。  用上面可燃冰这个例子可以看出, 常识不是简单的百科全书一样的字典解释, 需要有深层次的结构和连接。 一个概念比如天然气, 除了知道它字面上是一种可燃气体之外,还需要知道它有一个属性是压力, 这个压力在物理里面有理想气体定律,跟体积直接关联。概念和概念之间连接起来, 形成一个概念网络。这看上去就是我们想要的常识或者是知识。

在计算机领域, 因为互联网的出现, 我们有了前所未有的海量数字化信息。 这些信息都是以超链接方式存在的文本。 当年google的两个创始人意识到海量信息通过这种链接关系构成了一个大的网络,每个网页就是这个网络中的节点, 每个节点因为链接关系在网络中的位置不同,体现出来的重要性也不同。于是他们构建出了一种算法来计算这个重要性, 就搞出了搜索引擎,和直到今天google这样一个庞大的公司。

几乎在google创始人思考网页构成网络结构的同时, 另外一大波学者认为互联网上的文本虽然有链接, 每个网页本身还是太杂乱。如果我们能进一步提取出其中的语义,按照某种方式表示出来。 那么最古老的人工智能方法(语义逻辑推导)都可以拿来应用,那么整个互联网就可以变成智能网。 海量信息就借此变成知识, 杂乱无章的文本世界从此就整洁有序了。这是多么完美的未来图景。 于是大家一起合作, 试图定义智能网络的标准。

首先有了xml,把平铺的文本变成一个严格的树形结构。 树形结构因为表示和计算的效率高, 是用计算机的各种算法最爱的东西。xml对树形结构的每个节点都打上了标签。 这样这些文本就有名字了。到此为止可以说小有成功。下一步就是定义这些标签之间的关系, 所谓标签, 是描述数据的数据,元数据。 于是引入了RDF用来处理元数据。

有了RDF,我们可以建立概念之间的关系,形成所谓的知识。 这里还要引入一个名词ontology 本体论。 熟悉哲学概念的人知道这是一个古老的词, 用来指哲学的出发点, 世界是什么。  在计算机学科中的ontology, 主要包括概念的定义和连接概念的关系定义。概念通过不同的链接关系构成一张图,就是知识图谱。 借助这张图, 我们就可以来推理。 具体来说知识被表示为一个三元组。 从一个概念到另外一个概念,中间是他们的链接关系。 比如中国的首都是北京这个知识, 可以被表述为(中国,首都, 北京)这样一个三元组, 中国, 北京是两个概念实体, 首都是连接它们二者之间的关系。

粗看起来人类知识似乎无穷无尽, 这样用三元组表示能行吗? 其实语言的词汇是有限的, 一种语言常用的名词就是几万个。表示关系的词汇也就小一万, 就算全组合起来, 不过是万亿这个级别。 对现代计算机来说,能处理的过来(实际因为有效组合有限,还小于这个量级)。然而与xml得到广泛应用不同, 知识图谱搭建了10多年, 仍然没有看到结果。 那一定是哪里出问题了。

问题在哪里? 与哲学上的ontology本体论不同,哲学是吃饱了饭就可以一直思辨的,而计算机是拿来挣钱买饭的。RDF所以没有用起来,是因为没有实用价值。 而这其中的关键原因就是没法很好的结合现实世界。 从复杂混乱的现实世界中不能自动化抽取出这么干净纯粹的概念和确定的关系。 有人说是因为语言描述的概念对应于现实本身就是模糊的, 要引入这种模糊, 于是就有了模糊逻辑。 还有人说不是模糊是概率, 概念也好, 关系也好都是不确定的。

上一篇讲量子的文章就提到什么事情一旦有了概率,就麻烦大了。概率的不同的解释会导致不同的路径,大家的分歧就纷纷出炉。但是这一步必须要走, 不引入不确定关系, 知识图谱的完美世界对应不了不完美的现实,就没有太多实用价值。

是模糊也罢,概率也罢。 假设穿越到了未来, 我们有了新一代的知识图谱, 也就是能真正表示现实世界的所谓常识。人工智能就可以利用知识来取代更多的人工。 比如说真正的聊天对话机器人, 比如说真正懂你的个人智能助理, 等等。 可能有人问, 这些东西现在不是就有吗?是有的, 然而现在市面上所有的聊天机器人和智能助理,不管是他, 是她, 还是它, 其实都只是它。 不是动物它, 是机器它, 没有常识, 没有感情。 而没有这两样, 可能火在一时, 难以自持。

最近有个段子:

教授,我很害怕!

怎么了?

我确认我研究出了一个能通过人类智能测试的人工智能。

那不是挺好么?

然而它没有通过测试。

不用害怕,该来的一定会来,期待这一天早点到来。 就算没来, 非要搞搞聊天机器人啥的, 我们不是还有那么多没有事做的人吗?