跟同学们一攀谈, 发现不得了, 原来这次真的不一样, 我们似乎快到了门槛了, 要认真对待, 于是就先从宏观角度摸索了一下:AI,VR和人类未来命运的思考。 得出了结论, AI的发展是一种大量获取负墒的过程, 这是一把双刃剑, 如果系统封闭边界, 获取负墒越多, 就越不稳定, 早晚归零(墒的最大化是基本原理)。可能的出路只能是拓展系统边界, 也就是搞宇航, 去火星。 这简直就是一种人生观。 我相信Elon Musk 和霍金都是这么想的。
在搞定核聚变来解决能源问题和找到比当前抛洒物质作为动力的化学发动机(牛顿时代的原理,可叹)更有效的动力来源之前, 搞宇航实在是勉为其难。 所以还是得想办法弄明白人工智能能进展到那一步。 AI到底能不能超过人类智能?
这需要对当前现实有个基本的理解和把握。 而现实是, 人工智能相关的研究, 包括脑科学, 心理学, 计算理论, 复杂系统, 和最火的深度神经网络, 仍然是一盘散沙, 各自为战, 还远未到能够打通任督二脉的时候。 然而这样就能高枕无忧了吗?
人工智能是模仿人的, 研究人整体,早有心理学。 与研究微观生理的脑科学不同, 心理学一开始就是把人当作一个整体来研究的。 因此很多时候,大家都说心理学不是科学, 是玄学。 换一种角度, 从心理学出发, 是一把钥匙,可以加深对人工智能的理解。毕竟要模仿什么,要先给模仿对象一个定义, 而对人的定义, 只有心理学理论里有。 聪明的秘密: 有关大脑开发的洞见, 大脑是如何工作的?兼谈如何做出类人智能。,你的记忆, 就是你吗?,智胜先师-人类能做出强AI吗?。 这一系列文章, 都是以此为出发点的一点探讨。 总结下来, 要AI能够真正触及到意识的领域, 需要搞明白的核心是记忆的机制。
此外在下半年, 人工智能界发生了几件大事, 尤其是OPEN AI的成立, 几个主要的大公司试图联合起来, 限制和规范AI的发展。 他们想做的的事情,其实属于伦理学的范畴。 伦理学可以被当作哲学的一部分。哲学的三个主要部分, 认识论, 伦理学, 美学,对应真,善,美。 伦理学是其中的善, 试图让人明辨是非, 什么是善,什么是恶, 来规范行为。 可以想象,这也是最容易引起争论的地方, 因为其实伦理学,人类自己都没有搞清楚。
在思考相关问题的时候, 偶然发现纽约大学哲学系在10月份搞了一次AI 伦理学的研讨会。 几个人工智能的大佬也去了。 翻了翻会议记录, 发现了Stephen Wolfram 的讲稿, 太有启示意义了, 于是全文翻译了一遍:AI 伦理学(By Stephen Wolfram)。
Wolfram是真正的大才, 他的计算理论核心观点简直是指路明灯。其核心思对应于深度学习关键点在于: 之前大家抱怨的深度学习不可理解之类的,都其实不是问题。要说深度学习不可理解, 先说什么叫理解。 所谓理解,是要可以建立数学模型去规范描述, 这样就能一步到位, 简化问题,直接得出答案。 而深度学习和一切所谓复杂问题, 之所以复杂, 就是因为不能建立这样的模型。 要预期系统的行为, 我们能做的唯有计算。 注意这里不能建立模型, 是不能建立精确描述系统整体行为的模型, 不是说具体计算机制也不能研究。
如果这样理解, 那么其实人工智能的核心在于两点, 一个是计算能力, 一个是基本计算机制。 要有足够的计算能力, 再搞懂一些基础的计算机制, 就可以搞出类人意识。 之前大家计算能力不足, 无法从整体上研究, 因此才有各种悲观失望。
他的另外一个观点也有启示, AI和人共存, 不是要限制AI, 而是要教会AI美学和伦理学, 这样AI自然而然知道什么是善, 也不存在什么灭绝人类的问题, 我们也不会灭绝黑猩猩。 而AI的伦理学是什么, 我们现在给不出答案。 只能靠历史来演化,来计算。
从计算的角度来理解人工智能, 就豁然开朗了。 下半年还有一件引起热议的事情, 就是朱松莼老师的雄文: 正本清源:初探计算机视觉的三个源头,兼谈人工智能。 朱老师是统计数学出身, 看不惯玩计算的, 一直是想建立系统化模型。 虽然按照计算的理解这条路子可能不太通, 做出来的东西估计不太容易work, 但是双方还是可以互相借鉴的。 视觉计算-理论还是实践? 文章虽然没明说这个问题,但是也包含了一些个人思考。
既然无法建立模型, 高举高打的办法就不太好用了,最近有关神经网络压缩,和泛化能力的一些探讨也触动了一点个人想法: 理解深度学习需要重新思考(深度网络的)泛化能力。 我们知道现在的神经网络学习,非常的不充分,表现在神经网络的参数可以大幅压缩, 如果我们能够找到合适的算法, 获得完全不能压缩的网络参数(据说已经被某同学搞出来了,正在写文章中),那么将大幅提高神经网络的计算效率和准确度。要在这里深入研究, 也许要参考信息论的相关思想, 网络除了参数, 还有结构,信息几何不知能否发挥作用?
而另外一个角度, 为了方便硬件实现, 大家在尝试各种方法对网络参数做简化, 从浮点到8-bit, 从8-bit 到甚至1-bit(Do-re-fa)。 1-bit网络是硬件的革命, 可能也是是智胜GPU的关键。 但是能1-bit,性能还不损失, 正是利用了神经网络本身的大量冗余。 对照前面的讨论, 还真是让人有点为难。 值得深入思考下去。总之, 因为算法的不稳定, 各种嚷嚷做芯片的同学千万要小心。 说不定算法一革新, 硬件设计全是白费功夫。
前面一篇文章还有一个核心推断,就是深度神经网络计算在做的事情某种程度上以记忆, 是靠大量网络参数来记住数据。 这样计算和记忆放在一起,真的不是冯诺依曼结构了。做过用现有架构和思路做深度神经网络硬件实现的同学应当对此有体会。 因为计算和存储的分离, 大家只好拼设计, 怎么充分利用现有的带宽,在架构的时候做好数据流,不要让某个部分成为瓶颈,是重中之重。 现状终将导致新的硬件革命。 Xpoint是个好的尝试, 可惜现实很骨感。 忆阻器也是个好的尝试, 现实更加骨感。 做硬件创新真难! 不要壮志未酬身先死。 现代社会人口爆炸,壮士太多, 不少我一个。
从硬件的胡扯拉回来。 大脑的快乐系统,以及对我们生活的启示 这篇总结脑进展的文章也可以对人工智能研究有所启示。 人可能就是一台自然选择出来的化学计算机器, 大脑也并没有那么特殊。虽然前路漫漫, 朦胧之中仍然能看到一点曙光。
本文结尾,引用周恩来总理的一首诗,雨中岚山,中的几句。 还是在1919年, 大革命的年代, 作为青年学生的周总理留学日本, 将要回国,临行前游览日本的旅游圣地岚山。面对当时中国的各种复杂情况,心有感触, 写下这首诗。 这里摘录几句:
潇潇雨 ,雾蒙浓,
一线阳光穿云出,
愈见娇妍。
人间的万象真理,
愈求愈模糊,
模糊中偶然见着一点光明,
真愈觉娇妍!
2017年, 祝大家更上一层楼!