本文是Wolfram/Mathematics 的创始人和总裁Stephen Wolfram 于今年10月14日-15日在纽约大学哲学系,脑,意识和认知研究中心举办的人工智能伦理学会议(Lecun, Russell等人有出席)上的讲话. 因为其中包含非常深刻的思想, 因此本着科学共享的精神在这里翻译传播, 尚未征得作者的允许(已经发出邮件,未收到回复). 原文链接在: http://blog.stephenwolfram.com/2016/10/a-short-talk-on-ai-ethics/.
简单介绍一下Stephen Wolfram, 此君的各种作为只能用神奇来形容, 早在个人电脑刚刚出现的80年代初期, 大家还在用命令行, 此人就搞出了一个能够做符号运算, 搞定因式分解,求导和积分等等公式推导的神奇软件Mathematics. 其后趁着互联网热潮又做了一个知识图谱的网站wolfram alpha, 号称要收集并且结构化人类的客观知识,苹果的siri回答知识相关的问题就用的这个网站. 在2002年此君写了一本1000多页的大书, 一种新科学, 试图从计算的角度解释世界(跟本文的思路一脉相承). 对错姑且不论(个人对纯数学哲学不是很感冒), 这份情怀是世间少有. 此君的核心思想是, 从简单模式中通过计算演化出来了复杂性, 而包括现实世界复杂性的所有复杂性都等价. 同时正是因为计算演化出来的复杂, 并不能跳过运算过程直接预测结果, 内含的哲学思想是, 虽然复杂性等价, 但现实因为计算演化的不同而不同. 也即一切都是历史, 历史成就当下, 未来不可预期. 这是一种透过现象看本质的思路, 值得更多思考. 括号内为翻译原文时帮助理解所加.
_________________历史感的分割线_________________________
谢邀!
要知道, 我出现在这里(纽约大学哲学系)本身就很有意思. 我妈妈是牛津大学的哲学教授, 所以我从小就下决心不讲或者研究有关哲学的任何东西(不知小时候受到什么压迫). 但是这次我来了.
在具体讨论AI之前, 我先谈谈自己的世界观. 我的人生基本上是在研究基础科学和开发工程技术之间摇摆. 自打有记忆起, 我就对人工智能产生了兴趣. 但我从孩提时代开始研究的却是物理和宇宙学(要跪!).之后我又搞了能够自动化数学计算的技术. 这件事情做的非常成功, 因此我开始思考是否可以面向所有事物提出理解和计算一切的理论. 大约是1980年我开始琢磨如何建造象大脑一样的东西, 因此研究了一点神经网络, 但不是太深入.
就在同时, 我又对科学中也许更大的问题产生了兴趣: 如何得到有关一切的普遍理论. 近代300年来占统治地位的思路是用数学和方程来描述. 但是我想在此之上走的更远. 我意识到这个更大的问题原来可以用类似程序的思路, 来考虑计算宇宙的全部可能程序.
这导致了我个人的伽利略时刻(伽利略通过望远镜观察宇宙做出了伟大发现)出现, 我通过制造我的程序望远镜, 一些简单的计算程序, 其中之一规则30 能够从无到有制造出永不可穷尽的复杂.
(简单解释一下这两张图, Stephen 所谓的简单计算程序, 是从一个方块开始, 两种颜色表示0/1状态, 下一行的方块是0还是1, 根据上一行最相邻的3个方块来决定, 这样只要有一共2的三次方全部8种可能的组合规则.就可以无限计算下去, 第一张图是不同规则得到的计算结果(思考题, 一共有多少种不同规则?), 可见大部分规则都没有演化出复杂图案, 有一些非常简单, 稍复杂一点有类似分形的, 而其中用30号规则计算出现的图案就是上图, 是Stephen最喜欢的, 宣称是自己毕生最伟大的发现)
当我看到规则30时, 我意识到某种在计算宇宙–或者包括所有自然世界中普遍存在的东西出现. 这是令我们看到的现实世界如此复杂的真正秘密. 同时也是一扇窗户呈现出原始(Raw),无约束计算的模样. 而我们传统意义上在工程中使用的计算都是足够简单也可以预期行为的.
当我们真正跳进计算宇宙中, 所遇到的事物会更加宽广. 我的公司做了非常多的研究, 发现类似程序可以用于多种不同目的, 比如规则30可以用来产生随机数. 而现代机器学习也是对与传统工程方法不同且范围更加自由的计算模式的探索.
对一般意义上的计算宇宙我们能说什么? 好, 考虑所有的这类程序都在做计算, 我多年前就发现了我称之为计算等价性的原理– 具体是说, 如果某个计算明显不是简单的, 它通常就会对应于某种最大化复杂性的计算. (不是简单, 就是复杂, 简单可以不同, 但是所有的复杂都同样复杂) 基于这个原理可以做出非常多的推断. 比如计算宇宙是普适的, 也应当是不可预期的, 也就是我称之为计算不可规约性(computational irreducibly).
(这一段有点绕口, 简单解释两句, Stephen认为计算可以分为简单的和复杂的, 传统意义上都是简单的, 用公式来算, 而真正的现实世界的是所谓复杂的, 没有公式, 不能提前预判, 只能通过计算来一步一步算出来, 而且所有的复杂计算复杂性都相当, 都是极端复杂 🙂 )
(见上图的结果) 你可以预期接下来会发生什么吗? 它或许就是计算不可规约的, 你不能提前判断发生什么(不存在简单规律和模式), 只能通过一步一步的计算过程来推导. 整个结果虽然都是确定性的, 但是某种意义上确实自由的, 因为(不通过每一步的计算)你并不能预期(某个特定未来时刻)会发生什么.
现在我们来谈另外一件事情, 什么是智能? 我的大一统原理说, 一切都是从微小的程序(规则)计算而来的. 我们的大脑也是可以被计算等价的. 在智能和大多数计算之间并没有明确的界限(Really?). 天气本身没有脑子. 但是天气变化所涉及到的计算并不比大脑更简单, 虽然对我们来说, 两者的计算非常不同. 因为天气的计算与人的目标和经验没有任何关联, 只是自己在演化自己的原始(Raw)计算.
如何来驯服计算呢? 我们必须把它和我们的目标融合起来. 而第一步就是描述我们的目标是什么. 过去30年我就是在做这样一件事情!
我建构了一种语言–称之为Wolfram语言- 用来表达我们要做什么. 这是一种计算机语言. 但是和其它计算机语言都不同. 因为它并不是用来告诉计算机每步做什么, 而是用来建构有关计算和世界的知识. 这样只要人类用我们的方式描述我们的目标(想干什么), 这个语言可以让实现目标所需的其他一切都尽可能的自动化.
其中的基本思想, 从mathematics这些年不断的发现和进展中来, 工作的非常好. 它同时也是Wolfram/Alpha(网站)的内核, 在那里(网站)处理纯自然语言问题, 理解问题, 并用关于我们文明(好大帽子)的某种精心组织好的知识和算法来回答问题. 而且, 同时, 它是非常典型的人工智能事物. 因为我们回答了十亿级别的用户提出的数以十亿计的问题.
我最近有个有趣的经历, 关于如何用我们的技术来教会孩子计算性思维. 我在给一本书写习题, 起初的题很简单, 类似”如何编程实现X”, 随后的问题开始复杂, 我知道怎么用Wolfram 语言来描述, 但是不知道怎么用英文来说. 当然这就说明了我们为什么要花30年来构建Wolfram语言(这广告做的…) .
英文包括大约两万五千个通用词汇, 而Wolfram 语言现在有大约五千条经过精心设计的基本构件(Built-in construct)–包括所有最近的机器学习进展– 以及描述了百万级不同的基于精心组织的数据的事物. 其中的思路是任何一个计算世界中的事物, 都应当可以很容易的用Wolfram 语言来描述. 最酷的是, 这真的有用. 人类, 包括孩子都可以用这种语言来读写, 计算机也一样可以. 这是某种高层次的桥梁, 用来连接计算和人类在自己文化上下文中的思考.
好, 那么关于AI呢? 技术通常是对已存在事物的发现, 并驯服事物自动达成人类的目标. AI 中我们驯服的是计算宇宙中的事物. 现在, 我们身边就有非常多可见的原始(Raw)计算. 因为自然界中这样的事情一直在发生(想象天气, 洋流). 我们感兴趣的是如何让它和人类的目标关联起来.
那么回到伦理学, 也许我们应当约束计算, 也就是AI, 只做符合伦理学的事情. 这意味着我们需要找到某种方式来描述它.
那么, 在人类世界, 我们做事情的方式是制定法律, 但是我们如何把法律和计算联系起来? 或许可以发明”合法代码”的提法. 但是今天的法律和合同都是用自然语言写的. 在财务领域有很多简单可计算的合同. 现在谈谈隐含存在的关于智能的合同. (原文比较口语化,不太好翻译, 大概意思是说怎么能让AI认可人的法律 )
对于大量存在的法律怎么办? 好, 莱布尼茨, 下个月是他逝世三百周年纪念日, 一直在讲要构建一种通用的, 我们正在探讨的, 能全部用计算的方式来表示的语言. 作为先驱他想的可能太早了, 但是现在正是我们该做这件事情的时候了.
上周我写了一篇长文, 这里总结一下, 用Wolfram 语言我们可以处理好对世间许多种不同事物如何来表示. 这些事物包括人们问siri的各种问题. 我想我们现在已经可以提出当年莱布尼茨想要的: 通用符号话语语言来表示人类世界的一切事物.
我意识到这是一个语言构建的问题, 是的, 我们可以通过自然语言获取线索, 但是最终会构建自己的符号化语言. 这实际上跟我最近几十年在Wolfram语言上做的事情同类. 比如就一个单词”加”(Plus)来说, 在Wolfram 语言中有个函数叫 Plus(加法), 和这个单词不是一个意思. 它是一个特殊版本, 必须是一个数学意义上的加法. 同样, 在我们设计通用的符号话语语言时, 英文中的单词”eat”(吃)有各种各样的含义. 我们需要一个概念, 也许同样用 eta(吃)这个符号来代表, 但是特指可以计算的吃.
所以当我们拿到一个以自然语言表示的合同时, 为了得到一个符号化的版本, 可以用所谓自然语言理解技术, 就像我们在Wolfram/Alpha 网站处理数以十亿计的请求所做的那样, 让人来区分歧义. 另外一种办法也许是类似用机器学习描述图片一样, 但是最好的方法就是用符号形态的语言来写. 而且我猜律师们不久以后就会这样做.
当然, 当你有一个符号形态表示的合同时, 就可以直接用来计算, 自动验证是否合规, 模拟预测不同的产出, 自动聚集条理化,诸如此类. 最终合同能从现实世界中自动获取输入, 而这些输入天生就是数字化的, 象计算机系统处理的数据, 或者交易比特币一样. 这些输入可以从各种传感器和不同测量中来, 通过机器学习转换成符号.
那么, 当我们把法律表示成可计算的形式之后, 我们就可以开始告诉AI 我们想要AI怎么做. 当然, 如果我们能把每一件事情都分解成基本原则会更好, 类似阿西莫夫的机器人三大守则. 或者功利主义之类的东西.
但是我不认为这样的事情会发生. 我们最终想做的是发现关于计算的完美约束. 但是计算在某种意义上是无限狂野的(wild)的东西(意指不可控). 哥德尔完备性定理已经展示过了. 就象我们看待整数, 通过建立习语来约束它们, 并且让它们按照我们想让它们做的那样做. 哥德尔指出没有有限的习语集合可以做到这一点(有限公理系统不完备). 任何一个你选定的习语集合, 不光包括你想要的整数, 还必然包括某些其它野(wild)的东西.
而计算不可规约现象意味者这件事情的更一般版本. 基本上给定任何法律集合, 必然会存在某些不想要的推论. 从人类法律的发展历史来看这并不稀奇, 关键点是从理论上就没办法规避,. 这是计算宇宙普适存在的. (这一大段是说简单的阿西莫夫定律不存在)
现在我想很清楚AI在今后的世界中会越来越重要-最终会控制有关人类事物的所有基础设施, 就象现在的政府. 或许也像政府一样, 该做的是建立AI的宪法来规范AI应当怎么做.
这个AI宪法会是什么? 它应当基于现实世界的一个模型, 而不可避免是不完美的. 这样可以说(AI)在各种不同条件下该如何做. 最终所做的是让对计算的约束与我们的目标一致(原文中有happen, 可以双关为碰巧, 个人理解是一种嘲讽). 那么这些目标又是什么? 我不认为现在就能给出合适的答案. 事实上, 我们列举目标就象在计算宇宙中列举程序一样. 不存在一个能抽象出来的挑选准则.
但是我们还是可以做出选择, 因为我们有特定的生物学, 有特定的基于文明和文化的历史. 这让我们从各种不同的不可规约计算中来到此处, 我们只处在计算宇宙的某个点上, 对应者我们现有的目标.
人类的目标在历史进程中可以看的很清楚, 是一直在演化的. 我猜测今后会演化更多. 我认为我们的意识不可避免的会和技术越来越多的融合. 最终我们的整个文明将终结于一个类似包含千亿计的人类灵魂上传的盒子(类似Matrix, 全部变成计算).
那么接下来的大问题是, 他们会选择这样做吗? 或许我们现在都没有语言来描述这个问题的答案. 让我们上溯到莱布尼茨的时代, 我们可以看到所有的现代的概念当时都还没有成形. 而当我们看看现在机器学习或者定理证明系统的内部, 应当可以谦卑的看到如此之多的概念和它们的有效形式尚未被我们当前的文化吸收. (这段是吐槽你们没有能力为未来操心)
以我们当下的视角来看, 那些未来没有实体的虚拟灵魂就像是在玩一个永远不停的游戏. 但是他们可能只是一开始在我们的现实宇宙的模拟中操作, 随后他们就会在计算多重宇宙的多种可能宇宙之间进行探索.
但是从某些层面来说, 他们所做的也只是计算- 就计算等价性原则来来说, 一个复杂计算本质上与其它任何复杂计算等价. 这有点让人失望, 我们的骄傲未来将终结于计算等价性, 或者说平淡的物理, 甚至是微小的规则30.
当然, 这只是关于我们并不是本质上不同的一群的一个很长的科学故事的扩展. 我们无法预期我们能够达到的终极. 我们无法定义一个终极目标, 或者终极伦理学, 某种意义上, 我们只能被我们的历史和现实的细节所包围.
不存在一个简单的原理可以在AI宪法中给我们提供想要的避风港. 将会有大量的细节对应于我们自己的历史和现实的细节. 而第一步只是要搞明白如何来表示这些细节. 我认为这正是我构建的符号话语语言.
还有, 是, 我碰巧花了30年建造框架去做这样的事情, 我更倾向于用它,也知道如何用它来构建我们的AI宪法.
所以我最好不要在继续谈哲学. 先回答一些问题吧.
(译后语, 翻译这篇文章的时候, 能感受到 Wolfram 本人一直在以神的视角观看人类. 估计一直在暗骂说你们这些笨蛋, 还想开个会来讨论怎么约束AI, 你们搞清楚你们想要干什么了吗?)