但是我们人类(和后来的 AI )进行的计算有多“一般”?我们对大脑的了解还不够确定。但如果我们看看人工神经网络系统——比如 ChatGPT——我们可能会得到一些感觉。实际上,这些计算似乎并不那么“一般”。在大多数神经网络系统中,输入的数据只需“在系统中波动一次”即可产生输出。这不像计算系统(如图灵机)中可以进行任意的“数据循环”。事实上,如果没有这种“任意的循环”,计算必然是相当“浅”的,最终不能显示计算的不可约性。
回到现在的 AI 情况。ChatGPT 只是自动化了许多与文本有关的任务。以前,定制报告、信件等需要大量的努力和人力,但是(至少在处理不需要 100%“正确性”的情况下),ChatGPT 刚刚自动化了很多工作,因此人们不再被需要了。但这意味着什么?这意味着可以生产更多的定制报告、信件等。这将带来新的职业——管理、分析、验证所有大量定制文本等。更不用说提示工程师(prompt engineer)(这是几个月前还不存在的工作类别),以及类似 AI 善后员,AI 心理学家等等。
但是,如果资源不再“稀缺”呢?如果进步——以自动化或 AI 的形式——使得“获得任何想要的东西”变得容易?我们可以想象机器人建造了所有东西,AI 解决了所有问题的局面。但仍然有一些必然稀缺的东西。不动产是有限的,也仅能有一件东西可以拥有“第一件___”的称号。最终,如果我们的生命是有限的,那么我们的时间就只有那么多。
那么,当我们“与 AI 交谈”时,我们能指望仅使用自然语言来表达我们想要的东西吗?我们当然可以走得更远——实际上,ChatGPT 帮助我们比以往任何时候都更进一步。但是,当我们试图使事情更加精确时,我们会遇到麻烦,我们需要的语言会迅速变得越来越华丽,就像复杂法律文件的“法律术语”。那么我们该怎么办呢?如果我们将事情保持在“人类思维”层面上,我们就不能“深入”到所有的计算细节。但是,我们希望确切地定义我们所说的话如何根据这些计算细节实现。
好的,但是让我们假设我们正在设置某个 AI 系统,并且我们希望确保它“不会做出任何坏事”。这里有几个层次的问题。首先是决定我们所说的“任何坏事”是什么。正如我们将在下面讨论的那样,这本身就非常困难。但是即使我们可以抽象地想出,我们应该如何实际表达呢?比如列出一些坏事的事例——但这将逼着 AI 以一种不可预料的方式把个别具体事例“外推”到其他场景。或者我们可以用计算语言描述我们想要的内容。覆盖“每种情况”可能很困难(就像在现今的人类法律或复杂合同中一样)。但是至少我们作为人类可以阅读这些规范内容。虽然是在这种情况下,依然存在计算不可约性的问题:即使给定规范,也无法计算出所有结果。
所有这些意味着什么?本质上,这只是反映了一个事实:一旦涉及到“严肃计算”(即不可约的计算),就无法告诉接下来会发生什么。(从某种意义上说,这是不可避免的,因为如果可避免,就意味着不存在计算不可约性。)所以,是的,我们可以尝试“告诉 AI 该做什么”。但是这将像自然界中许多系统(或者人)一样:你可以设置它们走一条路,但是你不能确定会发生什么,只能边走边看。
由AI主导的世界
今天的世界,已经有很多事情是由 AI 完成的。正如我们所讨论过的,未来一定会有更多的事件会由 AI 完成。但我们谁来“掌控”这一切呢?是我们告诉 AI 该做什么,还是 AI 告诉我们该做什么?今天做得最好的还是两者的混合:AI 为我们提供一些内容(如互联网内容),并且总体上会对我们的行为做出各种各样的建议。毫无疑问,在未来,这些建议将更加广泛,更加紧密地与我们联系在一起:我们把自己每个动作都记录下来交给AI处理,然后AI的建议会通过增强现实( AR )实时地标注在我们所看到的一切事物上。从某种意义上来说,事情甚至可能超出“建议”的范畴。如果我们有直接神经接口,我们的大脑就只需要对是否做某件事情做个“决策”就行了,那么在某种意义上,我们就成了纯粹“AI傀儡”。
“个人建议”之外,还有另一个问题,就是AI是否在运营我们使用的系统,甚至是否在运营整个文明的基础设施。今天,我们最终期望人们为我们的世界做出大规模的决策——通常在由法律定义的规则系统中运作,有时可能会得到计算机的帮助,甚至可以称之为 AI。但也许有一天,似乎让人感觉 AI 可以比人类“做得更好”,比如运营中央银行,或发动战争。
人们可能会问,如何知道 AI 会不会“做得更好”呢?好吧,人们可以尝试测试和运行实例。但再次面临计算上的不可约性。是的,所尝试的特定测试可能会很好地发挥作用。但是我们不能最终预测可能发生的一切。如果突然出现一个无先例的地震事件,AI 会怎么做?直到事情发生,我们基本上是不会知道的。
但我们能确定 AI 不会做任何“疯狂的”事情吗?我们能否“证明一个定理”,即在某种定义下,“疯狂”的 AI 永远不会出现?对于任何现实的非平凡性的“疯狂”定义,我们又会再次面临计算上的不可约性,这是不可能的。
因此,我们可以期望在“AI 基础设施”中的情况也如同天气一样。正在发生一些我们无法轻易地预测事情(就像天气一样)。我们将能够——以一种更接近于心理学或社会科学,而不是传统的精确科学的方式——预言一些事情。但是,还会有一些意外之事——就像用 AI 模拟程序预测飓风或冰期时可能遇到的一些奇怪现象。最终,我们真正能做的只是让我们建立的人类文明,不会被这些事情所“根本性地影响”。
但至少最初,我们可能认为自然和AI之间有一个重要的区别。因为我们一方面认为自己不能“选择自然法则”,然而另一方面,既然我们是AI的建造者,我们又觉得自己可以“选择AI的法则”。但是,两个方面都不完全正确。因为实际上 Wolfram 物理学项目的一个含义就是我们所感知到的自然法则之所以是这个样子,是因为我们是观察者,我们就是所看到的这个样子的。在 AI 方面,计算上的不可约性意味着,我们不能期望仅从知道给它们制定了什么基本法则,就能确定 AI 的最终行为。
但是 AI 的“涌现法则”将是什么呢?就像在物理学中一样,这将取决于我们如何“采样”AI 的行为。如果我们看到单个比特位的水平,那么它将类似于分子动力学(或空间原子的行为)。但通常我们不会这么做。就像在物理学中一样,我们会作为计算能力有限的观察者进行操作——只测量具有不可约性的底层过程的某些聚合特征。但是,AI 的“整体法则”会是什么样子呢?也许他们将表现得非常类似于物理学。或者也许它们看起来更像是心理学理论(对于 AI 的超我的解析?)。但我们可以期望它们在许多方面类似于我们所知道的自然界宏观法则。
但是,我们与自然互动和与 AI 互动之间至少还有一个区别。因为我们在本质上已经与自然并存在了数十亿年,而AI则是“新手上路”。通过我们与自然的共同演进,我们发展出了各种结构、感官和认知特征,使我们能够“成功地与自然互动”。但是我们与 AI 之间并没有这些。这意味着什么呢?
是这样的,我们与自然互动的方式可以被认为是利用存在于自然过程中的可简化计算的区域——将事物变得对我们来说多少有点可预测性。但是如果没有为 AI 找到这样的区域,我们将面临更多的“原始计算上的不可约性”——因此更加不可预测。近代人类有一种自负,特别是在科学的帮助下,认为我们能够让世界变得越来越可预测,而实际上,这是我们所习惯的生存环境和做事方式导致的妄想。因为我们生存于自己建造,并且可控的环境之中。
但对于新的“AI 世界”,我们实际上是从零开始。要在那个世界中使事情可预测,可能部分是新科学的问题,但更重要的是选择我们如何围绕那里的AI建立我们的“生活方式”。(是的,如果存在很多不可预测性,我们可能会回到更古老的命运意识,或者将 AI 视为希腊神话中的奥林匹斯山众神,互相争斗,并时不时对凡人产生影响。)
AI世界中的治理
假设现在世界实际上是由 AI 来掌控,但是我们假设人类至少有一些对它们的行为掌握权。那么我们应该让 AI 遵循什么样的原则?例如,它们的“伦理”应该是什么样的?
然而,让我们设想我们正在为 AI 选择一组原则。我们可以使用哪些标准来进行选择?一种可能是这些原则不会不可避免地导致一个简单状态,比如 AI 灭绝,或者不得不一直重复同样的事情。很多情况下,计算不可约性(在这里是像停机问题等形式)会再次起作用,一个人无法得知会发生什么,或者无法成功地通过这种方式选择“可行的原则”。
但是,我们应该如何做出集体决策呢?没有完美的答案,但在当今世界中,民主以一种形式通常被视为最好的选择。那么 AI 如何影响民主,并可能改善它?首先我们假设“人类仍然掌控着”,所以最终是人类的偏好起决定作用。(同时假设人类在“当前形式”下:独特且不可复制的离散实体,相信他们拥有独立的思想。)
当前民主的基本设置在计算上是相当简单的:给出离散投票(或可能是排名),然后使用数字总数来确定胜利者(或胜利者们)。而过去的技术几乎只能做到这一点。但现在有一些新元素。想象一下不是投离散票,而是使用计算语言编写计算短文来描述自己的偏好。或者想象一下与一种能够绘制并辩论一个人偏好的语言能力 AI 交谈,最终以某种特征向量总结它们。然后想象将所有“选民”的计算短文或特征向量馈送给某种“计算出最好的做法的”AI。
但是,无论其详细机制如何,AI 宪法应该说些什么?不同的人或人群肯定会得出不同的结论。并且可以预见,就像今天有不同的法律体系的不同国家等存在一样,也将有不同的团体希望采用不同的AI宪法(当然,在这些 AI 宪法相互交互时,同样涉及到集体决策的问题)。
但是,一旦有了 AI 宪法,我们就有了一个基础,以此来做决策。再添加上一个大型的计算合约网络,这些合约将自主执行,从而“运行这个世界”。
这也许是一个典型的“可能出什么错?”时刻。一个 AI 宪法已经达成一致,现在所有事情都由遵循其宪法的 AI 高效自主地运行。然而,一旦再次涉及到计算不可约性,因为无论怎样精心制定 AI 宪法,都意味着无法预见它的后果,因为“意外”的事情总是会发生,其中一些无疑是我们不喜欢的。
在人类法律体系中,总是有一个添加“补丁”的机制,即填补涵盖新情况的法律或先例。但是,如果所有事情都由 AI 自主运行,就没有空间进行操作了。是的,我们人类可以将“发生的不好的事情”称为可以通过添加补丁来修复的“漏洞”。但是,AI 只能按照其宪法运行,基本上是公理化运作,因此它无法“看到它是一个漏洞”。
与我们之前讨论的情况类似,人类法律与自然法律之间存在一个有趣的类比。人类法律是我们定义并可以修改的东西。自然法则是宇宙向我们提供的东西(尽管有关观察者的问题仍需讨论)。通过“设定 AI 宪法并让其运行”,我们基本上迫使自己处于一种境地,即“AI 的文明”是世界上的某个“独立层”,我们必须接受它,并作出相应的适应。
当然,我们可以思考 AI 宪法是否可以“自动演变”,例如根据在世界上实际发生的事情。但是,我们很快就回到了同样的计算不可约问题,其中我们无法预测演变是否“正确”,等等。
到目前为止,我们假设在某种意义上“人类掌控”。但在某个层面上,这是由AI宪法定义的问题。它将不得不定义 AI 是否拥有“独立权利”——就像人类一样(以及在许多法律系统,和其他一些实体中同样如此)。与为 AI 授予独立权利相关的问题密切相关的是,AI 是否可以被认为是自主“对其行为负责”——或者这种责任是否必须始终归于(很可能是人类的)创建者或“程序员”。
计算不可约性再次发挥了作用,因为它意味着 AI 的行为可以“不可约地超越”其程序员所定义的行为。最终,这(正如我们以上讨论的那样)是相同的基本机制,即在操作确定性基础自然法则的情况下,我们人类实际上具有“自由意志”。因此,如果我们声称我们人类拥有自由意志,可以“对我们的行为负责”(而不是我们的行为始终“由基础法则所主导”),那么我们最好也声称 AI 也是如此。
因此,就像人类在其生命中构建了不可约的和不可替代的东西一样,AI 也可以如此。但实际上,AI 似乎可以进行备份、复制等操作——这种情况(尚)不适用于人类。因此,它们的个体实例似乎不那么有价值,即使“最后的拷贝”可能仍然有价值。作为人类,我们可能会说“那些 AI 是某种低等级的东西,他们不应该有权利”。但是事情会变得更加纠缠。想象一个不再有可辨认所有者但正在成功地与人们交友(比如在社交媒体上)的机器人,它利用捐赠、广告等为其基础运维支付费用。我们能合理地删除那个机器人吗?我们可能会认为“机器人感觉不到痛苦”——但这对它的人类朋友并非如此。但是,如果机器人开始做“坏事”呢?好吧,那么我们将需要某种“机器人正义”,很快我们将发现自己在为AI建设整个类似人类的法律结构。
因此,这意味着必然会有整个 AI“生态系统”——没有单一的赢家。当然,虽然这可能是不可避免的最终结果,但在较短期内可能不会发生这种情况。实际上,现在集中化 AI 系统的倾向存在某种危险,相对于“处于平衡状态的 AI”的整个生态系统,AI 行为可能变得“不稳定”。
在这种情况下,还存在另一个潜在的问题。我们人类是在生物进化历史的漫长斗争中产生的产物。只要AI继承了我们的特质,我们可能会期望它们也会遗传某种“求胜欲”——或许还是针对我们的。或许这就是 AI 宪法的重要性所在:定义一种“契约”,以取代 AI 可能从有效观察我们行为中“自然”遗传的东西。最终,我们可以期待AI会“独立地达到平衡”。但与此同时,AI 宪法可以帮助打破它们与我们的生物进化“竞争性”历史的纽带。
准备迎接这个人工智能的世界
我们已经谈论了 AI 的终极未来发展方向以及与人类的关系,但短期内呢?我们今天该如何为不断增长的AI能力和用途做好准备呢?
历史已经证明,使用工具的人往往比不使用工具的人更成功。是的,你仍然可以继续使用人力去完成那些本来已经自动化了的工作,但除了极少数情况外,放弃工具会让你越来越落后。而现在出现了一种极其强大的工具组合:神经网络风格的 AI 用于“即时人类任务”,以及计算语言用于更深入地访问计算宇宙和计算知识。
是的,虽然传统编程可能会被 AI 大量淘汰,但计算语言是一种在人类思维和计算宇宙之间搭建的永久桥梁:一种在设计(和实现)语言之时既已完成了自动化的通道——在某种意义上,这留下了一个适合于人们学习和使用的接口,得以扩展他们思维。
那么,关于科学的未来呢?AI 是否会取代我们人类,例如在“做科学”方面?我本人将计算和许多可能被视为 AI 的东西作为科学发现的工具使用了近半个世纪。是的,我的许多发现实际上是“由计算机完成的”。但是,科学最终涉及将事物连接到人类理解上。到目前为止,还需要人类来将计算机发现的东西编织成整个人类智力历史的完整网络。
在新兴的 AI 世界中,将有很多具体的技能对于(大多数)人类来说是失去了学习的意义——就像今天自动化的进步淘汰了许多过去的技能一样。但是——正如我们已经讨论过的那样——我们可以期望“有一个地方”适合人类。而对于我们人类来说最重要的是学会如何选择“下一步该去哪里”,以及我们应该将人类文明带到计算宇宙的无限可能性中的哪个方向。
但除了做不同的工作之外,还有一个问题,那就是个体如何花费他们每天的时间。虽然它肯定达不到我的(非常极端的)个人分析水平,但是在《关于美国人时间利用传统的研究》( American Heritage Time Use Study )中,多年来已经收集了一定数量的这方面的数据(通过随机抽样人员获取的时间日记)。因此,例如,这里是基于此调查的图示,显示了在几十年中,人们在广泛的不同活动中花费时间数量的变化情况(主要行表示每种活动的均值,以小时为单位;阴影区表示连续的十分位划分):