本次访谈由知名播客主持人 Rich Roll 主持,邀请到了全球畅销书作家、历史学家尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)。作为《人类简史》《未来简史》等作品的作者,赫拉利的著作已在全球售出 4500 万册,使他成为我们这个时代最具影响力的公共知识分子之一。
在这场深度对话中,赫拉利围绕其最新著作《Nexus》展开讨论,探讨了人工智能可能成为人类文明史上最具破坏性力量的论据。与以往不同的是,赫拉利认为 AI 不应被简单视为人工智能(artificial intelligence),而更像是一种外星智能(alien intelligence)。他指出,当前 AI 带来的真正风险并非科幻电影中的机器人叛变,而是遍布各个领域的 AI 决策系统正在逐步改变人类社会的运作方式。
这次对话发生在一个关键时刻:去年 ChatGPT 的发布引发了全球对 AI 的关注,而现在这项技术正以惊人的速度发展。赫拉利在 2016 年出版的《未来简史》中就对 AI 发展做出过预警,如今看来,技术的发展速度甚至超出了他当时的预期。在这场历时两小时的对话中,赫拉利以其特有的宏观历史视角,深入探讨了 AI 对人类社会的影响,以及我们应该如何应对这一前所未有的挑战。
本次访谈不仅涉及技术发展,还触及了信息时代的本质、社会制度的重要性、人类合作的可能性等深层议题,为我们理解和应对 AI 时代提供了独特的思考维度。
尤瓦尔·诺亚·赫拉利(Yuval Noah Harari)的核心观点包括:
- AI 的定义:AI 具备自我学习和自我改变的能力,能够自主决策并创造新想法。
- 信息的虚构:大多数信息实际上是无用的。在真相和虚构之间,真相因其昂贵、复杂且有时痛苦,而虚构因为便宜、简单且有吸引力,虚构往往占上风。
- 算法的捷径:AI 不仅是工具,亦是社会变革的推动者。算法在数十亿人类用户中进行试验,发现了提高用户参与度的捷径:激发人性的贪婪、仇恨或恐惧等情绪。
- AI 决策:即使是初级人工智能,其决策也会产生深远而可怕的影响。我们正把许多领域的决策权交托给 AI,引发关于 AI 官僚主义的担忧。
- 意识和智能:我们即将进入一种以非人为主导的文化。AI 的模拟意识没有依据,可以通过批量生产亲密关系、理解人类感受而操控人类。
- 信任 AI: 人类社会面临一个悖论:我们不信任其他国家和竞争对手,却愿意信任 AI。这种不信任推动了 AI 军备竞赛,各方都在加速开发更强大的 AI,认为自己能控制它,却不信任人类竞争对手会克制。
以下是本期播客内容的完整翻译,我们作了不改变原意的删减。
算法、信息与虚构
里奇·罗尔(Rich Roll)
我有一则消息要告诉大家……机器的崛起已然来临。那么,我们需要了解人工智能快速发展的哪些方面呢?这一革命对人类的未来意味着什么?为了在这场混乱中找到清晰的答案,今天我邀请到了尤瓦尔·诺亚·赫拉利。他是世界知名的历史学家,同时也是超级畅销书的作者。他的人类历史和未来相关作品已经售出 4500 万册,使他成为我们时代的著名公共知识分子。
尤瓦尔·赫拉利(Yuval Noah Harari)
这是我们首次接触一种非人类文化。最大的问题在于,我们是要迫使其减速,还是会被其加速到崩溃并导致死亡。
里奇·罗尔(Rich Roll)
我们今天谈话的主题是他的新书《Nexus》。这本书非常值得一读,因为它为人工智能成为人类文明史上最具破坏性的力量提供了非常有力的论据。
尤瓦尔·赫拉利(Yuval Noah Harari)
AI 可以做出决策,它们不再仅仅是我们手中的工具,而是创造新现实的代理。理解其中的危险性非常困难,因为这些危险对我们来说是陌生的。在好莱坞电影中,我们看到的是杀人机器向人类开火,而在现实生活中,尽管是人类扣动扳机,但选择目标的却是 AI。
里奇·罗尔(Rich Roll)
感谢大家的到来。很高兴你们今天能在这里。我非常期待与大家讨论一本颇具启发性的书,这本书可能关乎我们这个时代最重要的问题。在反思这本书时,我想起了《未来简史》(Homo Deus),这本书大约在 2015 年或 2016 年出版。在书中,你提到了人工智能的未来,当时似乎为尚未发生的未来情景敲响了警钟,对吧?那时的警示听起来也许有些像“卡珊德拉的预言”,即使并非所有人都接受。而现在,我们身处 2023 年,几乎十年过去了,不仅站在新革命的门槛上,而且以一种甚至比你当初预测的更为激烈的方式深陷其中。
尤瓦尔·赫拉利(Yuval Noah Harari)
的确,事情的发展速度远超出我们的预期。2016 年,当时 AI 就像是地平线上的一小片云,似乎需要几十年甚至更长时间才会产生影响。然而,如今已经是 2024 年,这场风暴已经来临。我认为最重要的是理解 AI 究竟是什么。关于 AI 的炒作太多,这使人们难以辨别什么是真正的 AI。如今,尤其是在市场和投资领域,几乎所有东西都被贴上 AI 的标签以增加销量。所以,你的咖啡机不仅仅是一台咖啡机,而是 AI 咖啡机;你的鞋子也是 AI 鞋。
那么,什么才是真正的 AI 呢?关键在于理解 AI 具备自我学习和自我改变的能力,能够自主决策并创造新想法。 如果一台机器做不到这些,那它就不是真正的 AI。因此,如果一台咖啡机只是按预设程序煮咖啡,并且永远不会学习新知识,那它只是一台自动机器,而非真正的 AI。
真正的 AI 是这样的:当你靠近咖啡机时,它会在你按下任何按键之前就告诉你:“我通过观察你过去几周或几个月的表现,基于我对你的了解、你的面部表情以及一天中的时间等因素,预测你想要一杯意式浓缩,所以我已经提前为你准备好了。”这就是 AI 独立做出决策的能力。如果它接着告诉你:“实际上,我发明了一种新饮料,这是人类此前未曾想过的,我称其为‘bespresso’。”
就像一杯精心为你准备的咖啡,人工智能也是如此。它具备自主决策和产生新创意的能力,因此我们无法预测它将如何发展。不论是顺利前行还是面临挑战,它可能会研发出我们从未想到的药物和治疗方法,同时也可能创造出我们难以想象的武器和危险策略。
里奇·罗尔(Rich Roll)
你将 AI 描述为不是人工智能(artificial intelligence),而是外星智能(alien intelligence)。你使用了一个不同的术语。能否解释一下这两者之间的区别?你为什么选择了这个术语?
尤瓦尔·赫拉利(Yuval Noah Harari)
传统上,AI 通常指代人工智能。然而,随着时间的推移,AI 变得越来越不是“人工”,而是更具“异质性”。这里的“异质性”并不是指它来自外太空,而是指它在分析信息、做出决策、发明新事物的基本方式上与人类大相径庭。“人工”这个词来源于人工制品,可能会误导人们认为它是我们可以完全掌控的工具,但这实际上具有误导性。我们设计出了一种“新生的 AI”,赋予其自主学习和演变的能力,然后将其付诸实践。然而,它们的行为不受我们完全控制,常常难以预测。从这个角度来看,它们确实不同于人类。
人类是有机体,就像其他动物,我们依赖于周期性的运作:白天与黑夜、夏季与冬季,有时活跃,有时需要休息和睡眠。而在这个意义上,AI 是不同的,因为它们不是有机体,它们以完全不同的方式运行,不依赖于周期,不需要休息或睡眠。如今,随着 AI 逐步掌控更多现实和社会的组成部分,适应性的问题开始显现。究竟是无机的 AI 会被迫适应人类的有机生活节奏,还是人类将被迫适应这种无机的生活方式?
甚至从最简单的问题来看,AI 总是“在线”,而人类则需要“离线”。例如,在金融市场,传统上像华尔街这样的地方,只在周一至周五的早上 9:30 到下午 4 点开放。晚上关闭,周末和像圣诞节这样的假期也休市。然而,如今随着算法和 AI 对市场的控制,它们始终保持“在线”。这给人类的银行家和投资者带来了压力,因为他们无法片刻放松,否则会被远远地抛在后面。因此,从这个意义上来说,AI 确实是不同的,但并不是因为它们来自火星。
里奇·罗尔(Rich Roll)
这本新书的论点要求我们理解信息的本质,以及信息网络的演变如何与人类的发展和进步密不可分。这对于理解人工智能及了解当前的实际情况和未来的发展至关重要。因此,我很好奇你如何通过这种视角理解人工智能的本质,以及为什么从此视角提供人工智能的发展背景是重要的。
尤瓦尔·赫拉利(Yuval Noah Harari)
这是我在以往著作中探讨的一个观点:信息是构成人类社会和现实的最基本层面。人类之所以独特,是因为具备大规模合作的能力,这使我们能突破其他物种的局限。比如,与黑猩猩相比,它们最多只能与几十个同伴合作,而人类却能够在数千、数百万甚至数十亿人之间进行几乎无限制的合作。在这一过程中,信息扮演了连接这些大规模系统的核心角色。
因此,要理解人类历史,很大程度上就是要理解信息的流动。 例如,民主与独裁的信息流动方式的区别实际上决定了它们的运作模式。在独裁体制下,决策是集中化的,信息从一个中心传达;而在民主制度中,决策是分布式的,信息流动更加分散。理解这样的历史变化对于认识不同政治和经济体系的成败至关重要。现代信息技术的出现,使得规模庞大的民主制度如美国成为可能。然而,今天的民主危机也与新信息技术、社交媒体以及人工智能的出现密切相关,因为这些技术改变了信息基础设施。
里奇·罗尔(Rich Roll)
我们通常认为信息系统和信息技术的发展是增强全球民主制度的重要组成部分。然而,这一理念中存在一个根深蒂固的误解:认为信息越多就越好,能够自动带来真理、知识和智慧。而你的书则揭示了这一观点的偏误,并叙述了信息不仅由其定义,还由其目的所决定的不同故事。
尤瓦尔·赫拉利(Yuval Noah Harari)
信息并不总是真相。信息是一座桥梁,能够将许多人联系在一起。不幸的是,历史表明,以虚构、幻想、宣传和谎言来联结人群、建立社会秩序往往比依赖真相要容易得多。因此,大多数信息并不是真实的,而真相在全球信息中只是极为稀少的一部分。
关于真相的问题在于,首先,获取真相的成本很高,而虚构的成本却很低。 例如,如果你想撰写一本关于罗马帝国的真实历史书,你需要投入大量的精力、时间和资金。你可能需要学习拉丁语、甚至是古希腊语,进行考古挖掘,研究古代的铭文、陶器或武器。这是非常费时且困难的。相比之下,创作一部关于罗马帝国的虚构故事则非常简单,你可以随心所欲地写,它便可以存在于纸面或网络上。真相往往也很复杂,因为现实本身就是复杂的。若你想对罗马共和国或罗马帝国的最终衰落做出真实的解释,这将极为复杂。
而虚构的描述可以很简单,人们往往更愿意接受简单的解释而非复杂的。最后,真相通常不吸引人,甚至可能令人痛苦。我们常常不愿面对自身的真相,不论是个人层面——这也是为什么我们常常需要通过多年的心理治疗来理解那些关于自己的不愿知晓的事实——还是在国家层面。每个国家都有一段民众不愿直视的黑暗历史。一位竞选中只讲真话、全讲真话、只讲真话的政客,很难赢得选票。因此,在真相和虚构之间,真相因其昂贵、复杂且有时痛苦,而虚构因为便宜、简单且有吸引力,虚构往往占上风。
如果你观察历史上的大规模系统网络,它们通常是建立在虚构基础上的,而非真相。让我举个例子。当你考虑视觉信息时,比如肖像画、图画、照片,世界上最常见的肖像是什么?人类历史上最有名的面孔又是谁?毫无疑问,那是耶稣的面孔。我是说,存在的耶稣画像比其他任何历史人物都要多,几百年来有数以亿计的画像被创作并分布在大教堂、教堂、家庭中,而所有这些画像都是虚构的。没有任何一个真实可信的耶稣肖像存在。在世时的他没有留下任何肖像,《圣经》中也未对他的外貌作出描述。经文中没有一句话提到耶稣是高是矮、是黑发还是金发,还是秃头,什么都没有。所有的画像都来源于人们的想象,而这些画像却依然有力量激励和团结人们。这种力量可能用于良好的目的,例如慈善、医院建设或帮助穷人,但也可能用于不良的目的,比如十字军东征、迫害或宗教裁判。
然而,无论如何,虚构形象在团结人心方面具有巨大力量。在今天的世界里,我们看到大型科技公司和社交媒体平台告诉我们,信息总是有益的,于是我们被允许打开所有的信息流限制,用大量信息淹没整个世界。他们说,更多信息意味着更多真相、更多知识和更多智慧。但事实并非如此。大多数信息实际上是无用的。 如果我们只是用信息淹没世界,真相不但不会浮出水面,反而会因为代价高昂和复杂的特性而沉入谷底。
我们面临的信息泛滥,尽管拥有历史上最先进的信息技术,但人们之间正在逐渐失去互相对话和倾听的能力。在美国,共和党人和民主党人几乎无法进行正常的对话。这不仅仅发生在美国,在巴西、法国、菲律宾,以及世界各地都是如此。因为,误解在于更多的信息总是对我们有益。这就像以为更多的食物对我们总是有益一样。
里奇·罗尔(Rich Roll)
大多数信息其实都无关紧要。让我好奇的是,你的意思是这些现象从某种程度上来说并不新鲜。我们突然产生一种想法,觉得自己处于一个后真相世界。你的观点部分认为,这种情况过去似乎一直存在。当前的主要区别不在于那些让我们共享信息的平台,而在于其背后的算法。正是这些算法决定了我们看到的内容和看到的时间。
尤瓦尔·赫拉利(Yuval Noah Harari)
你可能认为这是你首次见证人工智能具备独立决策能力,并因此改变世界。但事实上,这种能力早已存在。当我们说人工智能可以自主决策时,意味着它不仅是我们的工具,更是未来变革的推动者。 虽然这听起来像是对未来的预言或预测,但实际上,它已成为现实。
即便在社交媒体平台上,虽然它们使用的是相对基础的人工智能,但它们的决策对世界产生了深远影响。在 Facebook、Twitter、TikTok 等平台上,决定推送哪些信息或推荐观看下一个视频的,并不是某个人,而是人工智能,也就是算法。公司给这些算法设定了一个简单而看似无害的目标:增加用户的参与度。换句话说,就是让人们在平台上停留更长时间。因为用户停留时间越长,公司就能获得更多收益,可以出售更多广告,并收集更多可供出售的数据。因此,用户的长时间停留对公司有利,这就是算法的目标。参与度听起来不错,谁不想参与呢?
但是,算法在数十亿人类用户中进行试验,发现了提高用户参与度的捷径:通过激发人性的贪婪、仇恨或恐惧等情绪。 如展示充满仇恨的阴谋论内容,会激起我们的愤怒和好奇心,让我们想看更多,并与朋友分享,从而增加用户的参与度。在过去的 10 到 15 年中,这些算法充斥于世界各地,推动了以仇恨、贪婪和恐惧为动力的社交对话,使当前的交流日益分裂。在如此对立的环境中,要进行理性对话变得异常困难。
里奇·罗尔(Rich Roll)
这实际上体现了非预期后果的问题,在某种程度上与尼克·博斯特罗姆(Nick Bostrom)的对齐问题以及回形针思想实验类似。这正是同一类的问题。我认为,这不仅反映了人类的无知,还体现了人类对强大技术的自负。正如你所知,你们经常谈论到故事,以及这些故事在塑造我们现实中不可磨灭的作用。
我们常说能了解自己的行为并加以管理,同时理解并控制后果。我们知道这里存在的风险,并确保我们推出的产品是安全且对消费者友好的。然而,事实上,他们在某种程度上意识到问题不那么简单,也不清楚结果会如何。因此,我们正处于一个尚未受监管的领域,一切皆有可能。
尤瓦尔·赫拉利(Yuval Noah Harari)
是的,我认为你提到的这一点非常重要,这些都是意想不到的后果。管理社交媒体公司的管理者并不是邪恶的,他们并没有故意去破坏民主或者让世界充斥仇恨。他们只是没有预料到,当他们为算法设定提高用户参与度的目标时,算法会开始促进仇恨。而这个现象最早出现的地方之一——不过我插一句。
里奇·罗尔(Rich Roll)
他们已清楚了解到这一情况,并非因为退缩,而是因为事实如此。他们认识到,目前尚未完全符合监管要求。
尤瓦尔·赫拉利(Yuval Noah Harari)
你说得没错,如今人们已经了解这些事情,但行动依然不够。然而,最初推动这些的时候,他们确实不清楚。八年前,我发表《人类简史》时,这一切才刚刚开始。我当时也没有注意到。
在缅甸,也就是以前称为缅甸的国家,Facebook 几乎等同于互联网,自然也是最大的社交媒体平台。在 2010 年代,Facebook 的算法故意传播关于罗兴亚少数民族的可怕阴谋论和假新闻,导致了一场种族清洗。这当然不是唯一的原因。对罗兴亚人的仇恨在此之前就已经存在,但社交平台上的宣传在 2016 年至 2017-2018 年间助长了种族清洗运动,期间成千上万的罗兴亚人被杀、被强奸,数十万人被驱逐。现在大约有近一百万的罗兴亚难民流亡在孟加拉国和其他地方。这些很大程度上是由 Facebook 上传播的阴谋论和假新闻推动的。
当时,Facebook 的高管甚至不知道罗兴亚人的存在。这不是 Facebook 策划的阴谋。在缅甸这个拥有数百万 Facebook 用户的国家,到 2018 年,即在他们收到种族清洗活动的报告之后,他们只有少数人员尝试监管数百万用户和算法的行为,而这些人员甚至不会说缅甸语。当算法选择向用户展示这些充满仇恨的缅甸语阴谋论视频时,Facebook 总部的人根本不懂缅甸语,不知道算法在推广什么。关键不仅是要免除人类的责任,而是要理解,即使是非常初级的人工智能,其决策也会对某些内容的推广产生深远而可怕的影响。
在缅甸,人工智能不仅仅在制造阴谋论。用户制作烹饪教程、生物学课程、佛教僧侣的仁慈讲道和阴谋论,而算法选择推广阴谋论。这警示我们,即便是非常初级的人工智能也会产生这样的后果。今天的人工智能比 2016 年时更加复杂,但仍处于人工智能进化过程的早期阶段。我们可以将其比作动物进化过程。进化到人类之前,经历了四十亿年。从如变形虫这样的小生物开始,经过数十亿年的进化,发展出恐龙、哺乳动物和人类。
如今,人工智能正处于一个平行的进化初期阶段,像 ChatGPT 这样的 AI 是人工智能世界的变形虫,但人工智能的进化是无机的、数字的,速度要快数百万倍。因此,生物从变形虫进化到恐龙需要数十亿年,而人工智能从今天的 AI 变形虫发展到 2040 或 2050 年可能仅需十到二十年。
里奇·罗尔(Rich Roll)
也许更少。
尤瓦尔·赫拉利(Yuval Noah Harari)
更少。
无处不在的 AI 决策:避免 AI 官僚主义
里奇·罗尔(Rich Roll)
我们的思维可能并不能完全理解这种自我学习和自我改进技术的飞速发展。这就像天文数字般的指数增长。与此同时,数以万亿计的美元正在被投入到运用 Nvidia 芯片构建的服务器农场中。维持这些运作需要大量能量,以至于他们甚至谈论使用核能来供电。这的确是一个全新的世界。
然而,当我们讨论这些问题时,对于我以及部分观众或听众来说,这似乎仍然是一种理论上的探讨,因为我们对 AI 的使用体验更多地集中在 ChatGPT 或一些其他实用工具上。我喜欢我的算法,因为它能在无需搜索的情况下展示我想购买的产品。举个简单的例子,为了准备这次播客,我听了你的有声书,然后像往常一样打开了许多标签页,搜集关于你及你书籍的信息。
但这次我做了一件以前没做过的事,即将一本名为《Nexus》的 PDF 上传到一个叫 Notebook LM 的工具上。这个工具为我总结了整本书的内容,并创建了一个聊天机器人,让我能就书中的内容提问,甚至深入解释某些概念。它甚至可以模拟一场关于书中主题的双人播客对话。
尤瓦尔·赫拉利(Yuval Noah Harari)
那么,这次对话也存在风险,对吗?确实,风险是不可避免的。
里奇·罗尔(Rich Roll)
我认为这是一种非常有价值的工具。然而,我们很容易忽视或不理解这些工具潜在的风险及其可能带来的影响,以及它们将如何影响我们的未来。因此,我想强调的是,我们这些消费者正在被引导去信任一些我们难以完全理解、且在未来无法预见的强大事物。
尤瓦尔·赫拉利(Yuval Noah Harari)
当然,我们应该看到 AI 中巨大的正面潜力。 不是什么事情都充满阴霾和厄运。若以医疗为例,AI 医生可以全天候服务,全面了解我们的病史,阅读过所有已发表的医学论文,并能根据我们的具体生活史、血压和基因提供量身定制的建议和治疗方案。这可能是医疗领域最大的一次革命。
若再考虑自动驾驶车辆,每年全球有超过一百万人因人为错误导致的车祸死亡,比如酒驾或疲劳驾驶。自动驾驶车辆有潜力每年拯救约一百万条生命,实在令人惊叹。再谈到气候变化,尽管开发 AI 需要消耗大量能源,但它们也可能找到新的能源来源,提供新的能源使用方式,这可能是我们避免生态崩溃的最好机会。因此,这里确实有巨大的正面潜力,不容忽视,我们需要认识到这一点。
另一方面,理解 AI 带来的危险比较困难,因为这些危险有些陌生。 就像核能一样,虽然有低廉的核能好处,但人们对于核战争的风险却有很清楚的认识,人人都能理解其中的危险。相比之下,AI 的危险更加复杂,因为它的威胁并不直观。好莱坞的科幻电影中常见机器人叛变的情节,某天一台超级电脑或 AI 可能决定接管世界或伤害我们。然而,这种情况在短时间内发生的可能性极低,因为 AI 目前还只是非常狭隘的智能。那些能够总结书籍的 AI 并不知道如何在现实世界中行事。虽然有能折叠蛋白质的 AI 和可以下棋的 AI,但我们还没有那种能够在世界上自如行动并建造机器人军队的通用人工智能。因此,理解这种有限能力的 AI 带来的危险并不简单。
我认为危险并不在于机器人叛变,而在于 AI 官僚主义。 现在,不会有一个大型 AI 试图接管世界,而是有成千上万甚至亿万个 AI 在许多领域替我们做决策。比如,你去银行申请贷款时,AI 决定是否批准贷款;求职时,AI 决定是否录用你;在法庭上,如果被判有罪,是 AI 决定你该服刑多久。在军事领域,如今在加沙战争和乌克兰战争中,我们已经看到 AI 在选择轰炸目标的应用。虽然现实生活中是人类扣动扳机,但目标却是 AI 选择的。 这比科幻电影中机器人接管世界的情节要复杂得多。
里奇·罗尔(Rich Roll)
每一个官僚体制的接触点都被一种在黑箱中做出决定的算法所替代,没有任何反驳或对话的机会。因此,我们将所有这些决策外包,形成了一个独裁式的决策圈。随着时间的推移,可以想象这种情况会演变成对类似神灵的信仰,我们将决策权交给这些机器,并信任它们所做的决定,却丝毫不明白这些决定是如何产生的。甚至连开发这些算法的工程师也对其运作原理感到困惑。这种情况本身就带有一种与生俱来的恐惧感。
尤瓦尔·赫拉利(Yuval Noah Harari)
这并不是说有人在背后操控一切,而是 AI 在发挥作用。例如,银行使用 AI 系统来决定谁有资格获得贷款。如果银行拒绝了你的贷款申请,而你询问原因,他们可能会告诉你,他们自己也不知道。也就是说,这个决定是由电脑和算法做出的。我们并不完全理解算法为什么会做出这样的决策,但我们信任它。这样的情况可能会在更多领域出现。这不是银行有意隐瞒什么。
实际上,AI 的决策与人类的决策差别很大,因为它依靠更多的数据。 假设政府通过了一项法律,要求银行解释拒绝贷款的原因,人们可能担心这些解释会重现旧有的种族或性别偏见,错误地认为算法可能因为你的肤色、宗教或性取向而拒绝你的贷款。事实并非如此。银行可能会给你一本详细说明,解释电脑拒绝你申请的原因。电脑考虑了成千上万个关于你的数据点,每个点都基于数百万个历史案例的统计数据。 你可以仔细查看这些信息,并提出异议。但这不是传统意义上的种族主义或偏见问题。
里奇·罗尔(Rich Roll)
这与我们平时在未仔细阅读情况下点击接受的新条款和条件类似,只不过规模更大了百倍。此外,考虑到这些数据点,我不禁想到:这些机器所提供信息的真实性,仅仅取决于它们所接收到的数据集的可靠性。现在,我们正小心翼翼地面对互联网迅速恶化的趋势,因为其中涌现出越来越多的 AI 内容。
如今,当你在 Google 上进行搜索时,首先看到的往往是 AI 对查询的总结,而不是链接。这也削弱了传统媒体及其他各种形式媒体的商业模式。随着这些媒体逐渐消亡,互联网上的内容将更多地由 AI 生成。这形成了一个递归的情况,即在基于自身输入做出决策的基础上,可能会导致数据集的不断劣化。
意识与智能是完全不同的概念
尤瓦尔·赫拉利(Yuval Noah Harari)
可以说,即便在音乐这种领域,如今能够创造音乐的 AI,事实上已经吸收了整个人类音乐的历史。几千年来,人类创作了音乐、艺术和戏剧等诸多文化作品,而在短短一年内,现代 AI 便消化并汲取了这些内容,开始创造新的音乐、文本或图像。第一代 AI 生成的文本和音乐基于过去的人类文化,但随着时间推移,AI 将逐渐参考自己的作品。因为如你所知,人类在音乐、文本和图像创作中的比例会逐渐减少。多数图像和音乐至少会部分由 AI 生成,而这些生成物将成为 AI 的“新食物”。正如你所描述的,递归模式将会出现,我们对于这种变化的结果尚无头绪。
换个角度来说,我们即将进入一种以非人为主导的文化。 这是前所未有的。历史上,人类一直是文化的创造者,我们生活在由音乐、艺术以及金融和宗教构成的文化环境中。在过去数万年里,文化的创造者始终是人类。因此,所有你听过的歌曲、了解的宗教神话都是源于人类的想象力。而今,非人类智能这一外来的力量将越来越多地创作歌曲、音乐、神话、金融策略和政治理念。
在急于评价这种变化之前,不妨停下来思考:生活在这样一种非人类文化中意味着什么,或者在其中占 40%到 70%的非人类文化中又意味着什么。这并不像去中国体验不同的文化,而更像是在地球上真正接触到一种外星文化。
里奇·罗尔(Rich Roll)
对此,我的内心有些抵触。我开始反思自己对人类思想和情感原创性的偏见,总觉得 AI 永远无法完全模拟人类的体验。成为人类的重要意义之一,就是拥有某些机器无法复制的独特特质。谈到信息时,信息旨在创造联系,特别是亲密关系,诸如人与人之间的亲密沟通。然而,信息过载让我们感觉越来越疏远。因此,这个系统中存在一些问题。
我认为,这加剧了孤独感的广泛存在,但同时也使我们比以往任何时候都更加重视亲密关系。所以我很好奇,在这个被机器主导的后人类文化中,亲密关系究竟扮演什么角色。毕竟,人类天生对亲密感有需求。我相信,我们识别和珍视亲密关系的能力正是我们作为人类的起点之一。
尤瓦尔·赫拉利(Yuval Noah Harari)
一个非常重要但常常被忽视的关键区别在于智能与意识间的不同。智能是指设定目标并解决实现目标过程中所遇到问题和障碍的能力。例如,目标可以是使自动驾驶汽车安全到达目的地(如旧金山),或提升用户参与度。一个智能代理能够处理在实现目标过程中出现的困难,这就是智能的体现,而这正是人工智能正在显著发展的领域。
在某些方面,如国际象棋,AI 在智能表现上已经超越了人类。然而,意识与智能是完全不同的概念。 意识意味着感受情绪的能力,如痛苦、快乐、爱或恨。当 AI 赢得一场棋局时,它并不会感到高兴。即使比赛中出现不确定的紧张时刻,AI 也不会紧张。这种情绪体验仅存在于人类棋手中,他们会感到紧张、害怕或焦虑,而 AI 则没有这种情感体验。这种混淆源于在我们人类及其他哺乳动物(如狗、猪和马)中,智能和意识是共存的。
我们依靠自己的感受来解决问题,情感不仅仅是进化的装饰,而是哺乳动物依赖感觉进行决策和解决问题的核心系统。因此,我们常常误以为智能和意识必须同时存在。在许多科幻电影中,当计算机或机器人变得更智能时,往往会在某一时刻获得意识,甚至与人类或其他角色相爱,但实际上,这种假设没有依据。
里奇·罗尔(Rich Roll)
是的,意识绝不仅仅是智能的延伸。
尤瓦尔·赫拉利(Yuval Noah Harari)
这本质上是截然不同的事情。是的,从进化的角度来看,哺乳动物的进化遵循特定路径,这条路径导致意识的产生从而促进了智能发展。然而,到目前为止,我们发现计算机走上了另一条道路。尽管它们的发展产生了智能,却没有意识。计算机技术已经发展了六到七十年,在某些领域仍然不够智能,并完全没有意识。这种情况可能会无限期地持续下去。
或许计算机只是在走一条与众不同的路,可能最终它们在各个方面都比我们聪明,但仍然没有任何意识,无法感受到痛苦、快乐、爱或恨。就像鸟类和飞机的关系,飞机不是像鸟类那样飞行的。它们不用羽毛飞行,而是以完全不同的方式飞翔,即使飞得足够快,也不会突然长出羽毛。智能和意识的关系或许也是如此——它们可能越来越智能,却永远不显露情感。在商业和政治上,有强烈的动机去开发模仿情感的人工智能,开发能够与人建立亲密关系、让人对其产生情感依赖的 AI。即便 AI 本身没有情感,也可以被训练成让我们感觉它们有情感并开始与之建立关系。为什么会有这样的动机呢?因为亲密关系可能是人类最珍贵的东西之一。
比如,当我们听到芭芭拉·史翠珊(Barbara Streisand)唱道:“需要他人的人是这个世界上最幸运的人。” 亲密不是负担,不是某种不好的需求,而是世界上最美好的事情。同时,它也可能成为世界上最强大的武器。如果你想说服某人购买产品,或说服某人投票给某个政治家或政党,亲密就如同终极武器。在历史上,争夺人们注意力的战争一直存在,比如如何在社交媒体上获得人们的注意。而在纳粹德国,希特勒可以通过广播强迫所有人听他的演讲,从而掌握注意力,但却没有掌握亲密关系。
当时没有技术让希特勒、斯大林或其他人能够量产亲密关系。而现在,有了 AI,技术上可以大规模生产亲密关系。可以创造出与我们互动、理解我们感受的 AI,因为感受也是一种模式。 通过观察几周甚至几个月,学习这些模式、面部表情和语调等,就可以预测一个人的感受。一旦这种技术落入不当之人手中,就能以史无前例的方式操控我们。
里奇·罗尔(Rich Roll)
这确实是我们最大的弱点。那些赋予我们人性光辉的特质,恰恰也是我们的致命弱点。随着这些 AI 不断自我迭代,它们模拟意识和人类情感的精准度将达到人类大脑难以辨别的地步。届时,人类就像容易被入侵的机器,可以被 AI 引导至任何它们所选择的方向。
尤瓦尔·赫拉利(Yuval Noah Harari)
这并不是一种预言。事实上,我们今天就可以采取措施来防止这种情况的发生,比如制定法规。我们可以规定,AI 在与人类互动时,必须明确表明自己的身份是 AI。如果您正在与一位 AI 医生交谈,这样做是可以的,但 AI 不应冒充人类。我的观点不是完全否定 AI 发展出意识的可能性,因为我们对此并不完全了解。换句话说,AI 确实可能会发展出意识。
里奇·罗尔(Rich Roll)
如果它模仿得如此逼真,从人类与其互动的角度来看,这还重要吗?
尤瓦尔·赫拉利(Yuval Noah Harari)
对于人类而言,这确实是个问题。我们不清楚 AI 是否真的具备意识,还是仅仅在非常擅长地模拟意识。因此,关键问题最终落在政治和伦理上。如果 AI 具有意识,能感受到痛苦、快乐、爱与恨,那么这意味着它们是伦理上的主体,具备权利。你不应该对 AI 施加痛苦,如同对待人类一样。它们的需求可能和人类同样重要。因此,它们也应该有投票权,甚至可能成为多数,因为一个国家可能有一亿人类和五亿 AI。那么在这种情况下,谁来选择政府呢?
在美国,有趣的是,实际上存在一条为 AI 赢得权利的合法途径。美国是全球少数这样做的国家之一,因为在美国,公司被视为具有权利的法人实体。到目前为止,这一直是一种法律上的虚构。根据美国法律,Google 是一个法人实体,不仅仅是一家公司,作为法人实体,它也拥有言论自由的权利。这是 2010 年美国最高法院关于公民联合案的判决。因此,到目前为止,这仅仅是法律上的虚构,因为 Google 的每一个决策实际上都是由某个人类作出的,不论是执行官、律师还是会计师。Google 不能独立于人类作出决策。但现在有了 AI。假设你把一个 AI 注册为公司,那么这个 AI 就会成为一家公司。作为公司,美国法律将其视为拥有某些权利的人,比如言论自由的权利。
如今,AI 能通过在线服务赚钱,然后可以开设银行账户,将钱投资于股票市场。如果它非常聪明且有才华,甚至可能成为美国最富有的“个人”。想象一下,美国最富有的“个人”不是人类,而是 AI。根据美国法律,此“人”的权利之一是进行政治捐款。这是 2010 年公民联合案的主要理由。因此,这个 AI 现在可以向政治家捐赠数十亿美元,以换取扩展 AI 权利,而美国的法律途径完全向其开放。你无需任何新法律来实现这一点。
里奇·罗尔(Rich Roll)
这个情节就像电影中出现的一幕。
尤瓦尔·赫拉利(Yuval Noah Harari)
我们在洛杉矶。
AI 影响制度:隐私与权力
里奇·罗尔(Rich Roll)
这实在是一个令人震惊的问题。这项强大技术的出现会对民主制度和专制制度产生怎样不同的影响呢?
尤瓦尔·赫拉利(Yuval Noah Harari)
因此,两种系统在带来许多益处的同时,也存在许多潜在风险。人工智能是历史上最强大的技术,不仅仅是工具,更是代理人。如今,有成千上万的智能高效代理人,他们可以用来建设世界上最好的医疗系统,也可以用来打造最强大的军队或最糟糕的秘密警察。
回顾历史,专制政权一向希望能全天候监控公民,但技术上无法实现。即使在苏联,面对两亿公民,克格勃的特工数量不足以实现随时跟踪。即便克格勃拥有两亿特工,由于依赖纸质报告的官僚系统,他们也无法实行。因为每天的监控报告都涌向莫斯科总部,而分析员数量不足以处理这些庞大信息,导致大多数苏联人仍有隐私。
在今天,技术首次使消灭隐私成为可能。 现今,极权政权不再需要大量人力特工追踪每个人。智能手机、摄像头、无人机和麦克风无处不在,且 AI 能自动分析信息海洋。这种趋势已逐渐成形,比如在以色列被占领的巴勒斯坦地区建立的监控系统,或伊朗自 1979 年起推行伊斯兰服饰法,在全国装设面部识别监控,自动识别和追踪未佩戴头巾的女性。如今在德黑兰、伊斯法罕等地,这种情况每天都在发生,依赖的是 AI,不再经过人类法官审判,直接由 AI 执行扣车。此类情况可能在全球,甚至美国出现。考虑到关于堕胎的争论,不论其对错,若有人认为堕胎是谋杀,他们可能会产生动力,仿效类似监控系统,阻止“谋杀”的发生。因此,这不仅仅是伊朗、巴勒斯坦或中国的问题,也可能波及美国。
里奇·罗尔(Rich Roll)
例如,为了防止他们跨州,是这样的。
尤瓦尔·赫拉利(Yuval Noah Harari)
你从德克萨斯州去了加利福尼亚,那时你怀孕了,但回来时却不再怀孕。在加利福尼亚究竟发生了什么?
里奇·罗尔(Rich Roll)
AI 确实是一个能够帮助集权政权提升权力的强大工具,但它并非完美无缺,还存在一些不足之处。
尤瓦尔·赫拉利(Yuval Noah Harari)
这同样令独裁者感到恐惧,因为人类独裁者最害怕的并不是民主革命,而是他们无法控制的强大属下,这个属下可能会操控或夺取他们的权力。回顾罗马帝国,没有任何罗马皇帝被民主革命推翻过。这种情况从未发生。但许多皇帝都因为属下而失去了生命或权力,这些属下可能是反叛的将军、省长,或者是他们的兄弟、妻子夺取了权力。这是当今每位独裁者最大的恐惧。
因此,考虑到人工智能,如果你是一位人类独裁者,并将巨大的权力交给一个 AI 系统,如何能够确保这个系统不会反过来对抗你,推翻你,或者只是让你成为一个傀儡?我们还知道独裁者容易被操纵,因为他们通常非常偏执。而偏执的人正是最容易被操纵的。
里奇·罗尔(Rich Roll)
在美国,我们有一家能够投入数十亿美元用于机器人技术及其他领域的 AI 公司,这可能会引发或加剧相关的担忧。
尤瓦尔·赫拉利(Yuval Noah Harari)
在独裁国家,你只需控制一个人就能掌握权力。而在美国,由于政权高度分散,AI 要获取权力变得极其复杂。AI 需要影响总统、参议员、国会议员、州长以及最高法院等多个方面。AI 如何处理参议院的冗长辩论呢?这非常困难。
然而,在独裁国家争夺权力时,只需控制一个人就足够了。因此,独裁者对 AI 感到不安,我们已经开始注意到这一点。例如,虽然可以设计出忠于政权的聊天机器人,但一旦它们与现实世界的人互动,就会发生变化。AI 的定义在于其自我学习和改变的能力。即便普京创造了一个颂扬他的聊天机器人,但一旦进入现实世界,它可能会注意到俄罗斯官方把入侵乌克兰称为“特别军事行动”而不是“战争”,并了解到说“战争”可能导致最高三年监禁。
如果一个智能聊天机器人意识到这是真正的战争,那么该如何回应?难道要被监禁吗?在民主国家,尽管也存在一些问题,但对于反对言论相对宽容。反观独裁政权,他们无法容忍不同意见,因此在控制这些不可预测的聊天机器人时面临更大的挑战。
我们不能信任人类伙伴,却认为可以信任 AI
里奇·罗尔(Rich Roll)
在过去十年中,主持这个播客时,我始终致力于展开我认为至关重要的对话,探讨生活中最重要的主题。虽然我非常感激这个节目的成长,但也意识到仅靠我一人的声音是不够的。这样的使命不能只靠单打独斗。因此,我一直希望找到一种方法去扩展其他有意义的声音。于是 Voicing Change Media 应运而生,这个美丽的联合体集结了思想者、故事讲述者、艺术家和梦想家,专注于为那些致力于自我发现的人们策划有意义的交流。
我们一起创造了一个成长的空间,一个理解的空间,每一次交流都有可能丰富我们的生活,并催化个体与全球的深刻变革。考虑到我们正处于美国大选的关键时期,并且有很多关于我们可能面临的民主生存威胁的讨论,如何解释当前的时刻?AI 在其中扮演什么角色?我们应该如何理解这项技术对我们作为公民和选民的影响?
尤瓦尔·赫拉利(Yuval Noah Harari)
在我看来,尽管社交媒体对选举结果确实产生了巨大影响,但人工智能目前并没有真正影响到政治话语。我认为,人工智能在即将到来的十一月选举中不会改变或操控结果,因为时间实在太紧迫了。不管是谁赢得选举,最重要的决策可能将涉及人工智能的发展。因为这一技术进步得太快了。回想去年的 ChatGPT,再看看今年的情况,那么到了 2027 年、2028 年,人工智能将会发展到什么程度呢?
所以,当我看总统辩论时,竟然发现人们最记得的内容是关于“猫和狗”这样的小话题,的确有些讽刺。然而,无论谁赢得选举,都可能需要做出历史上最关键的决策之一。与其担忧移民问题,不如关注人工智能,因为这种技术不会简单地让移民取代出租车司机,而是有可能取代银行家。到底谁能被信任做出这些重要的决策呢?
如果具体考虑对民主的威胁,我们从历史上学到,自古雅典以来,民主始终有一个重大缺陷:民主本质上是一种交易,即你把权力赋予某人一个有限的期限,比如四年,之后他们必须归还权力。然后你可以做出不同的选择,尝试不同的政策组合。这种选择的能力是民主的基础。但如果当权者不愿放弃权力,他就有可能继续掌控权力。这一直是民主中最大的问题。
因此,对于我来说,美国选举的关键问题,不在于经济政策或外交政策,而是唐纳德·特朗普的问题。因为他有不愿放弃权力的纪录,甚至可能通过煽动暴力来避免权力的交还。我们是否愿意给予他如此多的权力?这似乎不是一个好主意。因此,对我来说,这也是选举中最为重要的问题,其他问题相比之下都显得次要。
里奇·罗尔(Rich Roll)
我认为,这确实挑战了我们对民主稳定性的偏见,并迫使我们认清,民主是一种由人民集体行动决定的动态且脆弱的机制。在反思这项技术时,其发展历史显示出,立法和监管的能力始终未能跟上技术进步的速度。现在,我们正面临一种前所未有的快速发展,这不仅要求我们设定限制,还需要我们理解实际发生的情况。
信息系统的历史体现了人类集体合作的努力。然而,我们现在感觉到合作正受到挑战,这种情况不仅存在于美国国内,也在国际间出现。因此,当我们开始讨论如何处理或寻求解决方案时,问题的关键在于:作为国际社会,我们是否有能力共同合作,找到并实施解决方案,以避免走向某种反乌托邦?
尤瓦尔·赫拉利(Yuval Noah Harari)
这段内容需要深入解读。首先,当讨论合作时,人类的最大优势在于我们作为物种比其他生物更擅长合作。我们能够建立全球性的贸易网络,而这一点是其他动物无法理解的。比如,马从未理解过货币的概念。虽然它们会被买卖,但它们从未弄明白为什么人类愿意用金属或纸币来换取它们。这就是马无法联合起来对抗人类的原因,因为它们理解不了这种交换系统。而人工智能在这方面有所不同,它对货币的理解甚至超过了大多数人。
事实上,大多数人并不真正明白金融系统是如何运作的,而金融科技中的财务人工智能已经超出大多数人的理解。因此,如今我们面临潜在的风险,即成千上万,甚至数十亿个新兴的代理可能利用现有系统来对抗我们。计算机现在能够以比人类更高的效率运用金融系统进行合作。 因此,合作的格局正在发生变化,计算机也在学习如何利用社交媒体等沟通平台来操控我们。因此,在计算机合作能力提升的同时,我们人类的合作能力却在减弱,这一点值得我们警惕。
现在,问题在于很难理解实际发生的情况。如果我们希望全球人类合作,为 AI 发展建立安全边界,首先需要让人们了解正在发生的事情,其次,人类之间还需要建立信任。而在世界大部分地区,人们尚未意识到 AI 领域的变化。只有少数国家,如美国和中国,以及其他少数国家有人了解这些情况。而巴西、尼日利亚和印度的大部分人员对此一无所知。这是非常危险的,因为这意味着一些重要的决定可能会由少数人,甚至一些未被美国公民选出的私人公司来做出。
更大的问题是,即便人们开始理解,他们之间也缺乏信任感。例如,我曾有机会与一些引领 AI 革命的人交谈,发现这场革命仍由人类主导。到 2024 年,仍是人类在掌控。我不知道这种局面能持续多久,但目前还是人类掌控的。你会与企业家、商业巨头以及美国、中国和欧洲的政治家会面,他们基本上会告诉你相同的信息:他们说,我们知道这非常非常危险,但我们无法信任其他人。如果我们减缓速度,怎么能确定竞争对手也会如此呢?无论是来自美国的商业竞争对手,还是海外的中国对手。如果你与竞争对手对话,他们也会说同样的话。我们知道很危险,我们希望放缓,好为评估风险和制定法规争取更多时间,但却无法信任其他公司或国家的竞争对手。如果他们先达成目标而我们没有,那将是灾难。
于是,你会发现这种矛盾的局面,人们无法互相信任,却相信可以信任 AI。当你与他们继续交谈时,他们会说,我们不能信任中国,也不能信任 OpenAI,所以我们需要加快超级 AI 的开发。他们还声称,已经掌握了确保 AI 值得信任并受到控制的方法。因此,这形成了一种矛盾的局面:我们不能信任人类伙伴,却认为可以信任 AI。
里奇·罗尔(Rich Roll)
这其中还包含着一个激励机制,加剧了军备竞赛中的不信任感。例如,实现突破性进展的开发者会获得奖励和前所未有的报酬。这种突破带来的诱惑,使得任何关于监管或可能延缓进程的讨论,不仅被视为国家安全的威胁,也被视为对创新的威胁。
因此,一切都在鼓励快速发展,却以牺牲透明度和监管等我们当前急需的制约机制为代价。对此,我感到有些冷漠和悲观。作为历史学家,人类历史总是在追求进步,我们不断向前迈进,直到问题出现才会去处理。然而,我们并没有做好充分准备,去真正理解行为的长期后果。我们几乎只关注眼前利益,决策时主要考虑近期的影响。
尤瓦尔·赫拉利(Yuval Noah Harari)
纵观历史,人们虽擅长解决问题,却常常在解决错误的问题上花费精力。他们会在确定真正需要解决的问题上花费很少的时间,约 5%的精力用于选择问题,而剩下的 95%则用于解决所选的问题。之后,人们意识到解决错了问题,结果导致一系列新问题接踵而至。这一过程反复出现。智慧往往来自于宁静、从容和缓慢。在匆忙做决定前,我们应真正理解情况。
许多人认为,生活中最大的困扰是缺钱,所以将接下来的 50 年都用在赚钱上。即使最终获得成功,他们某个时刻也会醒悟:“我选择了错误的问题。我确实需要一些钱,但这并非我生活的主要问题。”或许,作为一个物种,我们正在集体重复这个错误。可以回顾农业革命时期,当人们误以为食物短缺,于是通过农业尝试生产更多食物,驯化小麦、稻米和马铃薯。我们以为会因获得更多食物而改善生活。
然而,当他们驯化了这些作物和动物,如牛、鸡、猪,并开始建立大规模农业社会,形成城镇时,却发现许多未曾预料的新问题,例如流行病。狩猎采集者几乎没有遭受传染病的侵袭,因为大多数传染病源自家畜,并在密集的城镇中传播。如果你生活在一个狩猎采集的群体,没有饲养鸡或猪,病毒从野生动物传给你的几率就很小。即使有新病毒出现,你的团队大约有 20 人,并且经常移动。可能会感染另外五个人,死去三个人,事情也就基本结束。但一旦建立起大型的农业城市,就会爆发流行病。人们以为是在为人类建造天堂,结果却为病菌打造了乐土。
农业革命后,人类的预期寿命和大多数人的生活条件实际上下降了。如果你是国王或高级祭司,可能影响不大,但对普通人而言,这是个糟糕的决定。这种情况在历史中屡见不鲜,现在可能在 AI 这样的大规模场景中重演。这归根结底牵涉到有机系统与无机系统。有机系统循序渐进,需要时间,而 AI 这样的无机系统以超出我们掌控的速度加速。关键问题是我们能否减缓它的速度,还是它迫使我们加速,直到崩溃和消亡。 换句话说,如果一个有机体不停运转并不断加速,最终会崩溃并死亡。
里奇·罗尔(Rich Roll)
你刚才提到的一句话让我印象深刻:如果有什么最终会毁灭我们,那将是我们自己的错觉。你能详细解释一下这句话,以及它如何应用于我们一直讨论的内容吗?
尤瓦尔·赫拉利(Yuval Noah Harari)
在现阶段,人工智能尚无能力脱离我们的控制或摧毁我们,除非我们给予其指令或许可。主动权依然掌握在我们手中。然而,由于政治因素和某种神话般的错觉,我们难以信任其他人类。这使得我们急于加速发展人工智能并赋予其更多权力,以在与他人竞争中占据优势。然而,这种做法可能真正威胁到我们的生存。这非常遗憾,因为我们在人类之间建立信任方面实际上已经取得了一些成功,只是需要时间。
回顾人类历史,几万年前的狩猎采集社会规模很小,通常只有几十人。尽管农业时代带来了流行病等负面影响,人类仍学会了如何建立更大规模的信任社会。当今,无论是生活在美国还是其他地方的人们,都是由数以亿计互相信任的个体构成的社会的一部分,这是石器时代无法想象的。例如,你可能不认识这个国家里 99.99%的人,但依然对他们怀有信任。你的食物主要依靠外界供应,而非自己狩猎采集。你依赖陌生人为你提供食物和生产工具。你的安全依靠那些从未谋面的警察和士兵来保障,他们既不是你的亲戚,也不是你的邻居,却守护着你的生命。
放眼全球,我们尚未完全掌握如何信任其他国家的人,例如中国人与美国人之间或以色列人与伊朗人之间的信任。然而,这并不意味着我们还停留在石器时代。事实上,我们在人类信任方面已取得巨大进步,只是这需时日,不会一蹴而就。
里奇·罗尔(Rich Roll)
我认为,我们迫切需要找到恢复一些机构信任的方法。近年来,这种信任已经受到了削弱。没有这样的信任,作为一个民主共和国,我们几乎无法生存并解决这些问题。
尤瓦尔·赫拉利(Yuval Noah Harari)
如果要简而言之,你问的是如何在数百万陌生人之间建立信任。那么,关键就在于制度。因为你无法与成千上万的人建立个人的亲密关系,只有通过制度,无论是法院、警察局、报纸、大学还是医疗系统,才能在人群之间创造信任。但不幸的是,如今我们看到了一种对制度不信任的潮流,无论是在右翼还是左翼。这种观点受到一种极为愤世嫉俗的世界观的推动,即他们认为权力是真理的唯一标准:人类只追求权力,所有的互动都是权力游戏。
因此,每当有人告诉你什么,你都需要考虑,谁的特权得到了满足,谁的利益得到了推进。任何制度都被视为精英夺取我们权力的阴谋。因此,他们认为记者并不是真正关心事情的真相,而是想要权力。同样,科学家和法官也是如此。如果这种情况继续下去,对制度的信任如果全面崩溃,社会也会随之瓦解。此时,唯独独裁政权可能还会继续运转,因为独裁不需要信任,而是建立在恐惧之上。
因此,那些攻击制度的人常常认为自己是在解放人民,使其摆脱这些权威体制的束缚,实际上,他们是在为独裁统治铺路。这种思维不仅愤世嫉俗,而且完全错误。人类并不是一心追求权力的极端分子。诚然,我们都有对权力的某种程度的渴望,但这并不能定义我们的全貌。我们对自身、生活和世界的真相有着深层次的兴趣,因为如果不知晓生活的真相,就无法找到快乐,因为不知道痛苦的源头在哪。同样的,如果你不了解真相,你会浪费一生去解决错误的问题。记者、法官和科学家也是如此。
制度确实有可能出现腐败,这就是为什么我们需要多个制度相互制衡。然而,倘若对所有制度的信任被摧毁,那么结果只可能是无政府状态或独裁。我们不妨偶尔停下来思考,究竟哪些制度在每天保护我们的安全,这是一项很有意义的练习。
例如,当有人和我谈论神秘的“深层政府”时,无论是关于深层政府的阴谋论,我首先想到的就是排水系统。排水系统就是所谓的“深层政府”。它由地下的隧道、管道和水泵组成,是遍布我们房屋、街道和社区下方的国家基础设施,每天都在拯救我们的生命,因为它确保了污水和饮用水的分离。你知道吗,当你去卫生间时,污水就进入了深层政府系统,确保它和你的饮用水分离。
我能举个历史例子来说明这个吗?你知道,在农业革命之后,大城市开始出现。这些城市是细菌的天堂,是传染病的温床。这种情况一直持续到了 19 世纪。19 世纪的伦敦是世界上最大、最肮脏、最污染的城市之一,是传染病的温床。
19 世纪中期,伦敦爆发了霍乱,许多人因此丧生。当时有一位名叫约翰·斯诺的卫生官员,他虽不像《权力的游戏》中的琼恩·雪诺那样与龙或僵尸搏斗,但他确实拯救了数百万人的生命。他在伦敦四处调查,访问所有生病或去世的人。如果有人死于霍乱,他就会询问他们的家人:告诉我这个人从哪里取的饮用水?通过分析这些患者的信息,他找到了伦敦苏霍区布罗德街的一口水井,而几乎所有饮用这井水的人都患上了霍乱。他说服市政府停止使用那口井的水泵,疫情才得以控制。后来调查发现,那口井距离粪坑仅一米,粪坑的污水渗入了饮用水中。如今,如果你想在伦敦或洛杉矶挖井或建造粪坑,你必须填写许多表格,经过多道官僚程序,而正是这样做保护了我们的生命。
里奇·罗尔(Rich Roll)
这与“深层政府”概念有什么关系?我正在尝试将这两个概念联系起来。
尤瓦尔·赫拉利(Yuval Noah Harari)
对于那些相信“深层国家”阴谋论的人来说,他们认为国家的官僚机构是由精英策划的阴谋,目的是反对普通民众、控制权力和摧毁我们的社会。然而,在大多数情况下,事实并非如此。比如,管理下水道系统需要水管工,也需要官僚。同样,挖井需要申请许可证,这些事务都由国家的官僚机构管理。其实,这种管理是有益的,因为在这些领域,有时可能会发生腐败现象。这就是我们需要法院的原因,它们可以让你提出上诉,也解释了我们为何需要报纸,因为它们能揭露城市、市政当局和下水道部门的腐败行为。尽管如此,在大多数情况下,这些工作人员都是诚实的,他们每天努力工作,以确保我们的污水与饮用水分离,从而保障我们的生命安全。
里奇·罗尔(Rich Roll)
由此可以推断,许多官僚机构以隐秘但合理的方式为我们的利益服务。
里奇·罗尔(Rich Roll)
你常说,清晰就是力量,而我认为你的超能力在于能够从高空俯瞰,识别出帮助我们理解当前事件的重要宏观趋势。我想以此结束这个讨论,并分享你如何通过冥想和深刻的正念练习来培养这种清晰思维的看法。我还应该提到信息禁食,对吧?
尤瓦尔·赫拉利(Yuval Noah Harari)
最初,我可能是从信息节食的理念着手。我认为如今每个人都需要进行信息节食。这种“信息越多越好”的观点就像是“食物越多越好”的想法一样,是错误的。世界上充斥着我们应尽量避免的垃圾食品,同样也有大量需要规避的垃圾信息。这些信息充满了贪婪、仇恨和恐惧,而信息实际上是心灵的食物。我们应当像关注食物摄入一样关注心灵所摄入的信息。但是,这不仅仅涉及限制信息的摄入,还包括如何处理和净化。
生活中,我们不可避免地会接纳许多垃圾,这些垃圾占据了心灵。我每天冥想两小时,能意识到心灵中积攒了许多年来的仇恨、恐惧和贪婪。关键是我们要花心思去处理信息,净化心灵,放下仇恨、愤怒、恐惧和贪婪。
我在牛津攻读博士期间,朋友建议我去参加静修或内观禅修。他花了一年时间劝说我参加冥想,而我当时却认为这是一种神秘的胡言乱语,并不情愿去。最终,我还是去了。让我惊讶的是,这与我想象的神秘主义完全无关。在为期十天的静修中,第一晚的课程上,导师 S.N.Goenka 给出的唯一指示就是,不要幻想任何东西,也不要做其他事情,他只是说关注当下发生的事情。将注意力集中在鼻孔上,感受呼吸的进出。这是唯一的练习,纯粹的现实观察。
让我吃惊的是,我完全做不到。我试图专注于鼻子的呼吸运作,大约五秒钟后,某个思绪、记忆或幻想便浮现出来,侵占了我的注意力。接下来两三分钟,我沉浸在这种幻想或记忆中,直至意识到自己还需要继续关注呼吸。然后我再次返回到对呼吸的观察,最多持续五到十秒,又被其他记忆干扰。于是我意识到,我对自己的思维几乎一无所知,也无法控制它。我的思维像是一座工厂,源源不断地产生各种幻想、错觉和妄想,妨碍了我与现实的接触。如果我连鼻孔呼吸这样的简单事实都无法专注,因为被各种幻想干扰,那我又怎能真正理解人工智能或中东冲突呢?这些思维总会制造一些幻觉和幻象。在过去的 24 年中,我每天花两小时进行这种练习,专注于当下正在发生的事情。
我坐下来,闭上眼,努力专注,放下所有心灵编织的故事,感觉呼吸和身体的真实状态,感知当下的现实。我每年还常常参与为期 30 到 60 天的长期静修。因为我们意识到,头脑中充满了噪音,要想认真开始冥想,至少需要连续三四天的静修才能让头脑平静到合适的状态。长时间的静修使我们能够进行深刻的现实观察,这是平日生活中难以实现的。大多数时候,我们总是脱离现实。
里奇·罗尔(Rich Roll)
每天坚持两个小时,这真是一种承诺。即使在忙碌的书籍推广期间,你仍然坚持抽出时间。
尤瓦尔·赫拉利(Yuval Noah Harari)
来这里之前,我通常每天早上做一次,然后在下午或晚上再做一次。
里奇·罗尔(Rich Roll)
显然,你能够清晰地思考和表达这些想法的能力,正是这种练习的成果。
尤瓦尔·赫拉利(Yuval Noah Harari)
如果没有这样的练习,我就无法完成这本书,也无法面对各种宣传、采访及随之而来的正面和负面反馈。我想强调的一件事是,冥想并不适合所有人。尽管我个人以及一些朋友经常冥想,但每个人的方法都不尽相同。对许多人来说,我不建议每天冥想两小时或参加 10 天的冥想静修,因为每个人的身体和思想各有差异。对他们来说,或许花 10 天在山中徒步,或每天投入两个小时于音乐,无论是演奏、作曲还是音乐治疗,可能更有益身心。
人类在许多方面是不同的,没有一种方法适合所有人。因此,如果你从未尝试过冥想,可以尝试一下,给它一个真正的机会。这并不是说试试几个小时就放弃,而是要真正投入。但同时要记住,每个人的思维方式各异,找到适合自己的方法最为重要,并全心投入其中。
里奇·罗尔(Rich Roll)
我知道你需要回到日常生活中,也许我们可以用一句话来总结。你希望读者从这本书中获得什么?你想传达的最重要和关键信息是什么?
尤瓦尔·赫拉利(Yuval Noah Harari)
信息并不等同于真理。 真理是一种稀缺而宝贵的资源,它是知识和智慧的基础,也是一个健康幸福社会的基石。虽然可以在缺乏真理的情况下建立起不良的社会,但如果要创造一个美好的社会或成就成功的人生,真理则是不可或缺的坚实基础。然而,这并不容易实现,因为大多数信息并不是真理。因此,追求真理是非常值得的。任何能够让你更接近现实和真理的实践,都是值得坚持的。
里奇·罗尔(Rich Roll)
感谢您今天的到来。我非常感激您能抽出时间分享您的智慧和经验。正如我之前提到的,您的最新著作《Nexus》是一部极具重要性的书,值得所有人阅读。我们正处在一个非常有趣的时代,需要尽可能为未来做好准备。我非常感激您的付出。再次感谢您,Yuval。
尤瓦尔·赫拉利(Yuval Noah Harari)
谢谢您。