本次访谈由杰夫·布莱克本(Jeff Blackburn)主持,他是 1991 届达特茅斯校友,现任达特茅斯受托人,曾担任亚马逊全球媒体和娱乐高级副总裁,访谈对象是 OpenAI 的首席技术官,也是 2012 届达特茅斯工程学院的校友米拉·马拉蒂(Mira Murati)。
米拉·马拉蒂(Mira Murati)在 OpenAI 领导开发了变革性的模型,如 ChatGPT 和 DALL-E,为未来的生成式 AI 技术奠定了基础。作为学生期间,她运用工程技能与达特茅斯方程式赛车队一起设计并制造了混合动力赛车,她在访谈的第二天获得了达特茅斯的荣誉科学博士学位。
米拉详细描述了她在特斯拉和 OpenAI 的工作经历,特别是她在开发自动驾驶技术和生成式 AI 模型方面的贡献。她强调,尽管 AI 技术已经取得了显著进展,但在安全性和伦理方面仍需持续努力,以确保技术的负责任应用。
米拉·马拉蒂(Mira Murati)的核心观点包括:
- 如果给 GPT 模型设定预测下一个 token 的目标, 并在大量数据和计算资源的支持下进行训练,那么这个模型实际上能够以相当高的水平理解语言,就像一个读了很多书的人一样。
- GPT-3 这样的系统相当于幼儿的智能水平,而 GPT-4 系统则更像聪明的高中生。在未来一年半内我们会看到在特定任务上达到博士水平的系统。
- 智能和安全是密不可分的。 未来,可能会有具备日程安排能力的 AI 系统,这些系统可以连接到互联网,彼此对话,代理系统相互连接并共同完成任务,或者与人类无缝协作。与 AI 合作涉及到安全性、可靠性和社会影响等方面的问题。这些问题不能事后才考虑。
- ChatGPT 最重要的贡献之一是将 AI 带入公众视野,让人们直观地感受到这项技术的能力及其风险。
- AI 技术的应用将影响所有行业,在高风险领域,如医疗保健或法律领域,存在一些延迟。 你需要在低风险和中等风险的用例中引入它,确保这些用例被妥善处理,然后再将其应用于高风险的领域。
- AI 技术的开发者有责任考虑其使用方式,但这也是社会、政府和其他各方的共同责任。要对前沿技术模型进行更多监管,以应对潜在的负面影响,并确保技术的安全使用。
- 我们在考虑基本价值观,但随着系统变得越来越复杂,我们将不得不考虑更细化的价值观。每个社区可以有自己的价值观,比如学校、教会、国家,甚至是州,他们可以在这个具有基本人类价值观的默认系统之上提供更具体、更精确的价值观。
- AI 在教育领域有巨大潜力,可以提供个性化和高质量的学习体验,提升全球教育水平。高等教育应利用 AI 工具推动教育发展,提供更个性化和高效的学习体验。
以下是本期播客内容的完整翻译,我们作了不改变原意的删减。
预测下一个 token
杰夫·布莱克本(Jeff Blackburn)
我想直接切入正题,因为大家都很想了解你当时的生活和工作情况,这真的很吸引人。我们可以从你住在哪里开始,然后谈谈你在特斯拉的经历,以及之后加入 OpenAI 的情况。如果你能描述一下那段时期和早期加入 OpenAI 的情况就更好了。
米拉·马拉蒂(Mira Murati)
在达特茅斯学院的 Thayer 工程学院毕业后,我曾在航空航天领域短暂工作。然而,我发现航空航天领域的进展较为缓慢,而我对特斯拉推动可持续交通的使命非常感兴趣。构建可持续交通未来充满了创新挑战,因此我决定加入特斯拉。在参与 Model S 和 Model X 的开发后,我意识到自己不想仅仅专注于汽车领域。我更希望在推动社会进步的同时,解决一些极具挑战性的工程问题。
在特斯拉工作期间,我对自动驾驶技术,特别是计算机视觉和 AI 技术在自动驾驶汽车中的应用,产生了浓厚的兴趣。我希望在不同领域深入了解 AI,于是加入了一家初创公司,负责领导工程和产品,将 AI 和计算机视觉技术应用于空间计算领域,探索下一代计算界面。当时我认为虚拟现实(VR)和增强现实(AR)将是未来的计算界面。
尽管现在我有些不同的看法,但我依然认为,通过手动与复杂信息互动,无论是公式、分子还是拓扑学概念,都可以以更直观的方式进行学习和互动,从而扩展学习效果。 尽管当时 VR 技术尚不成熟,但这段经历让我在不同领域学习了 AI。我认为我的职业生涯一直处于技术与各种应用的交汇点,这也让我对 AI 的发展以及特斯拉的情况有了不同的视角。
杰夫·布莱克本(Jeff Blackburn)
你能预见自动驾驶、机器学习和深度学习这些技术的未来发展方向吗?
米拉·马拉蒂(Mira Murati)
那时方向并不明确。当时,AI 主要应用于狭窄的领域,而不是广泛的通用问题。BR 和 ARR 也是如此。从那时起,我就不想仅仅将 AI 应用于特定问题。我想深入研究,真正理解其背后的原理,然后再将其应用于其他领域。所以我加入了 OpenAI。
OpenAI 的使命对我非常有吸引力。当时它是一个非营利组织,致力于构建安全的通用人工智能。虽然结构发生了变化,但使命至今未变。除了 DeepMind,当时没有其他公司在做这件事。现在当然有很多公司在构建某种版本的通用人工智能。是的,这就是我加入 OpenAI 的旅程的开始。
杰夫·布莱克本(Jeff Blackburn)
在那段时间里,你做了很多工作。也许我们可以为大家简单介绍一下人工智能的基础知识,比如机器学习和深度学习。如今,人工智能相关的技术种类繁多,但它们之间存在差异。那么,这些技术是如何发展的?它们又是如何在 ChatGPT 或其他产品中应用的呢?
米拉·马拉蒂(Mira Murati)
它是如何工作的?这并不是一种全新的技术,而是建立在几十年努力基础上的成果。事实上,它确实是从这里开始的。在过去的几十年里,神经网络、大量数据和计算资源的结合,催生了这种具有变革性的 AI 系统或模型,结果发现它们能够完成一些令人惊叹的任务,比如通用任务。然而,深度学习的具体工作原理并不完全清楚。当然,我们正在尝试通过工具和研究来理解这些系统的实际工作原理。
但我们知道它确实有效,因为我们在过去几年中已经验证了这一点,并且我们也看到了进步的轨迹,这些系统随着时间的推移变得越来越好。以 GPT 系统为例,我们大约在三年半前部署了 GPT-3 这种大语言模型。GPT-3 的目标首先是预测下一个 token。
杰夫·布莱克本(Jeff Blackburn)
下一个词的真实预测。
米拉·马拉蒂(Mira Murati)
是的,基本上是这样。我们发现,如果给这个模型设定预测下一个 token 的目标,并在大量数据和计算资源的支持下进行训练,那么这个模型实际上能够以相当高的水平理解语言,就像一个读了很多书的人一样。
杰夫·布莱克本(Jeff Blackburn)
他已经读完了所有的书,基本知道接下来应该做什么。
米拉·马拉蒂(Mira Murati)
在互联网上,它并不是在记忆即将出现的内容,而是在生成对之前所见数据模式的理解。 我们发现,不仅仅是语言,如果你输入不同类型的数据,比如代码,它也能生成相应的代码。因此,它并不在乎你输入的数据类型是什么。无论是图像、视频还是声音,它都能同样处理。
杰夫·布莱克本(Jeff Blackburn)
好的,我们会谈到图像。是的,文本提示可以生成图像或视频。现在你甚至可以看到反过来的情况。
米拉·马拉蒂(Mira Murati)
是的,确实如此。我们发现这个公式在数据、计算和深度学习方面非常有效。你可以输入不同类型的数据,增加计算资源,然后这些 AI 系统的性能就会不断提升。这就是我们所说的扩展定律(scaling law)。虽然它们并不是实际的定律,而是一种统计预测,预测模型的能力会随着你投入更多的数据和计算资源而提高,这正是推动今天 AI 进步的原因。
杰夫·布莱克本(Jeff Blackburn)
你为什么选择从聊天机器人开始?仅仅是这个原因吗?
米拉·马拉蒂(Mira Murati)
在产品方面,我们最初是从 API 入手的。当时,我们并不清楚如何将 GPT-3 商业化。 实际上,将 AI 技术商业化非常困难。起初,我们理所当然地认为,只需专注于构建技术和进行研究。我们认为这是一个了不起的模型,商业合作伙伴可以基于它开发出色的产品。然而,我们发现这实际上非常困难。因此,我们决定亲自着手进行。
杰夫·布莱克本(Jeff Blackburn)
这促使你去构建一个聊天机器人,仅仅因为你想要它。
米拉·马拉蒂(Mira Murati)
是的,我们一直在试图弄清楚,为什么这些非常成功的公司在将这项技术转化为有用产品时会遇到如此大的困难。这是因为这种构建产品的方式非常独特。你是从技术能力出发,而不是从要解决的实际问题出发。这是一种非常通用的能力,对吧?
杰夫·布莱克本(Jeff Blackburn)
这很快引出了你刚才提到的内容,即更多的数据、更多的计算和更多的智能。那么,它会变得多么智能呢?我的意思是,听起来你的描述是这种扩展是线性的。你可能会添加更多元素,它就会变得更聪明。在过去的几年里,ChatGPT 变得多么聪明了?它会多快达到人类智能水平呢?
米拉·马拉蒂(Mira Murati)
这些系统在某些特定任务上已经达到了人类水平,但在许多任务上仍未达到。如果你观察其发展轨迹,会发现像 GPT-3 这样的系统可能相当于幼儿的智能水平,而 GPT-4 系统则更像聪明的高中生。在未来几年内,我们可能会看到在特定任务上达到博士水平的系统。 因此,这些系统正在迅速变化和改进。
杰夫·布莱克本(Jeff Blackburn)
指的是一年左右吗?
米拉·马拉蒂(Mira Murati)
大约一年半的时间。
杰夫·布莱克本(Jeff Blackburn)
你是否曾与 ChatGPT 对话时,觉得它比你更聪明?
米拉·马拉蒂(Mira Murati)
在某些事情上是这样。
安全性研究还是能力研究
杰夫·布莱克本(Jeff Blackburn)
这确实引发了其他问题。我知道你在这方面一直非常直言不讳,我对你在安全方面所做的努力感到高兴和自豪。但人们确实想听听你的看法。那么,三年后,当它变得异常智能,可以通过所有的律师考试和我们曾经做过的每一个测试时,它会不会自己决定连接到互联网并开始行动?这是真的吗?作为首席技术官(CTO)和产品方向的领导者,你是否在考虑这些问题?
米拉·马拉蒂(Mira Murati)
我们对此进行了深入思考。未来,可能会有具备日程安排能力的 AI 系统,这些系统可以连接到互联网,彼此对话,代理系统相互连接并共同完成任务,或者与人类无缝协作。 就像我们今天彼此合作一样,与 AI 合作涉及到安全性、可靠性和社会影响等方面的问题。这些问题不能事后才考虑。我们不能先开发技术,再想办法解决这些问题,而是必须在开发技术的同时,甚至要深度嵌入地解决这些问题。
能力和安全实际上不是独立的领域,它们是密切相关的。 通过告诉一个更智能的系统“不要做这些事情”来引导它,比引导一个不太智能的系统要容易得多。这有点像训练一只聪明的狗和一只笨狗。因此,智能和安全是密不可分的。
杰夫·布莱克本(Jeff Blackburn)
护栏经过改进,现在更加坚固和安全。
米拉·马拉蒂(Mira Murati)
目前,关于应更多关注安全性研究还是能力研究的争论确实存在。我认为这种争论有些误导,因为我们必须同时考虑产品的安全性和相关防护措施。 然而,在研究和开发方面,这两者实际上是相辅相成的。从我们的角度来看,我们采用的是科学的方法。我们尝试在完成训练之前预测这些模型将具备的能力,并在此过程中为如何处理这些能力准备防护措施。
目前在行业中,这种做法并不常见。通常,我们是先训练这些模型,然后才会出现一些我们称之为“突现能力”的现象,因为它们是自发出现的。我们无法预知它们的出现。我们可以观察到某种统计性能,但不确定这种统计性能是否意味着模型在翻译、生物化学、编程或其他方面更出色。开发这种新的能力预测科学有助于我们为未来做好准备。
杰夫·布莱克本(Jeff Blackburn)
这意味着你所提到的所有安全工作都与开发过程保持一致。
米拉·马拉蒂(Mira Murati)
这是一条你必须坚持走下去的路,而不是可以放弃的。
杰夫·布莱克本(Jeff Blackburn)
是的,Mira,你知道的,弗拉基米尔·泽连斯基宣布我们投降的视频,还有汤姆·汉克斯的视频,或者是一个牙医广告,我记不清了。这种情况的使用呢?这是你的领域吗?还是需要监管?你怎么看待这种情况的发展?
米拉·马拉蒂(Mira Murati)
我认为,作为技术的开发者,我们有责任考虑其使用方式。但这不仅是我们的责任,也是社会、民间组织、政府、内容创作者和媒体等各方的共同责任。因此,为了使其成为一种共同责任,我们需要让人们参与进来,提供访问和使用权限,提供理解的工具和资源,并制定保护措施。
杰夫·布莱克本(Jeff Blackburn)
这些事情确实很难阻止,对吧?
米拉·马拉蒂(Mira Murati)
我认为完全消除风险是不可能的,但关键在于如何尽量减少风险,并为人们提供实现这一目标的工具。以政府为例,让他们参与进来并给予早期访问权限,同时教育他们了解正在发生的事情,这一点非常重要。相关活动当然也包括监管机构。
我认为 ChatGPT 最重要的贡献之一是将 AI 带入公众视野,让人们直观地感受到这项技术的能力及其风险。 阅读相关内容与实际使用它是两回事。当你在自己的业务中尝试使用它时,你会发现它不能做某些事情,但可以做其他令人惊叹的事情。这对劳动力或业务意味着什么?这使人们能够做好准备。
杰夫·布莱克本(Jeff Blackburn)
是的,这是一个很好的观点。我的意思是,你们创建的这些界面,比如 ChatGPT,预示着未来的发展。你现在可以使用它们,并了解其背后的原理。你认为政府是否有必要采取行动?我们现在来谈谈吧。你希望现在就出台一些法规,而不是等到一两年后这些技术变得非常智能甚至有些吓人时再行动吗?那么,现在是否有一些事情是应该立即去做的?
米拉·马拉蒂(Mira Murati)
我们一直在呼吁对前沿技术模型进行更多监管。这些模型虽然具备强大的能力,但若被滥用也会带来负面影响。我们一直公开地与政策制定者和监管机构合作。在短期和小规模模型方面,我认为应允许生态系统更加多样化,不应让那些计算或数据资源有限的人无法进行创新。 因此,我们一直主张对高风险的前沿系统进行更多监管。此外,这样可以在变化真正迅速发生之前,提前应对未来的变化,而不是试图追赶已经发生的变化。
杰夫·布莱克本(Jeff Blackburn)
你可能不希望华盛顿特区来监管你发布 GPT-5,比如规定你是否可以发布。
米拉·马拉蒂(Mira Murati)
这实际上取决于具体的法规。我们已经在做很多工作,这些工作现在已经被白宫的承诺所规范。这些工作不仅在进行中,而且实际上支持了白宫的承诺,或者说是联合国委员会在制定 AI 部署原则时的工作。通常,我认为正确的做法是先开展工作,理解其意义,然后基于此制定法规。这就是目前为止所发生的情况。 现在,要在前沿技术系统上取得进展,我们需要进行更多的预测和能力研究,以便制定正确的法规。
杰夫·布莱克本(Jeff Blackburn)
我希望政府中有理解你所做事情的人。
米拉·马拉蒂(Mira Murati)
确实,越来越多的人进入了政府部门。这些人对 AI 有更深入的理解,但这仍不足以解决问题。
杰夫·布莱克本(Jeff Blackburn)
你可能拥有全球最佳视角,能够观察到 AI 对各个行业的影响。AI 已经在金融、内容和媒体以及医疗保健等领域产生了显著影响。展望未来,你认为哪些行业将受到 AI 和 OpenAI 工作的最大影响?
米拉·马拉蒂(Mira Murati)
这类似于我们刚开始用 GPT-3 构建产品时,企业家们常问的问题。他们会问,这有什么用?我能用它做什么?我会回答:“一切。你可以尽管试试。”因此,我认为它会影响所有领域,没有哪个领域不会受到认知工作的影响。 也许在物理世界中的应用会花费更长的时间,但我认为一切都会受到它的影响。
目前,我们已经看到,在高风险领域,如医疗保健或法律领域,存在一些延迟。这是有道理的。首先,你需要在低风险和中等风险的用例中引入它,确保这些用例被妥善处理,然后再将其应用于高风险的领域。
最初,应该有更多的人类监督,然后再调整任务分配方式,使其尽可能更加协作。
杰夫·布莱克本(Jeff Blackburn)
你是否有特别期待的应用领域?
米拉·马拉蒂(Mira Murati)
我认为,无论你在做什么,起步总是变得更容易了。无论是创建新设计、编写代码、写论文还是写邮件,所有事情的开始都变得简单了。 这是我最喜欢的功能之一。我用它来完成所有事情的初稿,这样速度快了很多,降低了入门的难度。你可以专注于更有创意和更困难的部分,尤其是在编程中,你可以自动化处理很多繁琐的工作,比如文档编写。在行业中,我们已经看到了很多应用场景。
客户服务绝对是一个重要的应用领域,比如微信机器人和自动写作。此外,还有数据分析,因为现在我们已经将许多工具连接到核心模型,这使得模型更加可用和高效。比如代码分析工具,它可以处理大量数据。你可以将各种数据导入其中,它可以帮助你分析和筛选数据。或者你可以使用图像和浏览工具。如果你在准备一篇论文,研究部分的工作可以更快、更严谨地完成。
所以我认为这是生产力的下一个层次,将这些工具添加到核心模型中,使其非常无缝。模型会自动决定何时使用分析工具、搜索工具或其他工具。
杰夫·布莱克本(Jeff Blackburn)
如果一个程序观看了世界上所有的电视节目和电影,它会开始编写剧本并制作电影吗?
米拉·马拉蒂(Mira Murati)
这是一种工具,确实能够实现其功能。我预计我们将使用它来扩展我们的创造力。通常,人们认为创造力是一种只有少数有才华的人才能拥有的特殊能力。而这些工具实际上降低了人们对自己创造力的认知门槛,并扩展了他们的创造力。 因此,从这个角度来看,我认为这将是非常卓越的。我认为它将真正成为一个协作工具,特别是在创意领域,帮助更多人变得更加富有创意。
杰夫·布莱克本(Jeff Blackburn)
你是说当前的恐惧会改变,人类会找到提升工作创造性的方法吗?
米拉·马拉蒂(Mira Murati)
有些创意类工作可能会消失,但或许它们本来就不该存在。如果这些工作的产出质量不高,我认为将其作为教育和创意的工具,反而能拓展我们的智力、创造力和想象力。
杰夫·布莱克本(Jeff Blackburn)
人们曾经认为 CGI(计算机生成图像)等技术会毁掉电影产业,当时他们非常害怕。我认为这是一个更大的问题。不过,任何新事物在刚出现时都会引起这样的反应。不过,我希望你对电影和电视的看法是对的。你提到的工作问题,先不谈好莱坞,很多人担心他们的工作会受到威胁。
你对工作被替代和 AI 的看法是什么?不仅仅是你在 OpenAI 的工作,总体上来说,人们真的应该为此担心吗?你认为哪些工作会受到影响,或者你怎么看待这一切的发展?
米拉·马拉蒂(Mira Murati)
其实,我们还不完全了解 AI 对就业的影响。首先,我们需要帮助人们理解这些系统的能力及其应用,然后将它们整合到工作流程中,以便开始预测和评估其影响。此外,我认为人们尚未意识到这些工具已经被广泛使用,但相关研究却很少。因此,我们应该研究当前工作和教育性质的变化,这将有助于我们预测并为这些增强的能力做好准备。
就工作而言,虽然我不是经济学家,但我肯定很多工作会发生变化。有些工作会消失,有些工作会出现。虽然我们还不知道具体会是什么样子,但可以预见,许多纯粹重复且没有进一步发展空间的工作将受到影响。
杰夫·布莱克本(Jeff Blackburn)
QA 和测试代码等工作。
米拉·马拉蒂(Mira Murati)
明白了。是的,如果只是那样,或者更严格地说。
杰夫·布莱克本(Jeff Blackburn)
这只是一个例子而已,类似的情况还有很多存在。你认为其他地方能创造足够的就业机会来弥补这一点吗?
米拉·马拉蒂(Mira Murati)
我认为这将创造许多工作岗位,但具体有多少岗位会被创造、多少岗位会发生变化、多少岗位会被取代,我并不清楚。我认为没有人真正知道,因为这方面尚未进行严格研究,但确实应该进行研究。不过,我相信经济将会转型,这些工具会创造大量价值。
问题在于,如何利用这些价值?如果工作的性质确实发生变化,那么我们该如何将这种经济价值分配给社会?是通过公共福利、基本收入(UBI)还是其他新系统?这些都是需要探索和解决的问题。
杰夫·布莱克本(Jeff Blackburn)
高等教育在你所描述的工作中扮演着重要角色,但目前还未完全发挥其潜力。对于高等教育和人工智能的未来,你有什么看法?你认为高等教育的角色是什么?你如何看待高等教育在这一过程中逐步演变的趋势?
米拉·马拉蒂(Mira Murati)
我认为,真正弄清楚如何利用这些工具和 AI 来推动教育发展非常重要,因为我相信 AI 在教育领域将有最强大的应用之一,能够提升我们的创造力和知识。 我们有机会构建高质量且易于获取的教育资源,理想情况下是免费的,适用于任何语言或文化背景的人。你可以为世界上任何人提供个性化的学习体验和教育。
当然,在像达特茅斯这样的机构中,课堂规模较小,关注度高。但即便如此,你仍然可以想象在这里进行一对一的辅导,更不用说在世界其他地方了。这是因为我们没有花足够的时间学习如何学习,对吗?这种情况通常出现在大学阶段。而这其实是非常基础的——如何学习。否则,你可能会浪费很多时间。课程、课程安排、问题集等一切都可以根据你个人的实际学习方式进行定制。
更精确的价值观
杰夫·布莱克本(Jeff Blackburn)
作为导师,我们应该开放提问吗?你介意接受观众的一些问题吗?好的,那我们就这么决定吧。戴夫,你想先来吗?
现场提问者
达特茅斯学院的首批计算机科学家之一约翰·凯梅尼(John Kemeny)曾在一次讲座中提到,每一个由人类构建的计算机程序都会有意或无意地嵌入人类的价值观。那么,你认为在 GPT 产品中嵌入了哪些人类价值观?我们又该如何在这些工具中融入尊重、公平、公正、诚实、正直等价值观?
米拉·马拉蒂(Mira Murati)
这是一个很好的问题,也是一个非常难的问题,我们已经思考了很多年。目前,如果你看看这些系统,很多价值是通过数据输入的,这些数据包括互联网数据和人工标注的数据。每一个输入都有特定的价值,这些价值的集合非常重要。当你真正将这些产品投入使用时,我认为你有机会通过让更多人使用来获得更广泛的价值集合。
现在,ChatGPT 提供了免费的服务,拥有一个强大的系统,全球有超过一亿人使用。每个用户都可以向 ChatGPT 提供反馈,如果他们允许我们使用这些数据,我们会利用这些数据来创建一个价值集合,使系统更好地满足人们的需求。不过这是默认系统。
你可能还希望在此基础上有一个定制化的层级,每个社区可以有自己的价值观,比如学校、教会、国家,甚至是州,他们可以在这个具有基本人类价值观的默认系统之上提供更具体、更精确的价值观。 我们也在研究实现这一点的方法,但这显然是一个非常困难的问题,因为我们在很多事情上并不一致,同时还有技术问题。
在技术问题上,我认为我们已经取得了很大进展。我们有一些方法,比如基于人类反馈的强化学习,让人们有机会将他们的价值观输入系统。我们刚刚开发了一个叫做 SPEC 的工具,它提供了系统价值观的透明度。 我们正在建立一种反馈机制,收集输入和数据来改进 SPEC。
你可以把它看作是 AI 系统的准则,但它是一个活的准则,会随着时间的推移而演变,因为我们的价值观也在不断演变,并变得更加精确。这是我们正在努力的方向。我认为目前我们在考虑基本价值观,但随着系统变得越来越复杂,我们将不得不考虑更细化的价值观。
现场提问者
我对你对创作权和生物识别权的看法非常感兴趣。你之前提到过一些创意工作可能会消失。许多创意人士正在思考同意和补偿的问题,无论是专有模型还是开源模型,数据都是从互联网上获取的。所以我真的很好奇你对创作权中同意和补偿的看法。既然我们在大学里,这个问题是多方面的。
另一个问题是关于生物识别权的。涉及声音、面部等方面,最近关于“天空之声”的争议,以及声音相似和长相相似的人,在如此重要的选举年中,所有这些虚假信息的威胁,我非常好奇你对生物识别权的看法。
米拉·马拉蒂(Mira Murati)
我们在语音技术方面进行了大量研究,但直到最近才发布这些技术,因为它们存在许多风险和问题。同时,让社会跟上步伐也很重要。我们需要以一种能够设置防护措施和控制风险的方式提供访问权限,让其他人也能研究并取得进展。比如,我们正在与一些机构合作,帮助我们思考人类与 AI 的互动。现在有了语音和视频这些非常情感化的模式,我们需要开始理解这些技术将如何发展以及需要做哪些准备。
在那个特定的案例中,Sky 的声音并不是斯嘉丽·约翰逊的声音,也并非刻意模仿。这是一个完全独立的过程。 我负责选择声音,而我们的 CEO 则在与斯嘉丽·约翰逊进行对话。但出于对她的尊重,我们移除了这个声音。有些人认为有相似之处,但这些都是主观的。我认为可以制定一些团队审查流程,比如如果某个声音被认为与某个非常知名的公众声音非常相似,那么可能就不会选择那个特定的声音。在我们的审查过程中,这个问题没有出现。但这就是为什么有必要进行更广泛的审查,以便在早期发现这些问题。
更广泛地说,关于生物识别的问题,我认为我们的策略是先让少数人访问,最初是专家或审查人员,帮助我们很好地理解风险和能力。然后我们建立缓解措施,当我们对这些缓解措施有信心时,再让更多人访问。 因此,我们不允许人们使用这项技术制作自己的声音,因为我们仍在研究风险,还没有信心能够应对该领域的滥用。但我们对在非常特定的声音和小范围内处理滥用感到满意,这实际上是扩展的团队审查。
当我们将其扩展到 1000 名用户时,我们的 alpha 版本发布时,我们将与这些用户密切合作,收集反馈并理解边缘案例,以便在扩展时为这些边缘案例做好准备。以前是先一百万人,然后是一千万,依此类推。但这是在大量控制下进行的,这就是我们所说的迭代部署。如果我们无法对这些使用案例感到满意,那么我们就不会在特定用户或特定使用案例中发布它们,我们可能会尝试以某种方式优化产品,因为能力和风险是相辅相成的。
我们还在进行大量研究,帮助我们处理内容来源和内容真实性的问题。这样人们就有工具来判断某些内容是否是深度伪造或传播错误信息。自从 OpenAI 成立以来,我们一直在研究错误信息。我们构建了许多工具,比如水印和内容政策,这些工具使我们能够管理错误信息的风险,特别是今年是全球选举年,我们更加加强了这方面的工作。但这是一个极具挑战性的领域,作为技术和产品的制造者,我们需要做大量工作,同时也需要与民间社会、媒体和内容创作者合作,找出解决这些问题的方法。
当我们开发像音频或视频生成模型 Sora 这样的技术时,我们在团队审查人员之后首先与内容创作者合作,以实际了解技术如何帮助他们,以及如何构建既安全又有用、对社会有益的产品。这就是我们在 DALL·E 上所做的,也是我们在视频生成模型 Sora 上所做的。
你问题的第一部分是关于创作权的。是的,这也是非常重要和具有挑战性的。目前,我们与媒体公司进行了大量合作。我们还让人们对他们的数据在产品中的使用方式拥有很大的控制权。如果他们不希望他们的数据被用来改进模型或用于我们的研究或训练,那完全没问题,我们不会使用这些数据。
对于创作者社区,我们早期提供这些工具的访问权限,以便首先听取他们的意见,了解他们希望如何使用这些工具,并构建最有用的产品。此外,这些东西都是研究预览版,所以我们不必不惜一切代价构建产品。我们只会在找到一种真正有助于推动人们前进的模式时才会这样做。
我们还在尝试一些方法,基本上是创建工具,让人们因数据贡献而获得补偿。这在技术上和产品构建上都相当棘手,因为你需要弄清楚特定数据量在经过训练后的模型中创造了多少价值。也许单个数据的价值很难衡量,但如果你能创建数据联盟和数据池,让人们提供他们的数据,可能会更好。
所以在过去的两年里,我们一直在尝试各种版本的这个概念。我们还没有部署任何东西,但我们一直在技术方面进行实验,试图真正理解这个技术问题。我们已经取得了一些进展,但这确实是一个非常困难的问题。
现场提问者
非常感谢您抽出时间与我们交流。我有一个简单的问题:如果您今天回到学校成为一名学生,您会做些什么,不会做些什么?您会选择什么专业?您会参与更多的活动吗?
米拉·马拉蒂(Mira Murati)
我想我会学习相同的内容,但压力可能会小一些。是的,我还是会选择数学,并继续从事相关工作。实际上,我可能会选修更多的计算机科学课程。同时,我会减少压力,因为这样可以带着更多的好奇心和快乐去学习,效果会更好。
不过,我记得作为学生时,总是有点担心未来。如果我当时知道现在知道的事情,我会告诉年轻的自己:尽管每个人都会说不要紧张,但我还是会紧张。年长的校友总是建议尽量享受学习,完全投入,减少压力。此外,我认为在具体课程上,尤其是现在,拥有广泛的学科知识并对每个领域有所了解是非常有益的。 我发现这在学校和之后的职业生涯中都很有帮助。即使现在在研究机构工作,我也在不断学习。学习是永无止境的,这对理解各个方面都有帮助。
相关阅读
全球最火 AI 技术大佬,离开 OpenAI 后为何创立了一家 AI 安全公司?