在 Ray Summit 2024 大会上,OpenAI 的首席产品官 Kevin Weil 将探讨人工智能领域的新兴技术及其未来发展方向。自 2024 年年中加入 OpenAI 以来,Weil 一直专注于将该组织的研究成果转化为实际应用,致力于为消费者、开发者和企业创造创新产品。他在 Twitter 和 Instagram 担任产品高管期间,积累了丰富的产品开发和商业化经验。
在 Ray Summit 上,Weil 预计将分享 OpenAI 近期在产品创新方面的进展,并深入探讨人工智能如何通过技术改进和拓展产品化路径,解锁新的应用场景和提升用户体验。
Kevin Weil 的核心观点包括:
- 技术的不断演变要求产品管理适应性的转变:在 OpenAI 的产品管理中,技术基础不是固定的,而是每隔一段时间就会获得新的能力。这种不确定性要求产品管理必须在探索中前行,适应快速变化的技术环境。
- 人工智能的普及和可及性:OpenAI 致力于将 AI 技术普及给更多开发者,通过整合前沿模型到 API 中,并引入多模态能力,以降低成本、提升处理速度并提高安全性,从而推动全球的积极变化。
- 知识蒸馏技术的重要性:知识蒸馏技术使得大型模型能够被精简为小型模型,这些小型模型在执行特定任务时更高效,同时成本大幅下降,这为人工智能的广泛应用打开了大门。
- 推理能力在 AI 产品开发中的核心地位:随着 AI 模型如 O1 的发展,推理能力成为新的关键点。这些模型不再仅依赖于已有的知识,而是能够进行深入思考和假设验证,这要求开发者重新思考产品的用户体验设计,以适应 AI 的新能力。
以下是本期播客内容的完整翻译,我们作了不改变原意的删减。
在探索中前行
罗伯特·西原(Robert Nishihara)
您曾在多家公司负责领导产品管理工作。那么在 OpenAI 的产品管理与其他公司有什么不同之处呢?
凯文·威尔(Kevin Weil)
各家公司在某种程度上都各具特色,这主要是源于其创始人和企业文化的差异。Twitter 的文化过于强调达成共识,导致在行动上受到限制。而 Instagram 的创始人凯文·斯特罗姆具备杰出的产品思维能力,我认为他是全球最优秀的产品思维者之一。
在 OpenAI,Sam 展现出了卓越的远见,鼓励我们大胆思考,并给予我们空间去思考需要构建什么以及如何构建正确的产品。但最大的区别在于,我之前工作的地方通常有固定的技术基础,你需要思考如何利用这些技术打造出最佳产品。你需要理解用户及其需求,同时在技术上清楚自己使用什么。然而在 OpenAI 乃至整个AI生态系统中,技术基础不是固定的。每隔一两个月,计算机就会获得以往无法实现的新能力,而这些能力是难以预见的。
有时你可能隐约感觉到下一个模型版本将具有新的功能,但只有在模型真正完成时,你才能确定某项功能的准确度究竟是 80%、95%,还是 99%。为准确度分别为 80%和 99%的功能开发产品是截然不同的。因此,我们常常是在探索中前行,因为世界和技术变化如此迅速。这虽然带来了很大的挑战,但也充满了乐趣。
罗伯特·西原(Robert Nishihara)
这不仅是为了你们自己,也是为了你们的客户和在你们平台上开发的开发者。
凯文·威尔(Kevin Weil)
不久前,我在与一位企业客户开会时,对方询问我们是否可以提前 60 天告知他们即将发布的所有内容。他们认为提前通知对他们非常有帮助。我心里想,我也希望能够提前 60 天知道所有事情。
罗伯特·西原(Robert Nishihara)
你提到了企业客户,这是一个很好的观点。你们不仅为消费者提供 ChatGPT 服务,也为开发者提供 API 服务。既然这是一个以开发者为中心的场合,我们来聊聊开发者方面的情况吧。能否分享一下你们对于开发者的路线图和策略?
凯文·威尔(Kevin Weil)
昨天,我们刚刚举办了开发者日,这真是令人振奋的一次活动,推出了许多重要内容。总体而言,我们的理念是,人工智能的普及能为世界带来益处。因此,我们希望能让更多开发者接触到人工智能,从而创造出令人惊叹的作品。为此,我们致力于将所有前沿模型整合到 API 中,并引入具备多模态能力的新特性。例如,昨天我们刚刚推出了实时语音 API。
罗伯特·西原(Robert Nishihara)
恭喜你!
凯文·威尔(Kevin Weil)
谢谢,谢谢。我们对此感到非常激动。昨天,我们推出了一项新的蒸馏技术,使得大型模型可以被精简为小型模型,这些小型模型在执行特定任务时表现出色且更高效。总体而言,我们希望通过引入更多智能技术来降低成本、提升处理速度并提高安全性。我们希望将这些技术交给超过 300 万名 OpenAI 平台开发者,因为你们将帮助这些 AI 技术被带给全世界的人们。这将对全球产生深远的积极影响。
罗伯特·西原(Robert Nishihara)
哪一次发布会让你感到最激动?
凯文·威尔(Kevin Weil)
我认为,知识蒸馏技术将成为一个极为重要的领域,因为它能够在更多场景中应用人工智能。 这个领域的发展趋势确实令人惊讶。回顾最初发布的 API,那时是 GPT-3,而现在,即便是更小型化的 GPT-4.0 Mini 模型,也是我们现有能力最强的模型之一。据我估计,其成本仅为 GPT-3 发布时的 1%,相当于降低了 99%。这个模型变得更智能、更安全,而且在不到两年的时间里成本大幅下降。
我不确定是否还有其他行业能经历如此快速的变化,但这种局面非常棒,因为随着人工智能覆盖面的扩大和成本降低,其应用场景更多,我们也能共同解决更多的问题。我们希望更多人能够使用这项技术。此外,高级语音处理模型同样极为重要,我可以谈论一整天关于它的应用场景。
罗伯特·西原(Robert Nishihara)
我只是想强调一下你的观点:每当你能够将某件事情的速度提升或成本降低一个数量级时,就能解锁更多的使用场景,就像我们在 Ray 上看到的那样。
凯文·威尔(Kevin Weil)
几周前,我在首尔和东京与当地的客户进行了多场会议。有些会议我们配备了翻译,但在很多情况下,会后我会四处走动,希望能与人交流。多数时候,我不懂对方的语言,他们也不懂英语,我们几乎没有共同语言。因此,我使用了 ChatGPT,请求它作为我的翻译。我用了我们最新的高级语音模式,Plus 版本现在可以使用这个功能。
我请它把我说的英语翻译成韩语,并且将听到的韩语翻译成英语。结果,它真的做到了,让我能与人交流。如果没有 ChatGPT,我们可能连沟通两个字都做不到,更别提进行完整的商务对话了。这非常强大。而想象一下这项技术在其他领域的应用,不仅限于商务,还包括旅行和旅游。如果人们不再害怕去那些不懂语言的地方,生活会发生怎样的变化。这就像实现了一个通用翻译器的梦想。
罗伯特·西原(Robert Nishihara)
已经存在很长时间了。
凯文·威尔(Kevin Weil)
过去,这就像是《星际迷航》里的情节,不是吗?这曾经是科幻小说里的内容。而现在,你已经在口袋里拥有了其中的一个装置。
罗伯特·西原(Robert Nishihara)
这简直令人惊叹。我记得大约在 2015 年或更早的时候见过一些展示,不过,这次的确令人难以置信。我们来谈谈竞争格局。开源模型对于 OpenAI 的业务意味着什么呢?
凯文·威尔(Kevin Weil)
我很高兴这些模型是开源的。实际上,我认为这不是非此即彼的问题,而是应从哲学使命的角度出发,让更多人能够接触到 AI。这是一件非常了不起的事情。此外,我已经与马克合作很多年,非常尊重他。这对于 Meta 来说是一个非常明智的策略。我们也进行了一些开源的尝试。我们的 Whisper 模型用于转录,已经完全开源了一段时间。因此,我觉得这样很好。我们能够让更多人接触 AI,最终,人们希望找到最有能力、价格最合理且尽可能安全的模型,选择越多越好。
罗伯特·西原(Robert Nishihara)
您认为,OpenAI 最佳模型与最佳开源模型之间的质量差距会扩大还是缩小呢?
凯文·威尔(Kevin Weil)
我想说的是,我们一定会尽力推动其发展。
罗伯特·西原(Robert Nishihara)
您如何看待与云服务提供商之间的竞争?他们拥有构建先进模型所需的数据和资源。
凯文·威尔(Kevin Weil)
这些市场参与者之间确实存在很大差异。可以说,激烈的竞争是必然的,因为这可能是全球增长最快的市场之一。我们需要分别考量不同的云服务提供商。Microsoft 是我们紧密合作的伙伴,他们通常在创新时使用我们的模型。Google 则更像是一个直接竞争对手,而 Amazon 则类似于 Anthropic,他们通过 Bedrock 平台在市场中崭露头角。
然而,更多的竞争意味着更多的选择,竞争促使我们不断进步。 由于该领域的激烈竞争,您将能够获得更优质的人工智能模型,这对全球都是有利的。我们需要做到一些大型云服务商无法做到的事情。我们计划加速行动,承担更多风险,并深入挖掘产品和新模型的潜力。
O1 和一般推理能力将变得更加重要
罗伯特·西原(Robert Nishihara)
我对 O1 推理模型的发布印象深刻。能否分享一下在将这个模型转化为产品的过程中所面临的挑战?
凯文·威尔(Kevin Weil)
有人玩过 O1 吗?它真的是一种令人惊叹的体验。
罗伯特·西原(Robert Nishihara)
对几乎所有人来说,都是如此。
凯文·威尔(Kevin Weil)
O1 是一个引人入胜的项目,充满了各种有趣的挑战。对于还未接触过 O1 的人来说,可以将其与我们熟悉的模型构建模式相比较,比如从 GPT-2 发展到未来可能的 GPT-5。这些模型依靠更大的计算能力和预训练数据集,每次都进行大规模的预训练。虽然这些模型涵盖了广泛的知识和事实,但它们仍然运行在类似心理学中“System One Thinking”的模式下:你提出问题,模型给予回答。
而 O1 的独特之处在于其学会了推理。当面对问题时,O1 不仅仅是马上给出答案,而是深入思考,提出假设,并将这些假设与已有信息进行验证或反驳,以生成新的假设。 这就像当你面对一个难题时,在脑中不断琢磨。O1 在后台进行类似的运算,打破了知识的边界,不仅依赖于已有的学习内容。因此,O1 在科学、数学等纯粹需要推理的领域中展现了卓越的能力。
起初,我们不确定 O1 的普遍价值何在。我们知道在数学和科学领域,O1 展现了无与伦比的能力。在迎战类似 GPQA 这样的高难度研究生级科学评估时,O1 在各个科学领域的表现超过了 90%的研究生,远超 4.0 的标准。我们的一个关注点是,O1 在编程或创意写作这类人们惯用 ChatGPT 的领域中是否同样有效?这促使我们认真思考产品的开发方向。O1 需要时间进行思考,并在后台进行大量推理,因此我们需要找到一种合适的方法来展现这一过程。最终,我们选择在用户体验中,通过可视化的方式展示其思考过程,让用户了解 O1 如何得出结论。
在整个构建过程中,我们遇到了许多新问题和挑战,但市场反馈相当不错。我们将 O1 引入 API,是因为我们知道开发者将面临最具挑战性的使用案例。我们确实见证了 O1 的广泛应用和一些令人惊喜的创新应用。
罗伯特·西原(Robert Nishihara)
是的,事实上,基于你提到的技术的广泛应用性,我意识到一些最为艰难的科学研究任务——例如攻克癌症治疗的难题,可能需要具备强大推理能力的模型。在这种能力需求的光谱另一端,某些任务,例如总结新闻文章,则不需要太多推理能力。展望未来,对于不同的发展任务,大多数会处于这个光谱的什么位置呢?
凯文·威尔(Kevin Weil)
从某种角度来看,这确实非常有趣。如果考虑当前经济中一些最有价值的任务,O1 在一定程度上受制于其上下文处理能力。然而,这些限制最终会得到改善,使其能够处理更长的上下文信息,从而实现更深入的“思考”。目前,它的“思考”时间大约是 60 到 90 秒,这显得有些荒谬。有时候我问它一个很难的问题,它只用了五秒钟就给出答案,我会想:哦,我无法挑战它的极限。但在 60 到 90 秒时,它会达到能力的极限。
你可以想象一个世界:你问它一个关于如何治愈某种特定癌症的难题,让它思考五小时、五天,甚至五个月。有些问题确实需要长时间的思考。而对于那些类似于“嘿,帮我总结一下这封电子邮件”的简单请求,我相信即将发生的变化是,我们将习惯于一个这样的模型:这些 AI 非常聪明,但我们很容易对它们习以为常。你会发现它们通过固件更新快速进步。
我读到一篇文章,有人第一次试用 Waymo,他们在 10 秒钟内想着:“哇,小心!那里有个骑自行车的人,车会不会……”然后 10 分钟后,他们觉得:“天哪,这是最酷的。”再过 20 分钟,他们开始感到无聊,只是在手机上查看电子邮件。我们如此迅速地适应世界上令人惊叹的新技术。
罗伯特·西原(Robert Nishihara)
对于来旧金山旅游的人,在离开之前一定要体验一下自动驾驶汽车。
凯文·威尔(Kevin Weil)
这真是太神奇了。然而,我们仍然习惯于逐步指导 AI。例如,我有一封电子邮件需要总结,然后用于其他用途。我认为,我们正在从依赖 AI 回答问题的时代,过渡到 AI 为我们完成实际任务的时代。 AI 将不再仅限于处理五分钟的小任务,而是能够完成长达五小时甚至五天的大型项目。即便是日常事务、商业流程和效率问题,AI 在这个过程中也需要进行大量的推理,以制定更复杂的计划并执行,同时定期与我们沟通。因此,我认为将来 O1 和一般推理能力将变得更加重要。
罗伯特·西原(Robert Nishihara)
这是否意味着每个基于该模型构建产品的开发人员,都需要重新思考产品的用户体验,以便既能利用这些增强功能,又能应对显著的延迟?
凯文·威尔(Kevin Weil)
我认为这是一种更为根本的哲学转变。过去,你可能习惯于通过层次化的系统思维方式,用 AI 提问并获得答案。而未来,你可以指示 AI 为你执行任务。未来的 AI 将更加主动,这将带来产品构建方式的不同变化。因此,像 UI 这样的元素无疑会发生变化,因为需要更灵活地处理。实际上,以前无法实现的产品现在可能会实现。如果我是开发者或正在创办公司,我会关注 AI 刚刚开始能够实现的功能,并为那些尚不成熟的用例进行开发。 因为在三到六个月之内,它们将运作得非常好,而你将领先于他人。
罗伯特·西原(Robert Nishihara)
对于开发者来说,您有哪些建议?比如,在什么情况下应该优先选择使用 O1 而不是其他?比如您提到编程的问题……
凯文·威尔(Kevin Weil)
我们发现,O1 是一位极为出色的程序员,尤其擅长处理复杂的任务。如果仅仅是编写一个用于排序列表的 Python 函数,几乎所有模型都能胜任。然而,O1 在处理需要推理和多方权衡的复杂编程问题时,才能真正展现其专长。在快速发展的时代,了解目前 AI 无法完成的事情非常重要。
当你朝这些方向进行开发时,可能初期产品并不成熟,但经过三个月,它将变得非常出色。正如 Sam 多次提到的,如果你在开发项目时,担心 OpenAI 或其他公司的下一个模型发布,那么这可能说明你没有在做正确的事情。如果你仅仅是弥补模型当前无法完善处理的空白,这并不是理想的状态。然而,如果你开发的产品因为下一代大模型的问世而得以提升,那就是令人振奋的,因为这表明你在推动智能的前沿,探索过去难以实现的新产品领域。我认为这是最令人感到兴奋的事情。
罗伯特·西原(Robert Nishihara)
那么,世界其他地区何时会赶上 O1 的发展步伐呢?
凯文·威尔(Kevin Weil)
我指的是明天、明年,或者从现在起的 12 个月后。这个行业的有趣之处在于还有很多未被发现的东西。尽管各个实验室专注的领域略有不同,但它们都在做出色的基础工作。因此,有些实验室在某些方面领先,另一些则在其他方面占优。我认为这正是这个行业最激动人心的部分。有很多竞争,因此你必须保持在最佳状态,并且快速进展。
我假设在某个时间点,其他实验室也会发现我们用来构建 O1 的技术和方法。随着时间的推移,某些技术会逐渐扩散。我们的任务就是确保在他们掌握这些技术时,我们依然领先三步之遥。我们对 O1 使用的技术非常有信心。我提到过这是一种不同的扩展范式,它并不是依赖大规模的预训练,而是在推理时进行扩展。我们认为我们现在处于类似 GPT-2 的阶段,并看到许多快速改进这些模型的机会。当其他人追赶上来时,我们要力争再领先三步之遥。
罗伯特·西原(Robert Nishihara)
确实,推理时间和计算复杂度增加的趋势非常值得关注,特别是对于那些考虑提供支持服务系统的人来说,这将带来更大的挑战。
凯文·威尔(Kevin Weil)
好的,没问题。
模型的响应需要更具多样性
罗伯特·西原(Robert Nishihara)
接下来,我们来讨论消费者产品。你曾参与建设一些世界上最成功的消费者产品,比如 Twitter 和 Instagram。最终,社交媒体通过广告实现了盈利。那么,消费者导向的 AI 最终会通过什么方式实现盈利呢?是通过每月 20 美元的订阅费用,或者其他方式?
凯文·威尔(Kevin Weil)
这个问题非常有趣。我必须说,目前我们并没有全部的答案。现在我们明确的是,没有计划在广告方面开展任何工作。随着模型的不断智能化,比如,我们听说某些律师事务所的资深律师表示,他们让 AI 代写了一份法律简报。此类工作原本需要一个收费每小时 1000 美元的律师花六个小时完成,而 AI 只用了五分钟。当你能用大约 3 美元的 API 费用,在五分钟内完成价值 8000 美元的工作时,这意味着什么呢?
因此,我认为我们尚不清楚所有的答案。同时,我们的使命之一是将这些技术带给每一个人。在世界上的很多地方,我们提供一款免费产品,并将一直保持免费。这是我们的坚定信念,我们也在努力让 AI 变得更加便宜,以便在免费产品中提供更多功能。
当然,也有一些原因让您可能需要每月 20 美元的订阅。然而,世界上还有很多人无法负担每月 20 美元的费用,那么我们如何在某种程度上分享我们创造的价值?如果我们能用少量费用在五分钟内完成原本需要花费 8000 美元的任务。我们也在努力让 AI 服务于世界的其他地方,无论他们是否能支付费用。这是一个尚未解决的问题。
罗伯特·西原(Robert Nishihara)
你认为,这会如何发展?最终是一个只值 3 美元的 API 令牌,还是能够以接近 8,000 美元的价格售出?
凯文·威尔(Kevin Weil)
我不知道……我觉得这个世界即将发生改变……如果这些东西的成本只需 3 美元,你就不能再以 5000 美元的价格出售它们。 因为很快会有人按照真实的生产成本来出售这些东西。所以,这将是一个完全不同的世界……而且,我的意思是,我们在场的每个人都在共同创造这个世界,我们都有机会去塑造它。
罗伯特·西原(Robert Nishihara)
在规划 ChatGPT 的发展路线图时,你是否会参考某些产品?比如,你会不会想这是有点像搜索引擎,或者像消息应用程序之类的产品?
凯文·威尔(Kevin Weil)
有趣的是,我发现将这些系统比作另一个人是一个很好的类比。让我举几个例子。当使用某个系统版本时,它可能需要花些时间来思考问题的答案,对吧?所以用户可能得等上 30 秒或 60 秒。这种情况下,我们如何在用户界面(UI)中处理呢?如果我问你一个难题,而你不知道答案,大多数人不会一开始就喋喋不休地说出各种想法,也不会静默地盯着天空看上 60 秒。通常情况下,你会不时提供一些进展,比如说,“我想这可能是答案,稍等一下。” 这样,你能不断地更新进展,而这也是我们实际产品中的处理方式。
在语音模式下,情况则有所不同。当你与人交谈时,会发现这与书写截然不同。我不知道你是否曾经写过演讲稿并将其朗读,我发现这样显得相当生硬。为了让它听起来更自然,我们需要改进写作方式。在开发高级语音模式时,我们遇到了类似的挑战。有时在开发过程中,每次提问,系统都会给出答案,然后再接另一个问题,这种交流方式似乎让对话自然地延续下去。因此,通过这种有趣的方式,我们能够确定在这种情况下人类的自然反应是什么,也为 AI 应该如何表现提供了指导。有趣的是,模型本身的行为实际上成为一个独立的产品,拥有其特定的个性等。因此,我们的产品经理和工程师正在努力塑造模型的个性。
罗伯特·西原(Robert Nishihara)
这实际上提供了一个非常有趣的见解:书面英语和口语英语实际上就像是两种不同的语言,而这一点并不总是显而易见。
凯文·威尔(Kevin Weil)
对我来说,这听起来至少有些不自然。顺便说一下,如果你将其数字化后再读一遍,我可能完全无法理解你的意思。
罗伯特·西原(Robert Nishihara)
因此,用户体验在这个领域至关重要。你提到你们在用户体验方面取得了很多突破。当然,聊天界面是一个重要的用户体验进步,而语音模式则是另一个。有没有其他尚未推出或者目前正在开发的,但你认为同样重要的突破呢?
凯文·威尔(Kevin Weil)
显然,模型的响应需要更具多样性。 目前,互动主要以文字交流为主。我们相信并且正在积极努力一个目标,那就是利用所有你与他人互动的方式来与我们的模型互动。比如,我会经常发短信,今天早上也给你发了不少,我们就是通过这种方式互动的。实际上,这也是目前大多数人与 ChatGPT 互动的方式。
除此之外,我还会说话和观察,我们希望你能对模型说话,它能对你做出回应。我们希望当你举起手机时,可以向模型展示你所看到的事物,并询问关于现实生活的问题。我们已经讨论过 Sora,模型可以通过实时数据生成视觉内容。所有这些功能都需像自然互动那样完全集成。我认为,模型的响应将变得更加丰富,你不仅会收到文字,还会获得多媒体内容,并能够据此进行操作。在这方面会有更多发展。正如之前所述,这些变化是显而易见的。
有趣的是,随着我们转向更多主动行为,并让模型在更长时间内执行任务,聊天界面的持续时间会如何变化。实际上,我认为聊天仍然会保留,并需进一步发展,但作为一种基本的互动方式,它依然适用。因为作为人类与智能 AI 的协作模式,聊天和对话确实适合当今的交流方式。所以,我们拭目以待。这也是我们在这个领域构建乐趣的一个方面。
OpenAI 的渐进式部署
罗伯特·西原(Robert Nishihara)
在不同的话题上,人们可能担心模型会过于偏向左翼或右翼,或者过于关注政治正确性。如果涉及到价值观的问题,这些是研究团队在模型的训练或后期调整阶段解决的,还是在模型应用的产品层面解决的呢?
凯文·威尔(Kevin Weil)
这些问题确实非常有趣。同时,我怀疑如果让房间里的每个人投票,能否达成一致意见。尤其在政治问题上,人们的观点往往是五五开的,通常模型不应该对此类问题表明立场。例如,当有人问“地球是平的吗?”时,超过 99%的人会同意地球不是平的,但仍有少数人持不同意见。那么模型应该在这个问题上有立场吗?如果意见比例是 80 对 20 呢?这些都是难以回答的问题。
因此,我们制定并发布了一份关于模型使用的规范,并提供了大量示例,说明模型应遵循的原则。这些内容以自然语言形式发布,任何人都可以阅读和评论。如果模型的行为不自然,可能的原因有两个:一是模型未能遵循规范;二是您不认同这些规范。若是前者,这是技术上的错误,需要修正。若是后者,这则是一个可以讨论的问题。不过,至少我们有一个公开的规范,便于社会集体进行讨论。我认为,到目前为止,这一方法效果不错。
随着模型能力的提升,规范也必须不断演变。相比于单纯因为不喜欢某个答案就要求“哦,去修复它吧,OpenAI”,拥有一个供大家讨论的文件要更好。这就是我们尝试的方法。
罗伯特·西原(Robert Nishihara)
我同意,这是一个很好的方法。很多人在这里不仅构建模型,还围绕着模型构建系统来开发产品。
罗伯特·西原(Robert Nishihara)
从安全性的角度出发,安全性涵盖了许多不同的方面。那么,应该如何确定分析的正确对象呢?是专注于模型本身,还是关注围绕模型的系统和产品呢?
凯文·威尔(Kevin Weil)
我们的理念是,要同时兼顾这两种方式。从纵深防御的角度来看,我们希望模型永远不要去执行或回答某些事情。而另一些事情则可能根据具体应用的背景而不同。因此,对于 ChatGPT,我们采取了一套特定的策略。
然而,在 API 的使用中,用户有更大的自由度,可以持有不同的策略和观点。例如,如果你是一位核聚变科学家,某些问题可能在 ChatGPT 中不适合回答,但对你而言讨论这些问题可能是有意义的。因此,在某些情况下,我们会明确表明立场,说明模型不应做这些事情,因为它们是非法的,或者与我们产品设计的初衷相悖。而在其他情况下,我们希望根据实际情况给予更大的灵活性。
罗伯特·西原(Robert Nishihara)
在编写和制定这个标准时,我很好奇,你认为贡献者需要具备哪些最重要的技能,才能做好这项工作?能列举一些具体的技能会很有帮助。
凯文·威尔(Kevin Weil)
在更广泛地考虑模型行为时,我们实际上雇佣了众多内容创作者,以帮助模型更好地表达自我,并准确传达其情感意图。在我很久以前于 Twitter 工作的早期阶段,Eve 说过的一句话对我影响很深,也延续到了今天的 OpenAI。他提到,无论你公司内部有多少聪明人,外部仍有更多聪明人。 这适用于任何与社会变革相关的问题。
在 OpenAI,我们秉持渐进式部署的理念。对于新技术及其引发的各种社会挑战,从安全到日常事务,我们相信,通过让模型逐步接触更广泛的人群,可以确保其安全性,并逐步推动世界的积极变化。这正是我们在此采取的方法,也是我们公开模型规格、保持开放的原因。我们欢迎来自全球的反馈,并以此为基础加以改进,而不仅仅依赖于 OpenAI 团队的反馈。
罗伯特·西原(Robert Nishihara)
确实如此。实际上,我们从庞大的开源社区以及众多公司对 Ray 的贡献中获益良多。
罗伯特·西原(Robert Nishihara)
在结束之前,你能分享一下你对未来的看法,以及你所期待的事情吗?
凯文·威尔(Kevin Weil)
我觉得这将是件很有趣的事情。我用 ChatGPT 作为翻译工具的体验让我感到惊讶。我也很期待每个孩子都有一个个性化导师的场景。事实上,我有点惊讶这种服务现在还没有普及。可汗学院曾在这方面做出一些有趣的尝试,但似乎没能真正流行起来。我敢说,大多数观众的孩子可能还没有使用过这样的服务,更不用说那些对 AI 不太了解的全球用户了。不过,这似乎是一个几乎不可避免的发展趋势。当你看到孩子们在个性化辅导与传统学校教育之间的对比时,效果十分显著。
罗伯特·西原(Robert Nishihara)
我能问你一个问题吗?这种情况,是属于可以在 OpenAI 模型基础上创造大量价值的领域,还是属于下一个模型可能让我的工作过时的领域?
凯文·威尔(Kevin Weil)
我认为这里有巨大的发展空间。在一定程度上,我们接近或已经达到了一个关键点,这个关键点不再是智能本身的限制,而是如何进行评估。模型具备处理多种任务的能力,而当务之急是将其应用到非常具体的用例中,教授其一些虽未能直接理解但可学习的内容。 通过使用一些非公开的数据集,比如多年来通过商业实践积累的专有数据,模型能够在特定领域表现出色。
我们独自无法完成大多数这些任务,这就是为什么我们要与可汗学院合作并构建 API。我们期待着开发者们能够创造出一系列卓越的应用,因为我们相信,AI 越快在全球普及,世界就会变得更加美好。 我对此非常兴奋,并认为模型将迅速取得更大进步,这意味着我们面临着重大的机遇。
罗伯特·西原(Robert Nishihara)
感谢你的独到见解,Kevin。能够和你交流,我感到很高兴。
凯文·威尔(Kevin Weil)
谢谢你邀请我。