OpenAI 最近推出了全新的轻量级 AI 模型 ——GPT-4o mini,这个新模型准备接替 GPT-3.5 Turbo,成为 ChatGPT 的默认选择。GPT-4o mini 的 MMLU 得分达到了 82%,在 LMSYS 聊天排行榜上也超过了 GPT-4。
- ** 高性价比 **:每百万输入 token 仅需 15 美分,而每百万输出 token 为 60 美分,比 GPT-3.5 Turbo 便宜了 60% 以上。
- ** 多模态支持 **:不仅能处理文本,还支持视觉输入。
- ** 大上下文窗口 **:支持 128K tokens 的上下文窗口,对于那些需要处理大量上下文信息的任务。
GPT-4o mini 支持 128k 输入 tokens(包括图像和文本),以及 16k 输出 tokens,能处理大量上下文信息。这个模型不仅成本低,延迟也低,支持文本和视觉输入。
在应用场景方面,GPT-4o mini 特别适合需要链式或并行调用多个模型的任务,比如调用多个 API。它还能处理大量上下文输入,如完整的代码库或对话历史记录。此外,GPT-4o mini 在快速、实时的文本响应交互中表现出色,非常适用于客户服务等需要即时响应的场景。
在各种测试中,GPT-4o mini 的表现相当亮眼。它在 WildBench 排名中拿下第九的位置,超过了谷歌的 Gemini-flash 和 Anthropic 的 Claude 3 Haiku。虽然在数学题测试中出现了一些逻辑错误,但总体来说,它的文字总结能力堪比 GPT-4o。此外,日本网友的 AI 聊天机器人测试也证明了 GPT-4o mini 的响应速度极快。
在实际应用方面,GPT-4o mini 已经和 Ramp、Superhuman 等公司展开合作,用于从文件中提取结构化数据和生成高质量邮件回复。这些成功案例展示了它在商业环境中的实用性和高效性。而在大模型竞技场测试中,GPT-4o mini 的表现和 GPT-4 Turbo 不相上下。
在安全性方面,GPT-4o mini 也有显著进步。它采用了 OpenAI 的指令层次结构方法,有效提升了模型抵抗越狱、Prompt 注入和系统 Prompt 提取的能力。这些安全措施确保了 GPT-4o mini 在各种应用场景中的可靠性和安全性。