具体几项基准测试得分来看:文本和视觉推理任务上,GPT-4o mini在MMLU中得分为82.0%,相比之下Gemini Flash得分为77.9%,Claude Haiku得分为73.8%。数学和编码能力方面,GPT-4o mini也超过了市场上的所有轻量级小模型。在衡量数学推理的MGSM中,GPT-4o mini得分为87.0%, Gemini Flash得分75.5%,Claude Haiku得分71.7%。在编码性能测试HumanEval中,GPT-4o mini拿下87.2%,各种各样而Gemini Flash和Claude Haiku分别为71.5%和75.9%。来到多模态推理,GPT-4o mini在MMMU中再次以59.4%分夺冠,其对手 Gemini Flash得分56.1%,Claude Haiku得分50.2%。新模型何时、何处可用?现在,GPT-4o mini现已作为文本和视觉模型在Assistants API、Chat Completions API和Batch API中可用,并在未来几天内推出微调功能。如果开发者不想切换到 GPT-4o Mini ,仍可以通过 API 访问 GPT-3.5 Turbo。OpenAI表示,游刃有余GPT-3.5 将在某个时候从 API 中退役,但具体时间未定。ChatGPT的所有免费、Plus和团队用户今天起就可以使用GPT-4o mini来取代GPT-3.5,企业用户也将在下周开放。对于渴望以低成本构建 AI 应用程序的开发者来说,GPT-4o Mini 的推出无疑为他们提供了另一个有力选择。OpenAI已经让金融科技初创公司 Ramp 测试了该模型,使用 GPT-4o Mini 构建了一个从收据中提取费用数据的工具。电子邮件客户端 Superhuman 也参与了测试并用它创建了一个自动建议邮件回复功能。可能是小模型界的新晋最强战将OpenAI 并没有透露GPT-4o mini 的具体大小,但表示它大致与其他小型 AI 模型(如 Llama 3 8b、Claude Haiku 和 Gemini 1.5 Flash)处于同一水平。触景生情OpenAI还称GPT-4o mini 在速度、成本效益和智能上都全面碾压行业领先的小模型。这也在 LMSYS.org 聊天机器人竞技场的预发布测试中得到了验证。
GPT-4o mini 与其它小模型在性能与成本上的综合比较。图源:Artificial Analysis
“与同级别模型相比,GPT-4o mini 的输出速度非常快,中位输出速度为每秒 202 个标记,”Artificial Analysis 联合创始人 George Cameron表示,“这比 GPT-4o 和 GPT-3.5 Turbo 快 2 倍多,是许多依赖速度用例的极佳选择。”Sam Altman在推文里说,GPT-4o mini 是朝着让“智能便宜到无法测量”努力的重要一步。而关于OpenAI 为何花了这么长时间才推出轻量模型,表里如一产品主管Olivier Godement表示,这是“纯粹的优先级”问题。因为公司专注于创建GPT-4这类更大更好的模型,这需要大量“人力和算力”。随着时间的推移,OpenAI 注意到开发者急于使用较小的模型,因此决定现在是时候将资源投入到构建 GPT-4o Mini 上。对于网友最关心的“什么时候才能开放语音模式”的问题,Sam Altman也给出了回复:“7月晚些时候推出测试版,公众访问权限更晚些开放。
回到OpenAI这第一款小参数轻量模型 GPT-4o Mini 。Godement认为, GPT-4o Mini 真正体现了OpenAI让AI技术更广泛可及的生杀予夺使命。“如果我们希望 AI 能惠及世界的每一个角落、每一个行业、每一个应用,我们就必须让 AI 更加经济实惠。”而除了达成惠及全球各地开发者和用户的目标,让AI不仅是大公司的专利,从企业运营角度来说,进军小模型领域更能扩大OpenAI产品的覆盖范围,在市场竞争中保持优势。此举也无疑会给Google、Anthropic等其他竞争者带来压力,发现自己好不容易站稳的地盘又引来了OpenAI这个业内王者入局。但对于普通用户来说,十有八九这并非一件坏事。也许会刺激整个行业在小型高效模型方面的研发和创新,让AI技术更加普及易用,从而丰富整个生态系统。
最新评论