当地时间6月10日,OpenAI推出了o3-pro模型。公司称,o3-pro是o3模型的升级版本,旨在进行更长时间的思考并提供最可靠的响应。

此外,6月11日,字节跳动旗下火山引擎举办Force原动力大会,发布豆包大模型1.6、视频生成模型Seedance 1.0 pro等新模型,并升级了Agent开发平台等AI云原生服务。豆包大模型1.6增加了图形界面操作能力,进而获得了“行动力”。
同时,两家公司也进行了降价。豆包大模型首创按“输入长度”区间定价,豆包1.6价格大幅低于豆包1.5深度思考模型、DeepSeek-R1。OpenAI则将砍价“大刀”挥向了o3模型,此次宣布降价80%。
新版本发布旧版本降价
作为o3的升级版,o3-pro在各方面的表现更为优秀。更新日志显示,o3-pro在科研、编程、教育和写作等关键场景中更具优势,同时在清晰度、全面性、指导遵循性和准确性方面,o3-pro也获得了较o3更高的评分。此外,o3-pro支持调用ChatGPT的全套工具,如网页搜索、文件分析、图像推理和Python编程等,具备较强的执行力和整合能力。
在与谷歌Gemini、Anthropic Claude等同级别模型的对比中,o3-pro的测试分数也更高。
据TechCrunch测评,在评估模型数学能力的AIME 2024测试中,o3-pro的得分超过了谷歌最好的人工智能模型Gemini 2.5 Pro。o3-pro 还在GPQA Diamond(博士级科学知识测试)上击败了Anthropic最近发布的Claude 4 Opus。
然而,由于任务调度和工具链调用更复杂,o3-pro响应时间将比o1-pro更长,OpenAI建议将o3-pro用在更需要深度思考或对答案准确性要求较高的场景中。
定价方面,o3-pro输入每百万tokens的价格为20美元,输出每百万tokens的价格为80美元。
值得注意的是,在o3-pro模型发布的同一时间,OpenAI也调整了o3模型的API单价。此前,o3输入每百万tokens的价格为10美元,输出每百万tokens的价格为40美元,而当前的价格则分别为2美元和8美元,降价幅度高达80%。
OpenAI CEO萨姆·奥尔特曼(Sam Altman)在社交平台上表示:“我们将o3的价格下调了80%,很期待人们会用它来做什么。”

萨姆·奥尔特曼的社交媒体截图
豆包大模型1.6发布首创“区间定价”模式
相较豆包1.5系列模型,豆包1.6系列模型支持多模态理解和图形界面操作,能够理解和处理真实世界问题。在今年以来大模型业界最火热的深度思考方向,豆包1.6-thinking在复杂推理、竞赛级数学、多轮对话和指令遵循等测试集上,也取得了全球领先的排名。

豆包视频生成模型Seedance 1.0 pro也在此次大会上亮相。该模型支持文字与图片输入,可生成多镜头无缝切换的1080P高品质视频,并实现较高的主体运动稳定性与画面自然度。至此,豆包大模型已涵盖多模态、视频、图像、语音、音乐等模型品类。
截至2025年5月底,豆包大模型日均tokens使用量超过16.4万亿,较去年5月刚发布时增长137倍。据IDC报告,豆包大模型在中国公有云大模型市场份额排名第一,占比高达46.4%。豆包1.5的多模态能力已广泛应用在电商识图、自动驾驶数据标注、门店巡检等场景。
图形界面操作能力让豆包1.6进一步具备“行动力”。演示案例显示,豆包1.6可自动操作浏览器完成酒店预订,识别购物小票并整理成Excel表格等任务。
除了模型能力,价格也是本次大会的一大看点。豆包大模型1.6采用统一定价模式,首创按“输入长度”区间定价,在企业使用最多的输入区间0—32K范围内,豆包大模型1.6的价格为输入0.8元/百万tokens、输出8元/百万tokens,综合成本比豆包1.5深度思考模型、DeepSeek-R1降低63%。Seedance 1.0 pro模型每千tokens 0.015元,相当于每生成一条5秒的1080P视频只需3.67元。
未来AI成本或收敛至电力成本
新版本的发布总是伴随着老版本的降价,但在算力领域,价格降低的原因应该不止于“新老交替”。
当前,随着技术的不断进步、开源趋势的普及以及硬件成本的降低,大模型的成本正在快速下降。百度董事长、CEO李彦宏曾表示,大语言模型每隔12个月,推理成本就可以降低90%以上。
此前,大模型成本高、用不起,是开发者做AI应用的一大阻碍。李彦宏认为,只有成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能低成本地部署大模型,最终推动各行各业应用的爆发。
DeepSeek的出现改变了这一点,因其低成本的算法架构和开源模式,可供任何人免费使用、修改和构建,从而带动了整个行业应用成本的降低。
业内人士分析认为,o3高达80%的降价幅度反映出的是产业阶段的变化,人工智能行业发力重点正从模型层转向应用层,推理成本的降低将更利好大模型落地。此外,“群雄割据”的局面也愈发显著。对于OpenAI来说,无法与其他国内外竞争对手大模型能力拉开明显差距时,其收费价格也会快速降低。
“随着数据中心生产的自动化,智能成本最终应该会收敛至电力成本。”o3-pro发布后,萨姆·奥尔特曼在他的博客中写道。
他介绍,ChatGPT平均每次查询消耗大约0.34瓦时的电量,大约相当于烤箱一点几秒的耗电量,高能效灯泡几分钟的耗电量;消耗的水量约为0.000085加仑,大约相当于十五分之一茶匙的水。
这似乎意味着,未来大模型可能会成为一种类似水、电的公共产品,在这些基础设施之上,再催生出百花齐放的应用。
谈及AI的最佳前进之路,萨姆·奥尔特曼认为,要专注于让超级智能变得廉价、广泛可用,并且不会过于集中,未来廉价到无法计量的智能会触手可及。