火山引擎放大招:发布豆包1.5深度思考模型,还有Agent隐藏彩蛋

模型能力,始终是第一位的。

这是过去几个月,大模型产业界得出的经验。

在模型能力没有代差的时候,新颖功能、流量传播,都能让一款AI产品迅速走红、拿到融资、坐上牌桌;而技术彻底突破后,大家发现没有护城河,用户也没有忠诚度——人们会毫不留情抛弃旧产品,转向更前沿的技术。

2025年春节,DeepSeek意外性的爆红,掀翻了大模型格局。

而中国的科技大厂,在经过最初冲击后,很多调整了战略:

阿里的重心,转向「阿里云+Qwen模型」,马云多次现身站台;腾讯拥抱DeepSeek,并开放微信等国民应用,推动腾讯元宝、混元模型的进度;百度一反常态,转向开源、免费开放文心,并把核心搜索业务接入DeepSeek-R1。

AI也已是字节最重要的业务和技术方向。

「豆包大模型+火山引擎」,是近几年国内企业服务市场的最大变数,对模型能力、AI基建、产业生态全面猛攻。

4月17日,在「2025 火山引擎 Force Link AI 创新巡展」的杭州站活动,豆包1.5·深度思考模型正式发布,视觉理解、文生图系列模型升级,火山引擎也展示了AI应用开发、推理模型部署的最新产品。

在豆包大模型更新之后,业内发现4月将又是新一轮「神仙打架」。

OpenAI的正式版o3、DeepSeek-R2、Anthropic的Claude 4、马斯克的Gork-3.5和阿里Qwen-3,预计都将在近期更新。

没有人知道,AGI会在什么时间点、以什么形式到来,但是企业都不会错过这场「变革」。在快速、低成本将大模型应用到业务和场景中,抓住新的机会。

只有主动成为变革者,才能看到变革到来。

01

此次豆包1.5·深度思考模型的发布,先划几个重点:

· 主线版本Doubao-1.5-thinking-pro,性能超越DeepSeek-R1,接近OpenAI o3-mini-high和Gemini 2.5 pro

· 多模态版本的Doubao-1.5-thinking-pro|m,实现「视觉理解+深度思考」,可基于「图像」推理思考

· 豆包1.5·深度思考大语言模型总参数为200B,成本、效率和延迟都显著优化

500

具体来看,豆包1.5·深度思考大语言模型采用混合专家模型(MoE)架构,总参数量200B,实际激活参数仅有20B。

对比同性能的先进模型,DeepSeek-R1满血版参数是671B,豆包在训练和推理成本的优势明显,并且实现20毫秒的极低延迟。

从性能上看,该模型在数学、代码、科学等权威基准测试中表现优秀。在AIME 2024 测试中获得 86.7 分,Codeforces 评测达到 55.0 分,GPQA 测试达到 77.3 分,达到或接近全球第一梯队水平。体现了模型在STEM、编程等专业领域推理能力的优越性。

500

提问部分截图

500

回答部分截图(有裁切)

这是一道难度较高的逻辑推理题目,豆包1.5·深度思考模型也轻松拿捏了。

豆包1.5·深度思考模型先深度思考了故事,理解和提炼其中关键信息,并对四个妖怪的情况逐一假设推理,囊括不同条件和可能性,通过自我反思、迭代,迅速推出正确答案。

除了推理任务,豆包1.5·深度思考模型也展示了显著的泛化能力,在创意写作、人文知识阐述等领域表现不俗,能胜任更广泛、复杂的场景。

我们给出了这道题目:

夜深人静,厨房里空无一人。但对于厨房用具们来说,这正是它们进行深刻哲学思辨的时刻:一个饱经沧桑、慈祥睿智的旧铁锅。一个锋利、思考生命意义的菜刀。一个信奉实用主义的冰箱。一个追求效率的微波炉。

请创作一个故事,让他们展开一场有意思的对话或冒险

500

在回答中,我们注意到豆包1.5·深度思考模型包含了实时信息,并且有一个「隐藏彩蛋」。

从思考过程,我们能看到这并非单纯的「联网搜索」功能,而是「边想边搜」:先思考问题、进行多轮搜索、评估内容并迭代,最后才得出更全面、准确的回答。

500

500

500

目前,「边想边搜」在豆包app中已经上线,具备部分agent的特性,能处理自动规划、决策等使用场景。

此次更新,豆包1.5·深度思考模型,还将视觉理解、多模态能力融入了深度思考。

这意味着,模型能够像人类一样,基于「看见」去联想和思考,这极大拓宽了模型的使用场景,并能执行更复杂的任务。

在实际测试中,视觉理解+深度思考的表现,是惊艳的。

只通过一张航拍图片,就推理出图片拍摄的地点,「青海大柴旦翡翠湖」。

500

在推理过程中,豆包1.5·深度思考模型多模态版详细识别并分析了湖泊的颜色、矿物的结晶、地貌、人类开发活动,这些图片中的微小细节,并像侦探一样展开推理。

我们用广州、上海、深圳的一些航拍、景点图片进行了测试,准确率相当高。

500

500

500

豆包1.5·深度思考模型多模态版可以看懂图标,并结合深度思考后,就能执行较为复杂的企业级任务了。

比如根据项目流程图,快速定位问题所在,给出精准、合理、可执行的操作建议。

目前,豆包1.5·深度思考模型已通过火山引擎开放API,供企业和开发者使用,也可以在火山方舟平台直接体验。

此外,豆包·视觉理解模型也迎来升级,提升了视觉定位和视频理解能力,企业可以基于这些能力打造更加有趣的商业化应用。

基于视频理解能力,加上向量搜索,对家中的监控视频进行语义搜索。比如,爱宠人士在家里安装了监控,接入AI后可以询问AI宠物一天的活动情况。

500

豆包·文生图模型升级到3.0,在最新的文生图领域权威榜单 Artificial Analysis 竞技场中,已超越业界诸多主流模型,排名全球第一梯队。

500

此次更新,让文字生成更精准、排版更美观,大幅提升了人像生成真实感,并做到直出2K高清原图。

02

大模型的冲击,极大提升了中国企业对AI、数字化的认知,点燃了客户投入和应用新技术的热情。

这改变了中国云计算、企业服务市场的格局。

To B服务是一个先发优势、规模效应明显的行业。阿里云、腾讯云、华为云先行耕耘十几年,基础设施、客户资源、政企关系的优势根深蒂固。

字节旗下的火山引擎,入局时间虽然较晚,但全力抓住了大模型的东风。

2023年,OpenAI和ChatGPT的震撼,在国内掀起大模型开发潮,并迅速白热化到「百模大战」;微软亚马逊谷歌等海外云厂商,迅速上线大模型服务,并将AI整合进自家的应用产品,进入了高速增长期。

当年6月,火山引擎打造了「火山方舟」大模型服务平台,提供一站式的大模型精调、推理、部署等服务。国内众多知名大模型厂商,当时都跑在火山引擎上。

而进入2024年,「百模大战」迅速终结,坚持自研大模型的厂商,收束到少数大厂和AI明星创企。

火山引擎预判了风向骤变:1.大模型的算力需求,从模型训练转向模型推理;2.大模型落地产业,企业客户的AI应用需求激增。

彼时,企业要用上大模型,仍是一件吃力不讨好的事情,至少存在:开发难度大、模型不实用、AI幻觉、数据安全、人才和成本有限等诸多痛点。

在火山引擎看来,这需要提供更强的模型能力,并升级底层设施,为企业提供AI应用的开发平台和配套工具。

· 2024年2月,AI应用开发平台「扣子」上线,封装各大模型API,方便开发者快速调用

· 2024年5月,发布HiAgent平台,帮助企业快速开发AI应用和智能体

· 2024年5月,豆包大模型正式发布,并大幅降低推理成本

至此,「豆包大模型+火山引擎」正式形成,成为云和AI市场的新锐。

火山引擎的核心策略,正是:「更强模型、更低成本、更易落地」。

在模型方面,豆包大模型家族,已包含通用模型、深度思考、语音识别、文生图等全模态模型。

在成本上,豆包主力模型在去年5月定价仅为仅0.0008元/千Tokens,比行业价格低99.3%。

火山引擎总裁谭待表示,豆包大模型通过技术优化降低成本,定价有合理毛利,从不赔钱换市场。

这也符合大模型提效降本的规律,阿里云、百度的大模型都跟随降价,B端模型价格进入“厘”时代。根据李飞飞团队发布的《2025人工智能指数报告》,过去2年大模型推理成本下降了280倍,这让AI加速融入生产生活,企业对AI的采用率,从2023年的55%上升到2024年的78%。

2024年12月,豆包视觉理解模型的定价0.003元/千Tokens,比行业价格低85%;2025年1月,豆包大模型1.5全系产品提质不加价,推理成本的优化,让毛利率提升到50%。

他们要证明,通过模型技术、工程能力、软硬件结合,可以降低模型成本——让AI变得高效、经济和易获取。

今年,行业聚焦的重点已经转向AI Agent,火山引擎也带来了Agent开发平台和相关工具:

· OS Agent,将构建Agent的解决方案直接开放给客户,助力企业和个人打造专属的通用Agent

· UI-TARS,一款打造通用智能体的大模型,已上线火山方舟平台

· AI云原生·ServingKit推理套件,帮助企业快速部署高性能、低成本的推理服务,大幅降低GPU消耗

在现场,火山引擎展示了OS Agent跨场景的通用能力,可以直接操作浏览器、手机、工具和其他AI完成任务。

比如,直接操作剪映做剪辑,用浏览器搜索商品比较iPhone价格。

在AI基建层面,火山引擎认为,下一个十年是「AI云原生」时代。

从「以GPU为核心」到「以模型为核心」,提供新一代计算、网络、存储产品,包括新一代GPU实例、vRDMA网络连接、EIC弹性急速缓存等服务,打造更稳定、高高性能、安全的AI基建。

浙商证券,2025年,字节开支翻倍至1600亿,其中AI算力采购预算900亿,还有700亿用于数据中心建设和配套硬件。

从底层算力到上层应用,从全模态模型到开发平台,火山引擎的全栈AI 服务,让企业开发AI应用变得更加简单,加速AI应用落地进程。

03

事实也证明,火山引擎的策略是对的。

在去年12月,豆包大模型的日均Tokens调用量已达4万亿;截至今年3月底,日均调用量已经超过12.7万亿。从去年豆包刚发布时计算,在不到一年时间里,豆包大模型调用了增长了106倍。

500

这条增长曲线,与中国云市场的走势不谋而合。

500

据IDC数据,6月到12月,中国公有云大模型调用量增长到了日均9522亿Tokens,半年增长近10倍。

IDC分析称,这主要得益于大模型能力的快速提升,以及模型调用降价策略。

2024年,中国公有云大模型调用量达到114.2万亿Tokens。

其中,火山引擎以46.4%的市场份额,位居中国市场第一,之后是百度智能云(19.3%)和阿里云(19.3%)。

500

可以说,火山引擎凭借「更强模型、更低成本、更易落地」的优势,将自己嵌入了AI应用在中国普及的进程里。

火山引擎已经在金融、汽车、消费、智能终端、电商、教育等行业落地,覆盖几乎所有主流应用场景。

目前,火山引擎已合作80%的汽车品牌,提供汽车云、智能座舱等服务,并与一汽红旗、东风、吉利、长城等24家车企成立「汽车大模型生态联盟」。

在智能终端行业,火山引擎已和小米、OPPO、vivo、荣耀、联想、三星、华硕等厂商合作,覆盖超4亿个终端设备。

从长远来看,「豆包大模型+火山引擎」的崛起,展现了字节在技术、产品、生态的综合实力。

豆包1.5·深度思考的发布,视觉、语音等全模态模型,如此全面的布局,满足不同行业和场景的需求,使火山引擎成为助力更多企业探索AGI的伙伴。

火山引擎证明通过技术和工程优化,可以在降本增效、AI普及的同时,完成商业闭环,扩大在中国B端企业市场的影响力。

在服务中国企业的过程里,火山引擎除了提供AI和算力,也将字节发展中积累的增长方法、技术能力和应用工具全部开放。把先进方法论落地成企业的体验创新、数据驱动、敏捷迭代等数字化能力,实现业务增长。

同时,火山引擎在实践中面对高难度、更复杂的企业级场景,也在反哺经验倒推产品和模型能力提升。

而面向未来,火山引擎总裁谭待表示,「目前大模型的应用还只能摘一些低垂的果实」。

在2025年,他们希望让更多人用好大模型,同时「做真正复杂的Agent」,用大模型帮助人类做更长时间的任务。

谭待表示,「如果说2024年是中国AI应用的元年,那2025年极有可能是AI Agent应用的元年。」

站务

全部专栏