首页> 会员动态>正文
DeepSeek冲击AI搜索后,百度的突围之路
来源 赛迪网2025-02-21

2025 年春节期间,DeepSeek 的出圈搅动了AI 搜索行业。但其实半年的时间以来,国内模型推理能力的逐渐成熟以及 AI 搜索行业的变革均有迹可循。从初创公司月之暗面推出 Kimi 探索版和数学版,到百度文心大模型正式上线深度搜索功能,都意味着搜索范式在加速变革。

尤其在 DeepSeek “拐点”出现后,AI 搜索市场即将面临进一步洗牌,微信基于 DeepSeek-R1 提供“快速问答”和“深度思考”选项,已开始灰度测试,各大厂开始加快布局的脚步。然而,在这场 AI 搜索的变革中,先天的场景优势和用户积累才能带来一些先发优势。

百度 APP 拥有 7.04 亿月活,在其全面接入 DeepSeek 后,百度搜索将成为下一个“超级入口”,带领7亿用户光速进入AI搜索时代。 2月16日晚,百度搜索和文心智能体平台宣布将全面接入 DeepSeek 和文心大模型最新的深度搜索功能。搜索用户可免费使用 DeepSeek 和文心大模型深度搜索功能,文心智能体平台的开发者也将能随时调用 DeepSeek 模型创建并调优智能体。

不仅如此,此前文心一言也在官网宣布将于4月1日0时起全面免费。百度这两个关键动作从本质上而言,都是在打出“大模型+搜索”的生态级战略组合拳。值得一提的是,百度也在积极推动自身技术与 DeepSeek 的耦合与优势互补,其 RAG 技术优势能为 DeepSeek 消除幻觉、带来专家级搜索服务和更多用户场景需求满足。

根据公开资料测评,在主流大语言模型非幻觉率排行中,百度 Ernie 4.0 Turbo 位于第一名。

“大模型+搜索”的开放组合拳

基于百度自身的搜索基因,在 DeepSeek 火爆后,百度第一时间反应,清晰地打出了“大模型+搜索”的组合拳。

2月3日,百度智能云即宣布 DeepSeek-R1 及 DeepSeek-V3 两款效果领先的大模型已上架至千帆 ModelBuilder 平台,但价格仅为DeepSeek-V3 官方刊例价的 3 折,DeepSeek-R1 官方刊例价的 5 折,并提供限时免费服务。这一举措进一步丰富了百度平台 AI 模型生态,为企业用户提供更多维强大的模型选择。

接下来的几天,可以清晰地发现,在百度密集的技术动作中,“开放”正在成为百度的关键词。

2月13日,文心一言在官网宣布将于4月1日0时起全面免费,所有PC端和App 端用户均可体验文心系列最新模型,以及超长文档处理、专业检索增强、高级AI绘画、多语种对话等功能。

同时,文心大模型深度搜索功能也在2月13日上线,具备更强大的思考规划和工具调用能力,可为用户提供专家级内容回复,并处理多场景任务,实现多模态输入与输出。

2月14日,百度宣布将在未来几个月中陆续推出文心大模型4.5系列,并于6月30日起正式开源。

2月16日晚,百度搜索和文心智能体平台宣布将全面接入DeepSeek和文心大模型最新的深度搜索功能。

不仅是百度,近来国外多家 AI 巨头都在主动开放。2月6日,OpenAI宣布ChatGPT Search向所有人开放,无需注册,来到OpenAI官网首页就可以直接使用搜索功能。就在OpenAI公布ChatGPT Search全面开放的前几个小时,谷歌也刚刚宣布向所有人开放最新Gemini 2.0模型,包括Flash、Pro Experimental和Flash-Lite三个版本。

大模型开放成为大势所趋的背后,是 DeepSeek 以极低的成本实现了与OpenAI相当的性能的冲击,这在一定程度上推动了行业对成本效益的重新评估。

应对压力,百度之所以能够果断顺应这一市场趋势,是因为其背后有技术底气与变革勇气,能够实现训练和推理成本的双下降。

搜索范式变革:7亿用户进入AI搜索时代

在传统搜索时代,百度基于长期积累的行业 know how 和技术沉淀,构建起了庞大的搜索生态,RAG技术如同强大的“知识外挂”。百度的RAG技术具备中文深度理解、多模态检索、垂直领域定制化以及实时数据整合能力等优势,在中文互联网、企业服务、政务等场景中更具实用性。从文心一言发布之初,百度就强调检索增强,到现在一年半多时间,检索增强的价值,已经成为业界共识。

检索增强是衡量大模型优劣的重要维度,百度研发了「理解-检索-生成」协同优化的检索增强技术,又在基于搜索技术的积累在RAG上具备明显优势,并推出百度AI原生检索,从RAG能力实测来看,国内外主流大模型中,百度文心一言综合表现最佳。

而这恰好弥补了 DeepSeek 的弱势——幻觉问题。DeepSeek-R1模型以“思维链”功能著称,可清晰展示问题解决的逻辑过程,回答问题深度大大增强,但也有着幻觉问题严重的争议,无法避免事实错误的发生。

百度的 RAG 和 DeepSeek 结合,既可以极大降低大模型的「幻觉」问题 ——RAG 可通过引用外部知识有效减少生成内容出现事实性错误的问题,于为用户带来更好的搜索体验。基于此,文心一言深度搜索既擅长回答专业咨询类问题,如金融研报、宏观市场政策分析等,也可以进行时事新闻热点检索、查询、连续问答。

将百度搜索和文心一言深度搜索结合,产品能够带来“专家级”复杂问题问搜索查询服务。

除了搜索能力外,二者的结合也使得模型具备更全面的思考、规划、反思能力,针对工具规划及调用能力上进行全面加强,能够更加“聪明”的使用多个工具解决各类复杂任务问题。例如先搜索内容,再配合代码解释器;或者阅读上传文档、再搜索分析,最后综合给出结果。

有趣的是,文心大模型的工具调用能力也支持分析复杂梗图。输入Prompt:结合互联网信息,理解这张拼图,包括图片上的人物是谁,文字的出处、内涵等,综合分析下这张拼图表达的意思。得到的结果如下:

由此可知,一方面,百度搜索的开放性使其能整合全网信息,结合DeepSeek的推理能力与文心大模型的多模态处理能力,覆盖更广泛的用户需求场景;另一发面,通过智能体平台吸引开发者共创工具,形成“技术+开发者+场景”多轮驱动的良性生态。

基于此可以说,百度搜索+大模型是一次强强联合,能够给百度整体布局带来带来1+1大于2效果。再依托于百度APP月活7.04亿、百家号有1100万内容创作者、百度文心智能体平台开发者突破80万,百度生态将激发更强活力,“搭载”7亿用户光速进入AI搜索时代。

从模型开放到搜索接入:百度技术底气与变革勇气

无论是百度的文心大模型开放和全面免费,还是 DeepSeek 接入后的性能提升和价格降低,背后都是百度的技术突围作为支撑。

近年来,文心大模型的训练成本和推理成本双双都在下降:

在训练成本一侧,昆仑芯在性能上表现卓越,能够在更少的计算资源下运行大规模模型(如DeepSeek-V3/R1)。这使得大模型的推理和训练所需的计算量减少,从而直接降低算力成本;同时,百度智能云已点亮万卡集群,并计划扩展至 3万卡,大规模集群可以通过任务并行调度、弹性算力管理等方式,提高计算资源利用率,避免算力闲置,提高单任务的计算效率,降低整体算力成本;在此基础上,百舸不断优化并完善模型的分布式训练策略,通过高效并行化任务切分策略,将训练主流开源模型的集群MFU提升至58%,助力大规模集群实现高效的部署管理。

在推理成本一侧,百度的四层技术架构使得模型在推理部署方面有比较大的优势,尤其是在飞桨深度学习框架的支持下,其中并行推理、量化推理等都是飞桨在大模型推理上的自研技术。飞桨和文心的联合优化可以实现推理性能提升,推理成本降低。

从AI回答、AI助手、AI图片助手,到最近上线百度AI搜索,百度一直积极拥抱变化并持续推动变革,一次又一次彰显了强大的技术底气和变革勇气。而现在,随着文心大模型的不断迭代、开放接入DeepSeek,以及超7亿月活的百度APP用户、超80万的文心智能体开发者,以及搜索丰富的用户场景,百度搜索已经集齐技术、生态、场景的王牌,接下来将会引领AI搜索的新变革。

联系我们

中关村芯生态芯片和整机企业联动发展联盟

电话:010-88558933/8936

邮箱:zhangjing@staff.ccidnet.com/

地址:北京市海淀区紫竹院路66号赛迪大厦

京ICP备2024043428号-1