🤖 由 文心大模型 生成的文章摘要
百度搜索AI助手全量上线极速大模型,在生成速度和调

百度正式宣布其搜索AI助手已全量上线极速大模型,该模型凭借百度自研技术,在搜索结果生成速度方面实现了重大突破。经测试对比,在效果与DeepSeekV3.1持平的情况下,百度搜索AI助手极速模型的生成速度达到了DeepSeekV3.1的5倍,而调用成本仅为其70%。
此次百度搜索AI助手极速模型所运用的自研技术,精准聚焦于大模型中最为耗时且成本高昂的推理环节。通过对该环节的深度优化,全面提升了百度AI助手的生成速度、调用成本以及使用效果等多个关键维度。在这一强大技术的加持下,百度AI助手的首token返回时间大幅缩短39%,意味着用户发出指令后,能更快地收到AI助手的初步响应。同时,回答吐字速度加快了500%,这一数据直观地表明,百度AI助手在信息输出效率上达到了行业领先水平,成为目前行业内回答速度最快的AI助手。
DeepSeekV3.1作为行业内备受关注的模型,在上下文窗口扩展、复杂推理增强、多语言优化、多模态集成以及幻觉率降低等方面有突出表现。百度搜索AI助手极速模型能够在效果不逊色的同时,在生成速度和调用成本上取得如此大的优势,凸显了百度在AI技术研发上的深厚实力与创新能力。
这不仅为用户带来了更高效、更流畅的搜索体验,也为百度在激烈的AI市场竞争中增添了有力的砝码,有望进一步巩固其在AI搜索领域的领先地位。随着极速模型的全量上线,预计将有更多用户感受到这一技术升级所带来的便捷与高效,推动AI搜索服务迈向新的发展阶段。