百度为什么要帮别人造AI应用? | ToB产业观察

   发布时间:2024-11-15 14:14 作者:唐云泽
李彦宏对于百度的定位,在大模型时代有一个很大的变化。

11月12日,在百度世界2024大会上,百度创始人李彦宏以《应用来了》做主题演讲,他表示,“百度不是要推出一个‘超级应用’,而是要不断地帮助更多人、更多企业打造出数百万‘超级有用’的应用。”

上一个时代的中国互联网,普遍被认为是互联网应用公司,譬如百度的搜索、阿里的电商、腾讯的游戏等,互联网巨头们的招牌都是应用,中国成为互联网应用最发达的地区之一。

大模型时代,这些企业也被视为是杀手级AI应用的候选人,可能没有人比他们更清楚需求在哪、应用如何打造,以及具备充足的人才和资本,而李彦宏却说要帮其他人和企业造数百万应用。

这透露出李彦宏对于大模型的认知和态度。大模型带来了技术范式转换,百度已经不再是上一个时代只需考虑应用层的互联网公司,若要成就于大模型时代,百度自己得先入局做硬件、生态以及基础设施,某种程度上这才是当下大模型企业最应该关心的事。

这并不代表百度不做应用了,李彦宏也表示,“我们(百度)做的应用,同时做十款应用或者最多一百款应用,外界可能有一万个创业公司在试各种各样不同的赛道。”

只是在当下的时间节点,百度需要扮演一个垂直整合的角色。OpenAI和微软联手,AWS投资众多大模型创业企业,meta做开源生态,谷歌将自家大模型与云做垂直整合,终极目的都是让更多AI应用根植于自己的平台和生态上,百度也不例外。

AI应用,走到哪了?

“我们正处在AI的iPhone时刻!”去年,英伟达CEO黄仁勋做出这一著名预判。对于英伟达来说可能的确如此,英伟达面向的是芯片客户,ChatGPT现象级热度之后,AI芯片行业迎来了大爆发。

对于C端消费者应用和B端企业应用客户而言,还未达到同样的阶段。作为对比,2010年是移动互联网的“iPhone时刻”,当时iPhone4正式推出,虽然黑莓手机在美国还占据43%的市场,iPhone只超过10%,但是AppStore的应用数量达到了13万,并且在未来几年走出了一条陡峭的曲线,移动互联网应用极大繁荣,如今我们使用的微信、头条、快手等,都诞生于这条曲线。

有意思的是,李彦宏在会上也给出了一条陡峭的曲线——文心大模型的日均调用量变化曲线图。

李彦宏表示,到今天这个数字已经超过了15亿次,代表着过去两年中国大模型应用爆发。6个月之前,当文心大模型日均调用量达到两亿的时候,他还在思考,如果日均调用量一年之内涨10倍,也就是从2亿涨到20亿,我认为就成了,就说明大家是真需要大模型。

为何大家愿意用大模型了?一言以蔽之,支撑大模型应用发生的前提条件越来越成熟。据Gartner预测,到2027年,企业使用的AI 模型中将有一半以上具有特定行业或业务功能,而在2023年这一比例仅为不到1%。

大语言模型的能力已经基本满足应用场景的需求,同时精调和推理等成本在急速下降,加之众多企业分工构成的大模型生态也正在快速演进,加速了大模型不同层级的创新和融合,大模型应用生态朝着健康的方向发展。

李彦宏就提到,过去24个月,行业最大的变化是大模型基本消除了幻觉,它回答问题的准确性大幅提升,这让AI从“一本正经的胡说八道”,变得可用、可被信赖,采用RAG技术后,大模型会利用检索到的信息来指导文本或答案的生成,从而极大地提高了内容的质量和准确性。

针对大模型落地成本高的问题,百度智能云今年将文心主力大模型ERNIE Speed、ERNIE Lite全面免费开放,对文心旗舰大模型ERNIE 4.0、ERNIE 3.5进行了大幅降价,大幅降低大模型使用门槛和试错成本。

造大模型应用,难在何处?

尽管大模型应用的基础设施和生态演进加速,但大模型毕竟是一次革命级的更新,我们还处在应用繁荣的早期阶段,不少企业还没有适应新的大模型应用开发模式。

李彦宏认为,开发者可能已经逐步适应了怎么在大语言模型上开发应用,突然搞出来一个新的方向(比如o1),又得适应一遍。百度也很希望大家赶紧适应这种新的思维逻辑,怎样慢思考,调用工具,大家有学习和适应的过程。

“今天虽然我们发了多智能体协作这些东西,但让一个开发者开发一个多智能体协作的应用,其实难度还是很高的,成本很高,反应速度很慢,各种各样的能力怎么调用,有一个接受的过程。我们得逐步逐步得让大家学习这种新的能力,接受然后再把它利用好。”他说。

过去,传统应用开发流程复杂,需要先进行高层设计,再分解为子模块开发,最后集成到一起,这一过程耗时不少且风险高。在大模型时代,AI原生应用在产品形态上显著变化,依托大语言模型的理解、生成、逻辑、记忆四大核心能力,应用交互从传统的表单和按钮,转变为自然语言对话。

目前,通过工具进行大模型应用开发主要有三大类:

第一类是原来有一套 APP 或者一套应用系统,能够将大模型作为 Copilot 优化交互体验。这是最常见的形式;

第二类是原来的业务流程还在,能够用大模型降低成本提升效率、节省时间;

第三类是能够做到原来做不到的事情,比方说用大模型去生成一个 CAD 的图纸,产生更大的创新生产力。

同时,各行各业的企业在应用大模型落地过程中,在准确可靠性、与内部系统关联性、安全性、使用门槛上仍有许多问题。

具体来看,百度智能云总结了大模型应用落地的问题,第一,用户怎么选模型;第二,如何优化模型在应用场景的效果;第三,基于大模型怎么低成本做应用开发。

结合实际情况看,企业意识到不是尺寸越大、越先进、参数量越大,模型就适合自己的需求,既要有效果,也要成本低,才能够规模落地。同时,在很多应用场景当中,企业不止一个大语言模型,需要多个大小模型协同,另外,仅有大模型本身无法构建应用,企业还需要一些周边的人工智能能力与大模型匹配。

百度集团执行副总裁、百度智能云事业群总裁沈抖表示,AI应用正率先在B端爆发。由企业级大模型工程平台、异构算力平台组成的新型AI基础设施,将替代传统云计算,为大模型应用在企业生产力场景中的规模落地提供关键支撑。

大模型时代的“应用工程化”

如果说文心大模型的目标是追求大模型的技术革新,百度智能云就要做大模型的应用工程化,李彦宏的原话是“百度智能云是我们构建智能产业生态的主要依托”。

沈抖表示,过去一年余,企业大模型应用已经深入到“研产供销服”的各个环节,传统的云计算已经无法支撑大模型应用的快速发展,百度智能云在做的,就是打造一套全新的基础设施,围绕大模型及其应用,帮助企业加速实现智能化升级。

据介绍,百度智能云目前拥有中国最大的大模型产业落地规模。超过六成的央企和大量的民营企业,正在联合百度智能云进行AI创新。百度智能云千帆大模型平台已经帮助客户精调了3.3万个模型、开发了77万个企业应用。

千帆和百舸即是百度智能云提供的工程化平台,千帆平台帮客户做大模型和应用的开发和服务;百舸平台为客户提供大模型相关的算力服务。

首先看千帆,可以从三个方面优化大模型应用效果,一是直接调用模型,也就是模型推理;第二种是模型应用效果优化,包含了提示词优化、模型精调以及模型能力增强;第三种则是大模型应用开发。

千帆大模型平台提供了大量模型服务,包括ERNIE 4.0、ERNIE Speed、ERINIE Lite等主力模型,适用于不同垂直场景定制训练、构建行业模型、垂直场景调用。

提示词优化方面,千帆大模型平台还优化了Prompt,并预置了近300个行业场景的prompt模版;模型精调方面,千帆提供了数据洞察、清洗和回流能力,独家的高质通用语料数据以及量化压缩工具链,内置了最佳实践精调样板间;模型能力增强方面,千帆提供了RAG以及各类工具的使用结合能力。

在本次大会上,千帆还发布“工作流Agent”功能,可帮助企业快速开发出面向复杂对话场景的AI应用,快速拥有专业水平的“数字员工”。

再看百舸,百度表示,目前百舸已具备了成熟的10万卡集群部署和管理能力,客户包括中国石化、中海石油、长安汽车、上海交通大学、地平线等,主要解决从集群创建、开发实验,到模型训练、模型推理的全程算力需求。

百舸平台可兼容昆仑芯、昇腾、海光DCU、英伟达、英特尔等国内外主流AI芯片,支持同一智算集群中混合使用同一厂商不同代际芯片、不同厂商芯片,屏蔽硬件差异,帮助中国企业摆脱单一芯片带来的高溢价和供应链风险。

据了解,在万卡规模集群上,百舸能够将两种芯片混合训练大模型的效率折损控制在5%以内,另外,通过设计高效的网络拓扑结构,结合模型切分优化和跨地域无拥塞高性能网络方案,百舸能够在横跨几十公里的多机房组成的万卡规模的集群上,将单一模型训练任务的性能折损控制在4%以内,达到业界最领先水平。

大模型的科学创新固然重要,但要规模应用于现实场景,做好大模型应用工程是必经之路,在基础设施和产业生态相互促进的过程中,企业可以选择做“2011年的微信”,也可以选择做“2016年的抖音”。

“很多美国同行,他们做法是当做一个Science(科学),我有一个终极目标,就想尽各种办法解决它,这个问题可能用工程的方法也可能用其他的方法、用数据驱动,最后解决下来。现在诺贝尔奖都授给公司CEO了,很多非常有意义的,即使是从science的角度很有意义的事,最后是靠工程的方法解决出来。所以做工程不丢人,做工程很有可能是比科学更早发现机会、发现规律的。”李彦宏在对谈中表示。(本文首发于,作者 | 张帅,编辑 | 盖虹达)

 
 
更多>同类内容
全站最新
热门内容
本栏最新