相信已经很少有人没听过“新质生产力”这个概念了。
今年两会期间,“新质生产力”被写入《政府工作报告》。近两个月,社会关于“新质生产力”的讨论愈演愈烈——究竟什么是新质生产力?新质生产力在实际场景中以什么样的形态存在?大模型时代,又该如何充分释放新质生产力?
这些问题各方都在讨论,但更重要的是,“新质生产力”提供了一种全新的叙事,混杂着公众的疑惑与期待,扣开了通往未来的大门。而火了一整年的大模型,成为“新质生产力”最具代表性的一个侧面。
近期,甲子光年创始人&CEO 张一甲受百度智能云的邀请,与百度副总裁谢广军,必优科技创始人&CEO 周泽安进行了一次深度对话,试图分别从模型供应方、模型使用方及第三方智库的角度出发,回答关于“新质生产力”的一系列疑问。
百度智能云与必优科技均是各自所处赛道的“AI先行者”,他们活跃在距离“新质生产力”最近的地方,为“新质生产力”注入能量。
2023年3月,百度率先推出文心一言,是国内首家发布大模型产品的企业。当月,百度智能云发布全球首个一站式企业级大模型平台——百度智能云千帆大模型平台。2024年4月16日,百度智能云发布新一代智能计算操作系统——百度智能云万源。
截止到2024年4月,百度智能云千帆大模型平台已经服务超过8.5万家客户,平台上已经精调出1.4万个模型,并且开发应用数也达到了19万的规模。
这些企业中,必优科技颇具代表性。
必优科技是一家典型的AI原生企业,其创始人周泽安此前在“AI+文档”领域深耕多年。自2020年成立以来,必优科技已经在AIGC领域取得显著成就,其代表产品ChatPPT在短短几个月内,自然用户量就突破200万。百度文心一言和百度智能云千帆大模型平台发布后不久,必优科技便于2023年4月成为百度智能云的首批客户。
1.百度智能云需要必优,必优也需要百度智能云
大模型的生态必须足够包罗万象,才能承载用户奇形怪状的需求。
张一甲:你们双方的合作是如何展开的?
谢广军:文心一言去年3月推出,4月就和必优科技达成合作。必优科技一直在“AI+文档”领域持续深耕,能快速跟上大模型浪潮,我们是国内首家发布大模型产品的企业,自然而然地很快合作起来了。
张一甲:周总,合作中你是甲方,你们为什么选择百度智能云?
周泽安:本质原因来自两方面:
第一,我们产品的内在需求。我们2020年创业时还没有大模型,我们自己做了一些简历、合同方面的小模型,参数规模都只有十几亿,甚至几亿。大模型出现后我们发现必须拥抱大模型,它的能力可以泛化到更多场景,这是我们的内在需求。
第二,百度本身的吸引力。文心一言推出后,我认为我们的用户应该支持百度这样的公司,他们敢于做第一家推出大模型的企业,一定有他们自己的准备。
张一甲:第一次看到大模型,你是什么心情?
周泽安:虽然我们之前也在做小模型,但我对自己和公司的定位一直是做应用。大模型作为一种更高效的生产力突然出现后,我毅然决然选择拥抱它,放弃之前的包袱,用更先进的大模型解决用户需求。
拥抱大模型也让我的视野更开阔,之前我们做简历、合同更多是特定场景的特定文档,做不了更宽泛的场景,很多需求对到我这边,我解决不了,没那么多精力,但有了大模型之后我们就能拓宽产品边界。
张一甲:放弃小模型,拥抱大模型,你的团队会有质疑吗?
周泽安:刚开始团队确实有一些心理波动,因为刚接入大模型不是那么稳定,且我们还没有收到任何用户反馈,步子是不是迈得有点大?是否应该等大模型成熟之后再去用。
但很快团队就坚定下来了,最初选择小模型是因为大模型不成熟,我们只能从细分领域切入,一块一块深耕,但如果有全新的生产力出现,整个范式都改变了,我们首先应该改变自己的思维方式。等大模型完全成熟再去用可能就晚了,因为在场景迭代和用户的持续沟通,这本就是该有的产品应用“适应力”。
张一甲:你不光自己选择了百度智能云,还带着你的用户一起选择了百度智能云,会担心百度智能云抢走你的用户吗?
周泽安:刚开始还是有蛮多顾虑,但观望了一段时间,明白了通用模型与垂直场景的边界感,加上我们一直坚持做文档应用场景,我们还是笃信,大模型和应用场景之间是有一定距离的。我们需要大模型去重构产品,大模型需要我们去验证应用价值。所以,我们和百度智能云之间更多是合作共生关系,他们也需要我,我们也需要他。
张一甲:大模型的生态必须足够包罗万象,才能承载用户奇形怪状的需求。也问下谢总,作为乙方,你认为百度智能云的差异化优势是什么?
谢广军:AI原生应用的繁荣是我们最大的愿景。百度已经做了十几年人工智能,是国内最早一批投入AI领域的企业。在文心ERNIE 3.0推出前,我们已经迭代了1.0和2.0版本。
今天的大模型to B领域,我们有四大优势:
第一,覆盖范围很全,我们不仅能提供模型,还能提供训练模型的一整套数据、工具链以及算力。
第二,模型效果很好。我们通过自身及先发用户的使用反馈不断迭代模型。尤其在中文语境下,不管什么测试,我们的模型都非常领先,泛化能力非常好。
我们在过去一两年的实践中,积累了很多用户场景,有助于我们服务新用户。在文心ERNIE 3.5和4.0版本的旗舰模型上,我们还做了一系列小尺寸大模型,比如ERNIE Speed、ERNIE Lite,甚至ERNIE Tiny版本,把小模型和大模型配合起来,为用户降本增效。同时,结合我们的工具链,通过SFT、Post-pretrain(一种预训练的模型训练方法)等方式做有针对性的调优。
第三,我们针对成本问题做了很多优化方案,让用户以最低的成本,体验到最好的性能。
第四,我们通过千帆AppBuilder,助力用户低成本、低门槛地把大模型转化成应用,不断深耕各个领域,最终形成我们作为供应商的优势壁垒。
2.大模型应用,如何落地生根?
真正的场景不是笼统的“办公场景”“新能源场景”,而要触达到用户手边的实际问题。
张一甲:作为应用方的代表,请周总谈谈必优科技在推进业务时遇到过哪些挑战?
周泽安:首先是对“场景”的理解深度问题。
真正的场景不是笼统的“办公领域”或“行业场景”这类泛词,而是触达到用户手边的实际问题,问题即场景。我们从22年12月就开始做ChatPPT,我们的定位不是“文档智能体”概念,而是“文档自动化(Document Automation)”。文档领域的降本增效需要按业务步骤逐个解决问题,大模型只是其中一环,只不过当“自动化”因为大模型的决策与理解,最后形成了“文档智能体(Doc-AI-Agent)”。
其次,我们之前对模型通用能力的认知也有一些浅层误区。
PPT是一个很典型的多模态场景,文档有图有文字,还有数据,同时结合图文呈现需求,还需要绘制、排版等能力,甚至连基础的文本内容都要根据演讲人的风格控制PPT整体的排版和结构。我们之前认为,一个场景中涉及到文字、图片、视频等模态就是多模态;但最真实的模型应用场景是,当用户给一个需求,产品能直接生成一份符合用户需求与预期的PPT,整个创作过程并不是由一个模型来决策,而是一个各种模型协作的结果,所以场景本身的价值是萃取出通用模型在具象问题上的输出能力,并形成合力,从而解决用户的问题。
张一甲:你们迭代产品的过程中,千帆大模型平台提供了哪些具体帮助?
周泽安:我们一站式接入千帆大模型平台后,可以轻松创建各类App。千帆大模型平台打通了下游的开源模型、SFT、算力调度以及算力切片等服务,让我们这些创业公司能够更加回归用户体验,聚焦产品能力的提升。
现在我们和百度智能云的合作已经上升到具体场景中的配合。我们使用文心大模型消耗的token中,接近40%都是用来做决策的。比如生成一个关于中国古代《清明上河图》的PPT课件,我们会将用户需求输入文心大模型,文心大模型会给出若干选择,从文风到设计风格,我们会根据文心的反馈来决定下一步配色和排版内容的定义。后续再经过多轮调用后,最后才能真正生成符合用户需求的PPT。
张一甲:某种程度上,用户的需求在倒逼你们双方的合作更加深入,在场景层面进行共创,一直合作背后实则是一行一行的指令交互。
谢广军:是的。通过合作中的深度交互,我们也把这套模式沉淀到百度智能云的后续产品中,让我们的能力泛化到PPT、文档生成之外更多的场景中,形成“思考+生成”的落地模式。
张一甲:大模型的技术路径在持续迭代,例如今年各家都开始卷起了长文本。百度智能云作为模型供应商,如何判断下一步做什么,不做什么?
谢广军:我们的着力点主要围绕大模型落地的几个门槛:首先,模型价格还可以继续降低;其次,模型效果也有持续的迭代空间;第三,模型还需要积累更多场景应用的经验;第四,应用开发和调优的成本需要进一步降低。
张一甲:训练大模型需要大量投入,有人花钱招人,有人花钱买卡,百度怎么算经济账?
谢广军:大模型带来的影响堪比工业革命,我们首先要把大模型做好,这有助于我们的业务拓展。虽然前期会有大量投入,但随着大模型市场规模不断扩大,模型训练成本会被逐渐摊薄,推理成本也会不断优化。从文心一言发布到现在,我们今天的推理成本只有第一天的1%。
张一甲:这个数字非常夸张,你们如何降低推理成本?
谢广军:除了优化模型本身,我们还会深入场景,结合用户需求提供最低成本、最有性能的解决方案——有些需求可以用小尺寸模型来解决大部分问题;有些需求则需要通过用户数据精调专家模型,让专家模型和通用模型配合,以MoE架构降低推理成本。
张一甲:今天大模型落地进展如何?
谢广军:我们经常会举一个形象的例子,四川有一种竹子,叫毛竹。这种植物生长的前几年只能长十几厘米,这段时间它的根系会在地下蔓延数十平米。这个阶段过后,毛竹会肉眼可见地快速生长,一个月能长十几米。
大模型的应用落地也类似,现在大家都在探索,如何通过大模型解决实际问题?有哪些业务可以用大模型创新?虽然我们还没有看到大模型翻天覆地的应用,但过去一年,大模型已经开始扎根行业、快速渗透,出现越来越多的应用,这里的"应用"不仅是指一款独立的App,更是指通过大模型做的业务改造和升级,影响研产供销服的各个环节和我们生活的方方面面。
去年3月底,我们发布了百度智能云千帆大模型平台,到现在正好一年多时间。过去一年,千帆上API的调用量呈现了指数级增长的趋势。现在已经有超过8.5万的客户在使用千帆,累计精调了超过1.4万个模型,开发了19多万个应用,分布在各个行业,可见,越来越多的企业已经把大模型真正用起来了!一旦突破天花板,整个社会的智能化水平会有巨大提升,到时候大模型to B会迎来一个非常好的契机。
周泽安:我的判断和谢总类似,大模型的商业闭环还处于验证阶段。我们2023年3月发布产品后,5月就开始商业化测试,出现过一段收支不平衡的时期。因为大家都在快速发展,当用户规模扩大,我们要给用户一定的空间去试错,在这个探索期我们不得不把商业化节奏放慢一点,否则很难建立起用户心智。
张一甲:必优科技接下来有哪些业务规划?
周泽安:我们内部有三个业务发展视角:首先,用户需求导向,从用户需求中萃取下一步业务进化方向,例如在文档生产链路中引入“角色”的概念,不同的AI角色决定内容形式与风格;第二,紧跟市场趋势,尊重技术同频和价值同频;第三,结合我们此前积累的行业know-how,持续专注自己“最擅长”的文档场景,不断迭代产品。
今年6月我们预计会发布一款真正的live document产品,它比ChatPPT更加极致,更加依赖AI大模型。我们提出了一个全新的文档呈现概念,叫Model to View或Data to View。
新产品会回归内容本质,内容表现形式不再局限单一了,它可以因用户场景需求即时、瞬时呈现对应的内容和形态。比如当用户需要在某个场合演讲,我们的产品就切换为一份相对简洁且富有逻辑表现力的PPT;而下一秒如果用户需要给老板做汇报,它可能就会展示出更加详尽的word文档形态,有解释,有说明,AI驱动,瞬时创作。
3.AI原生应用就是一种新质生产力
新质生产力要解决两个核心问题:第一,降本增效;第二,通过新技术催生新的应用场景和工业化生产模式。
张一甲:今年,“新质生产力”被写进了政府工作报告,它的内涵和外延是什么?
谢广军:大模型的落地应用本身就是一种新质生产力。我认为新质生产力要解决两个核心问题:第一,降本增效;第二,通过新技术催生新的应用场景和工业化生产模式。
张一甲:百度智能云在新质生产力中扮演什么样的角色?
谢广军:目前,围绕文心大模型底座,我们已经打造了“百舸”算力异构平台、千帆ModelBuilder和千帆AppBuilder。上个月的Create大会上,我们新发布了“万源”人工智能操作系统。我们希望这些产品成为新质生产力本身,成为中国产业数智化升级的动力引擎。
张一甲:为什么会推出“万源”这种操作系统类的产品?
谢广军:今天的大模型底座需要解决几件事:
首先,大模型底层需要分布式的异构算力支撑,动辄要驱动万卡GPU集群,容易出现机器故障。“百舸”就类似大模型操作系统的驱动器,管理了很多硬件,充分发挥硬件价值。我们为此定义了一个指标,即“训练有效性”,用来监测硬件是否在处理用户训练的任务,而没有闲置。目前,我们的万卡集群的利用效率已经达到98.8%,最初只有50%。
今天,大模型已经成为操作系统的内核。模型的效果和效率,已经成为AI应用的核心决定因素。“万源”操作系统的内核就是“文心”系列模型;千帆ModelBuilder,是指在操作系统之外进行模型管理的shell,可以通过它进行SFT,做数据增强和模型评估。ModelBuilder之上,还要有开发应用的编程接口和工具,为此我们推出了千帆AppBuilder,进一步降低应用开发的门槛——从算力、模型到应用整体形成了“万源”操作系统,支撑各种AI原生应用的开发、运行和效率优化,这就是“万源”的含义。
张一甲:请问周总,AI原生企业在构建新质生产力的过程中会扮演什么样的角色?
周泽安:在我看来,新质生产力即全新的、高质量的生产力。上一个时代,我们解决文档场景的某个问题,更多是优化界面的某个按钮、提示或工具栏,让用户自己解决自己的需求。但未来,用户对降本增效的需求一定更高,需要从重构解决问题全新产品思维,且能够拥有高质量的生产力方式,才有可能真正解决用户的问题。
张一甲:未来3-5年,二位对人工智能的发展有哪些期待?
谢广军:我们希望通过更好的技术,提高各行各业的生产生活效率,同时有新的AI原生应用爆发。
周泽安:我希望在业务层面出现更加普惠且通用的多模态模型基座。