登录甲子光年
其他登录方式
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
找回密码
获取验证码
注册甲子光年
获取验证码
注册即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
绑定手机号
获取验证码
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
完善资料
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
微信登录
扫描二维码 | 授权登录甲子光年
甲小姐对话火山引擎总裁谭待:大模型后发也可以制胜
作者:王艺 2024-05-20

只有最大的使用量才能打磨出最好的模型,也只有最好的模型才有最大的使用量。


作者|甲小姐 王艺

编辑|刘杨楠


“价格战”,是大模型市场继参数量、长文本、营销战、融资额等热门话题后最新的关键词。


导火索是一场火山引擎的发布会。


2024年5月15日,火山引擎一口气发布9款大模型,同时升级了火山方舟、应用服务、机器学习平台、云底座,并公布模型调用价格——豆包pro 32k模型推理输入定价是0.0008元/千tokens,比行业的价格降低了99.3%;豆包pro 128k模型正式定价是0.005元/千tokens,较行业价格降低了95.8%。


超低定价让字节跳动一跃成为大模型“顶流”。


过去一年,字节跳动在“百模大战”中十分低调,最早发布的C端产品“豆包APP”也没有任何宣传就悄然上线。


在各家都争抢着卷参数、卷文本长度、卷营销,试图在大模型时代抢占“先发优势”的今天,字节跳动作为“后发者”,率先在B端掀起了“价格战”。


时间窗口“错位”的背后,是字节跳动追求“最强模型,最低成本,最易落地”的大模型战略主张。这个主张的出发点,便是“以客户为中心”。


“B端和C端不一样,企业决策更理性,‘市场领先于产品’的逻辑不一定合理。你发得早,别人一测发现不好用,那你提早发反而是浪费双方时间。”火山引擎总裁谭待告诉「甲子光年」。


本文,甲小姐对话火山引擎总裁谭待,聊聊大模型时代的“字节主张”。


1.先发优势vs后发优势


“如果模型没有达到阈值,企业直接做应用会很难,像是退回小模型时代,做各种场景的专业定制——那不是大模型时代做行业应用的范式。”


甲小姐:去年各家都在密集发布大模型,为什么你们现在才发?


谭待:这是字节的风格,我们不希望发布半成品。一年前,各家发的模型没有特别好的,要么缺模型能力,要么缺行业应用。现在我们的模型能力已经准备好了。


甲小姐:“模型能力准备好”的标准是什么?


谭待:是有没有更多人把模型用起来。


甲小姐:OpenAI发布ChatGPT、Sora,百度发布文心一言的逻辑都是利用时间窗口抢占“先发优势”,你们气定神闲的原因是?


谭待:C端决策很快,可以接受半成品,数据闭环更明显。互联网的C端逻辑是,先做一个半成品,免费对外提供,用户对产品容忍度也高,他们来使用就会产生更多数据,厂商就能够更好地完善产品。


但B端和C端不一样,企业决策更理性,“市场领先于产品”的逻辑不一定合理。你发得早,别人一测发现不好用,那你提早发反而是浪费双方时间,后面出现更好的产品,客户也会考虑用,和云计算是一个道理。


甲小姐:你认为做B端不需要追求“先发优势”?


谭待:做B端抢先发优势的前提是产品或服务要达到及格线,因为做B端更要为结果负责。如果你的产品足够“可用”,抢占先发优势肯定是有价值的。


甲小姐:及格线是什么?


谭待:企业应用需要更长的文本,更少的幻觉,对底层模型的智力水平要求更高。去年大家以为2023年下半年国内大模型就能接近GPT-4,但这个判断还是偏乐观。直到今天,国内模型才逐渐赶上GPT-4,真正能大规模落地应用,相当于早“乐观”了5个月。


甲小姐:我们在甲子内部讨论过“先发优势vs后发优势”的问题,第二名是否永远是投入产出比最高的?就像长跑比赛时一直跟在第一名后面的人,可能在最后冲刺时反超?


谭待:对,就像赛车一样,第一名有很大优势,但第二名应该把跟随优势发挥好,前提是第二名足够优秀,普通赛车手也很难反超。


回到AI落地上,AI能力的强大要体现在底层通用能力上,而不是私有化定制上。过去很多AI公司在落地过程中有大量定制化需求,AI的底层通用能力非常接近,几十个公司可能都差不多。


但大模型时代差距就很明显了,大模型时代也不可能只有一家遥遥领先。全球的几家大公司都咬得比较紧,但玩家数量明显少了一个量级。公有云模式下,规模越大,成本越低,这是大公司很大的优势。


甲小姐:大模型的应用落地没有大家想象中快?


谭待:美国还是挺快的,因为他们的基座模型率先达到了阈值如果国内的模型都没有达到阈值,企业直接做应用会很难,就像是退回到小模型时代,做各种场景的专业定制——那不是大模型时代做行业应用的范式。


2.比参数vs比价格


“如果现在还有一家公司强调自己参数特别大,那大概率是做得很差。”


甲小姐:简单概括5月15日发布的整体目标,是什么?


谭待:这次是火山引擎首次正式且大规模地展示我们在AI领域的全栈服务,包括从模型层到应用层,再到基础设施的全套服务。这也印证了大会主题:探讨当今技术发展的“FORCE原动力”。


甲小姐:当前技术进步的“原动力”是什么?


谭待:就是大模型。现在中国的大模型虽说没有完全赶上世界最领先的基座模型,但已经到了“可用”的阶段。


甲小姐:你们模型家族的9个模型——通用模型pro和lite版、角色扮演模型、语音合成模型、声音复刻模型、语音识别模型、文生图模型、Function call模型、向量化模型——它们是客户需求驱动的,还是你们已有的技术供给驱动的?


谭待:两者相辅相成,但最终肯定是市场需求驱动。市场需求不仅来自外部,也来自内部。没有需求是做不好技术的。比如语音为什么重要?因为这是用户与模型交互的第一步,输入输出做不好,用户体验就不可能好。


甲小姐:在你们内部的筹备时间线里,新发布的这些产品技术是同时做的,还是有先后因果关系?


谭待:我们是故意延后发布模型的,肯定要等模型能力足够了,才能在上面做应用。我们花了最多的精力提升模型能力,同时要考虑不同场景的性价比


比如,企业端应用会对知识库有很多需求,除了工程能力,模型的切片和召回能力同样要很强,我们做向量化大模型也是为了贴近知识库场景。


用大模型的人越多,需求就越多,就需要更多的Agent满足用户需求,因此需要一个Agent平台帮助开发者更好地搭建Agent。


大模型能改变IT本身,IT的生产力是很多公司或个人进行数字化、智能化升级最重要的瓶颈。现在很多事不需要专业开发者来做,我们的产品能让更多个人开发者更容易地把智能体和bot开发出来,才有了Coze这条产品线。


另外,还有一些产品线要不断迭代,比如在工程能力上,新的异构算力出现后如何做好适配,怎么通过分布式的推理把芯片价值发挥到极限,以及安全能力的升级等。


甲小姐:什么是真需求?


谭待:有的需求你从业务角度就能看到,比如聊天时有个助理帮我们把纪要总结好了,你肯定会用。不像有些需求,比如元宇宙是否有真需求,这就不好说。


甲小姐:你们在发布会上提到,成本是火山的第二大优势。对比全球,你们的成本做到了什么水平?


谭待:从定价角度肯定是全球领先的,从技术角度我们了解的全球有几家做得也很不错。


甲小姐:这次发布后,大家最关注的是价格。你们为什么在第一次亮相的时候就要打价格战?


谭待:我们总结了大模型应用落地的三大挑战——模型能力、应用丰富度以及模型成本。现在大模型还是太贵了,模型的应用成本不该是这样。


大模型的超低定价,来源于我们在技术上有信心优化成本。例如通过对模型结构的优化调整,在工程上从以前的单机推理演进到现在的分布式推理,把不同负载的推理混合调度,这些技术能够把各种各样底层算力用得更好,同时大幅降低成本,让每一家企业都能用得起大模型。


甲小姐:定价是一个复杂的“学科”,你们如何定价?


谭待:我们还是愿景驱动,基本按照调用tokens的数量来收费。


甲小姐:“愿景驱动”可以决定便宜多少吗,比如便宜50%还是90%?


谭待:“便宜百分之多少”是竞争驱动。愿景驱动是站在客户角度,考虑他们的负载和试错成本。第一,定价要对客户合适;第二,定价不能不可持续。


甲小姐:你的“愿景驱动”是指根据客户预算,在不亏钱的情况下帮他们解决问题吗?


谭待:不只是客户当前预算,而是考虑他们真正的需求。


定价分两个阶段:第一,把PoC(概念验证)做好,通过应用、模型的落地证明价值,才能加大投入,这个阶段成本肯定受到制约;第二,把成本做得更低,这样大家就能更好地做各种创新尝试,这个市场就起来了。大的云厂商应该有这样的担当,让大家更好地做事情。


如果模型定价不可持续,只靠补贴做,等规模做大了再涨价,可能不是很好。以前一些云厂商一分钱中标,二期涨价绑定客户,这是非常不好的行为,这不是站在业务本质上看问题,应该让技术和产品成为最重要的驱动力,而不是让短期的商业行为成为驱动力。


甲小姐:有位创业者在朋友圈评价“不谈参数量谈价格是不是耍流氓”,你们在发布会没有谈参数。去年大模型厂商都在卷参数,然后卷长文本,在你们看来,这些并不是值得强调的?


谭待:也不能叫卷吧。卷参数说明大家对这个事情的认知没到位,觉得参数越大越聪明,不完全是的。以前大家觉得Dense模型(比如GPT-3、Switch-Transformer等)更好,现在大家基本都往MoE转。如果现在还有一家公司强调自己参数特别大,那大概率是做得很差,因为认知水平停留在一年前了。


3.最大用量vs最好模型


“只有最大的使用量才能打磨出最好的模型,也只有最好的模型才有最大的使用量。”


甲小姐:这次发布会上提到“最大的使用量是火山引擎的优势之一”。你们怎么知道你们的使用量最大?


谭待:各家都会披露数据,DAU是客观的,因为有第三方榜单。短期内C端用户量肯定会更大一些,看C端调用的token数更有参考性。B端调用质量可能更高,但B端数据还没有公开。


甲小姐:“只有最大的使用量才能打磨出最好的模型”,这是市场共识吗?


谭待:从第一性原理出发,如果模型能力不强,使用量不可能起来。以前大家都根据榜单排名来评判模型能力,这不太够。模型参数那么大,针对题目提前做一些功课,很容易hack模型真实能力。但使用量很难hack,很多人可能第一次会用,第二次就不会用,所以使用量要看DAU或MAU,很多公司披露的是总的用户数,这个水分就大一些。


甲小姐:你们的使用量最大是否和字节C端用户基数本身就很大有关?


谭待:C端产品可以互相导流的前提是产品有相似性,比如原来看图文,现在看视频,但都是看新闻,就很容易转化,但大模型应用是个新类别,直接导流效率并不高。


用户不会莫名其妙地增长,只有最好的模型才有最大的使用量,这是因果互相促进的动态过程。都没有人用的东西怎么可能是好东西呢?特别是技术,用的人越多,技术就会越好,这是整个技术领域的共识。


甲小姐:AI原生APP要成为超级产品,最重要的特征是什么?


谭待:超级APP需要有双边网络——非常多的用户,非常多的开发者或创作者。只有把双边网络构建好,才能成为超级APP。抖音就是典型的例子,豆包做扣子也是这个思路。


甲小姐:如果使用量大是前提,字节跳动有天然的优势。这是否意味着创业公司很难打磨出最好的模型?


谭待:不一定。比如OpenAI就是用户量最大的创业公司;搜索领域的Perplexity做得很好,也是创业公司。而且创业公司有时束缚比较少,大家对它的容忍度高,反而能走得更快。


甲小姐:对于创业公司来说,他们首先需要把流量做起来。


谭待:对,但这个流量肯定是靠能力做起来的,不是靠短期的营销投放行为。


甲小姐:目前你们的模型每天处理1200亿文本tokens,大使用量的产品分布有哪些特征?


谭待:各种品类都有,比如陪伴、聊天、互动、知识问答助手、搜索等;在模式识别、分类等传统NLP领域,大模型的处理更好,比如翻译、语音处理等;还有生成PPT、小说等创作类应用。


甲小姐:作为云厂商,你们有没有看到一些使用量增长特别快的“当红炸子鸡”类产品?


谭待:对话类应用增长特别快。我们印象最深的就是豆包APP增长很快,消耗了我们很多基础资源;猫箱(角色扮演类应用)增长也很快。


4.抓手vs主张


“不是站在抓手的角度看,而是站在主张的角度看。”


甲小姐:几年前采访你,还是关于AB测试,火山引擎很聪明,把AB测试推到极致,带出字节的数据驱动文化和云计算的优势。在大模型方面有类似AB测试这样的抓手存在吗?


谭待:这会难一些。数据驱动的理念大家都认同,但怎么实现还需要具体措施。AB测试是数据驱动的显性化场景——所有事情都做AB测试,数据驱动大概率就会做得很好;但AI的应用面特别广,各种环节都可以通过AI加速,不像数据驱动那样有一个收敛点。未来可能会有一种方式衡量AI转型程度,比如企业有多少Agent,消耗多少token,这可能是一个指标。定指标是一个技术活。


甲小姐:目前什么是你们的抓手?


谭待:我们不是站在抓手的角度看,而是站在主张的角度看。我们的主张是:最强的模型,最低的成本,最容易落地。


甲小姐:作为火山引擎的一号位,你做决策时的底层逻辑是什么?


谭待:管理方面有“市场”和“产品”两个维度,以及“内部”和“外部”两个视角。先确定目标和愿景,再把市场和内部产品的Mapping做好。这件事特别复杂,比如如何判断一件事情的优先级就很重要。


具体来看,第一,看产品该如何提升,比如主模型做得比较好了,但端侧还有很多需求,我们就会看端侧应该做什么样的事情。


第二,看哪些行业、客户对模型应用的需求比较大。比如现阶段,手机和汽车行业对模型的需求更明确,这些行业中所有客户使用我们的模型后有什么反馈,再把这些反馈作为外部视角,反向驱动内部不断优化模型、产品、服务的质量以及成本。


甲小姐:这个Mapping中,有哪些是你们绝对不会做的?


谭待:还是挺多的,我们的模型在私有化方面优先级比较低。现在做模型重要的还是“追赶”,追着全球最强的模型来做。在这个过程中,你会发现你的资源再多也是不够的,如果你分心,可能对进度影响较大。


甲小姐:什么是让你感到“分心”的事?


谭待:我们的目标是把豆包做成最强的模型,优先级最高的肯定是先把公有云版本做好,之后再考虑私有化。对于一些客户出于安全提出的私有化需求,火山方舟会和优秀的私有化模型合作,但是豆包模型要focus在把每一个版本的功能做到最好。


甲小姐:有种声音认为,中国很多公司的底层诉求就是“私有化”。


谭待:公有化和私有化长期不矛盾,短期在资源优先级上是矛盾的。


第一,把模型私有化本身不难,但在模型不够好的时候分心去做私有化,会影响模型研发进展,比如OpenAI都没有精力做私有化。虽然短期看上公有云的模型会有很多矛盾点,但长期看这些问题都可以解决。


第二,模型私有化之后,工程能力的优化要客户自己来,这是很难的,特别是在异构算力芯片的情况下。此外,推理需求的“潮汐”属性非常大,公有化模型白天可以给工作场景提供算力,晚上可以给娱乐场景提供算力。最后,私有化的成本也不划算。当然,有些公司不差钱就另说。


甲小姐:你们显然更不差钱。


谭待:使用频次不高还好,如果员工每天都用AI助手,成本肯定不低。


甲小姐:过去一年很多云厂商都做垂直整合,但火山选择做平台化。这次发布之后,火山引擎跟其他云巨头的布局越来越像了吗?


谭待:垂直化和平台化不是非黑即白的,“一定要垂直整合”或者“一定要平台化”都太主观了,应该以客户为中心,看什么对客户最有价值。具体来看,要做到我刚才说的三点——最强模型、最低成本、最易使用,这三点是一个组合,最强的模型不一定是成本最低、最易使用的模型。


甲小姐:你们的三个主张无法在一个产品中自洽,所以你们内部有人专攻“最强模型”,同时用生态化的方式解决“最低成本”和“最易落地”的问题吗?


谭待:是的。未来某个领域可能会出现最强的垂直模型,因为他们有大家都没有的行业数据。如果是这样,对火山而言,最重要的就是把这个最强的行业模型放到我们的平台上。


甲小姐:所有云厂商都必须选择“自家模型+多家模型”的路径吗?


谭待:对,但有的厂商可能做不到。


甲小姐:什么样的客户会追求“最强模型”?


谭待:模型最终会在很多场景辅助、替代人类,当一个行业对从业者素质的要求很高,需要模型的能力就更强。有些行业需要人员素质没有那么高,需要的模型就没那么强。


5.老品类vs新品类


“我们还是更看好目前已经大量存在的品类。”


甲小姐:火山引擎的主要获客方式是什么?目标客户的画像是什么?


谭待:获客方式和大家差不多,但我们的目标客户有优先级,优先级最高的是场景面向终端用户的企业,因为他们的客户数量大,数字化和AI能发挥更大的价值。


甲小姐:央国企和政府不是你们的主要客户群体吗?


谭待:是之一,不是最大的。所有云厂商最大的客户群体是digital native(数字原生)的客户,只不过现在越来越多的行业变得越来越digital native,比如新能源汽车和传统汽车,它们的digital native程度是截然不同的。


甲小姐:那些没有digital native的传统企业呢?我前段时间采访一个创业者,他说,“一家中型上市公司,预算有3000~5000万,想要做云计算,找供应商,应该找谁来做?找大厂客户会觉得贵,找小公司又不放心。”


谭待:在私有化部署、定制化开发方面,中小公司和创业公司成本更低,大厂确实贵,因为大厂人工成本高。但大家做的事情不同,海外的云厂商、大型软件厂商主要做最通用的部分,落地部分由伙伴来做。我们也希望在火山建立这样的生态,不要所有事情都冲在前面做


现在很多云厂商也在反思,大厂规模大、技术密度高,应该做最底层的事情,做得又便宜又好。比如腾讯要以自有产品为主,阿里把公有云和私有云分开。


甲小姐:客户案例中,你们的落地方式有几种?


谭待:我们不是按照客户来看,是按场景来看。场景复杂度不高的,只需Prompt Engineering就可以;复杂度高的,先做好有代表性的场景,再做其他场景。找到共创的客户后,我们会一起评估难度,如果难度不高,我们只提供指导;如果难度大,我们就用知识库和RAG提供支持。在这个过程中,我们会沉淀一套标准化的客户解决方案,未来可以推而广之,实现规模化。


以前陆奇给我推荐了一本书叫《闪电式扩张》,里面有句话我印象很深:“当一个新的东西出来,在早期一定要做一些不可规模化的事情。”我们现在的算法服务本质上是不可规模化的事情,但可以由此找到可规模化的路。


甲小姐:在这个“不可规模化”的部分,面对一个客户,你们的服务分几个阶段?


谭待:整体类似轻咨询。第一阶段,我们先了解客户要在哪些应用场景做哪些事情,甄别这些事是否靠谱,看看客户现在做到什么程度,一起规划怎么做;第二阶段是帮助客户建立评测集,因为如果没有评估标准,优化就无从谈起;第三阶段是跑完结果后,决定具体的解决方案,可能通过Prompt Engineering解决,如果不行,就带一个知识库或通过SFT(Supervised Fine-Tuning,监督微调)的方式解决。最后总结经验,形成最佳实践,供其他客户参考。


甲小姐:在见客户的过程中,有遇到超出预期的事情吗?


谭待:有些场景下,和客户聊天本身也是一个共创的过程。比如我们在汽车上做了一个大模型交互的实践,因为汽车屏幕很宽,可以一边聊天一边显示对应的内容。后来和手机厂商聊,他们发现这个方案特别适合折叠屏,这就是一个典型的共创。


甲小姐:为什么这次成立了汽车大模型生态联盟和智能终端大模型联盟?


谭待:汽车和终端是两个比较明确的方向,汽车联盟的愿景是定义车与人的新交互范式,手机联盟的愿景是定义新的AI应用和AI手机。这两个行业头部企业集中,大模型在其中的天花板就比较高,有可能重新定义行业的交互方式。但有些行业比较分散,不适合通过联盟来做,只需和具体客户合作就好。


甲小姐:在决赛圈可以看到的终端产品形态里,比如手机、PC、汽车、AR、VR、人形机器人,你们更看好哪个?


谭待:我们还是更看好目前已经大量存在的品类,本来就有很大的市场,通过AI可以让它们变得更好,比如手机、PC、汽车、耳机、手表等。人形机器人或者新型AI硬件,由于AI落地和硬件本身的挑战,短期成功概率比较小。


6.效率vs增长


“最重要的事情就是:最强的模型,最低的成本,最容易落地。”


甲小姐:你的OKR是什么?


谭待:我的OKR就是火山引擎的愿景。


我们整体的愿景是成为全球领先的云和智能服务商,帮助企业降本增效、加速创新。可能未来五年的O(Object)都是这个,但我每一年会根据当下最重要的事情来拆分。比如搞清楚智能化概念里最重要的事情,我们做自动驾驶、做大模型的一些探索,都是为了搞清楚这些事。现在很清晰了,最重要的事情就是最强的模型,最低的成本,最容易落地。


甲小姐:你今年的O是什么?


谭待:首先,就是刚才说的三件事。其次,虽然很多人都在看AI,AI的增长也很快,但对大部分企业来说,存量还在CPU上,他们又面临AI转型的难题,加上宏观经济的影响,是很难的。我们还有一个目标,通过各种方式让企业在CPU的workload上极致降低成本,这样他们才能有更多的预算去做AI的创新,否则原来的东西成本很高,会影响他们的创新能力。


甲小姐:过去几年有没有遇到什么坑或者教训?


谭待:我们有一点比较幸运,就是我们做得比较晚,只要能虚心接受意见,前面那些坑我们大概率不用再趟一遍。


甲小姐:有的客户在采购大厂云服务时,看重的是技术之外的东西,比如资源置换。买你多少云,你给我导入多少服务或者项目。在整个云和AI生态里,什么需求是最solid的?什么是最真的需求?


谭待:第一,资源置换获得的收入总盘子可能并不够大;第二,这种模式不会特别长久,因为很多客户也越来越聪明,发现用资源置换换不到什么实质性的东西。这是这个行业的泡沫,最终还是要回归到正常情况。


云本身是一个规模经济,成本肯定很关键,价格不贵,但质量好,用户用起来放心。国外一些企业,它们客户的收入的增量已经很小,更多关注效率,要通过效率的提升解决利润增长的问题;而在中国,因为整体还处于一个增长的环境,除了效率,人们也关注业务增长,这里面可能要求你不仅有IaaS这些东西,还要有跟业务结合的一些点。


火山一开始讲的“云上增长”也是这个逻辑,云上增长不仅指你在基础层面提供成本低、质量好的基础服务,需要有一些业务的solution帮他做好这个事情。这是火山的一个优势,中国客户更看重这一点,因为他们不仅关注效率,还希望技术能够带来业务增长。


甲小姐:这就是你们强调的“商业新增长”?


谭待:对,但这个背景是因为中国经济仍在增长。如果经济不是增长阶段,大家会更看重效率。比如原来有五件事情,每件事情效率提高10%;或者原来一个流程有五步,现在变成四步,这都是降本增效的一种方式。但如果只是粗暴地降本,上游压下游,这种方式是不可持续的。


甲小姐:在降本增效和业务增长之间,哪种需求更主流?


谭待:以前增长是关键,现在两者同样关键。


但现在的宏观经济影响更大,大家对降本更看重。降本是阶段性的痛点,长期还是增长更重要。


云的好处是它总得买。和软件不同,软件如果觉得贵,明年你不用,退回去用Excel或许也可以。但云是硬件和软件的结合,只要业务在,就得有消耗,除非客户不干了。中国的软件行业和SaaS行业的全球占比远小于GDP占比,但中国云的占比和GDP占比是接近的,所以云有一定的刚需性。只要做数字化,就一定需要云,只不过是自己做IDC(Internet Data Center,互联网数据中心)还是用云服务的区别。


7.上云vs下云


“在AI时代,下云是一件不可能的事情。”


甲小姐:今天中国的云计算和AI市场处于什么样的态势?


谭待:AI和云计算都属于竞争激烈,只是程度不同,但是发展空间都很大。


甲小姐:仍处于战局远未定、深海有珍珠的状态?


谭待:现在竞争确实白热化,但是这个“海”每年都在不断扩大,还是值得重点投入。云的“海”已经很大了;大模型竞争的激烈程度跟模型的ready程度有关,现在还处于很早期,全球都一样。


甲小姐:为什么云计算的“海”这么大,竞争还会白热化,而没有形成差异化竞争?


谭待:公有云是一个产品,所有的公有云都长得一样;私有云是几百个玩家、几百个产品,就像软件,SKU太多、太散了。


甲小姐:过去一年关于AI信息量很大,什么是转瞬即逝的,什么是真正沉淀下来的?


谭待:沉淀下来的是大家已经没有人不相信AI是未来,是一个大共识。


甲小姐:但细节处还是有无数的非共识?


谭待只要大共识存在就无所谓。


甲小姐:不是所有人都觉得非共识无所谓,这似乎是大厂才有的底气,比如英伟达恨不得大家都吵起来,最好有一些不可证伪的命题。


谭待:这是个好问题。平台里的公司就是池塘里的鱼,一个鱼能长多大取决于池塘有多大,对平台公司来说,只要你池塘够大就可以了,剩下的都是细节。平台公司想的是“如果你池塘很小,那你永远长不大”。


甲小姐:假如有一天AI最头部企业的股价跌到了只剩10%,这个趋势会幻灭吗?如果这件事发生,大家会不会认为AI“供给很强,但是需求没多大”?


谭待:你可以看一个最主要的、确定性的指标,就是各个云厂商MaaS服务的使用量。


甲小姐:在大模型出现之后,你们的客户在云和AI这件事情上花的钱怎么变化?是总盘变大了,还是把蛋糕从原来的地方切过来?


谭待大模型肯定让云的盘子变得更大了。大模型对算力密度的要求比CPU高很多,意味着使用成本也更高。云在成本、易用性、价格弹性、稳定性上优势更突出,能加速大家“上云”的过程。


现在大家都讲“下云”,在AI时代,“下云”是不可能的,因为难度太高了。无论做云还是自己做IT基础设施,最终都要做好IT治理。云很容易,但是起新的应用很快,会产生很多新的负担,如果不治理就容易浪费钱。这不是云本身的问题,而是治理的问题。


甲小姐:《IBM转型指数:云现状》报告显示,80%对企业数字化转型有决策力的高管已经考虑或正在考虑将企业已经部署到公有云上的工作负载迁回私有的基础设施。


谭待:IBM是私有云企业,他们有很强的立场这么说,但如果80%的企业都这么做,为什么全球云市场每年还在增长呢?


甲小姐:现在全球云市场每年增长的可靠数字是多少?


谭待:你可以查下AWS和阿里云公开的财报数据,再结合底层设备厂商的财报数据,根据每年芯片的出货量,就可以估算出云在整体IT支出中的占比是增长还是下降。趋势肯定是在上云,你也可以问问豆包APP,看它是否能回答这个问题(笑)。

于是我们就查了一下(甲子光年向豆包提问页面截图)

甲小姐:大模型会让这个数字更高还是更低?


谭待:IT支出的一个大头在研发上,企业总能找到合适的人去做定制化开发,比SaaS做得更好。大模型出现之后,定制化开发还是需要人来做,只不过由AI辅助人来完成。这种辅助过程本身就在消耗云,长期来看这是一个非常大的利好。


8.用户规模vs服务器规模


“我不用做短期投资换收入、资源互换的事情。”


甲小姐:你们会看Transformer、Scaling Law等技术范式的趋势变化吗?


谭待:肯定要看,但这个事情不需要火山来讲。


甲小姐:你们会为未来可能诞生的新架构做一些准备吗?


谭待:这不是火山准备的,是豆包模型团队准备的。


甲小姐:那火山怎么思考?


谭待:回到我之前说的,看模型能力有没有达到上限。我们认为现在在模型架构不变的情况下,假设算力和数据各提升10倍,还会有很大的机会。


甲小姐:某种意义上你就是在跟某个大势中的最确定性的东西为伍,不确定的事情交给别人干?


谭待:肯定要干自己最擅长的事情,我肯定不是模型专家,那我怎么去做这个判断?你只能找到有判断力的人合作。比如说云怎么做好,或者MaaS怎么做好,我们都很有判断力,就把这个事做好。


甲小姐:有豆包这样的兄弟团队,火山还是挺幸福的?


谭待:术业有专攻嘛。


甲小姐:在你们最有判断力的云计算领域本身,你们看到的最新需要解决的问题是什么?


谭待:规模优势、无服务器化、数据驱动,和大模型能力的提升。


首先,云计算最重要的是充分发挥规模优势,以降低成本。云计算和应用要把弹性用好,比如负载共享,为了实现这一点,我们需要解决异构算力调度、容器化和虚拟机融合等问题。


同时,云原生不只是容器化,更多还在无服务器化(Serverless)。当更多人在上层使用,无服务器化就能帮助系统把底层的弹性用好。我们需要把计算、数仓、数据湖、推理等步骤都按照无服务器化的标准改造。


以及,云上积累了那么多数据,怎么通过数据驱动业务更好发展也很关键。基于此,我们提出了数据飞轮,重点聚焦“数据消费”,用AB测试、敏捷BI、数仓等工具降低延迟、变革数据驱动的范式。


最后,为了让AI大模型能更好地被使用,我们需要在MaaS层面做到最好模型、最低成本和最易落地。


甲小姐:有一种声音说,大模型厂商本质上还是云计算巨头的代理人,像阿里把几乎所有大模型独角兽都投了。你怎么看这个观点?


谭待:没有代理人,你也可以换个说法,说云厂商替大模型厂商打工。


AI是非常重要的事情,未来最好的云厂商会拥有最强的AI模型。云厂商不管你是自己拥有AI模型还是有一个伙伴,至少你们关系得非常亲密,AI肯定不是代理人角色。


甲小姐:用户-产品-模型-云计算-投资,这五个维度上,可能小公司在做小闭环,大公司在做大闭环。为什么要做这么长链路的闭环?


谭待:大家做云计算不是因为AI,而是本来就做云计算。就像火山,也不是因为有了AI我们才开始做的。为什么大的公司要做云计算呢?除了赛道很好,还有就是如果大的科技公司保持科技领先,需要把企业服务和云计算做好。云计算是技术的集大成者,你需要在开放市场锻炼技术,才能保持技术领先。很典型的例子是Google,十几年前Google的技术是最领先的,但现在做云、做AI做得最好的都不是Google。


同时,因为大模型这个事情需要进行算力和规模的消耗,云厂商做这个事情是有优势的。


甲小姐:你觉得目前大模型企业的商业化是个问题吗?


谭待:对所有公司来说,最重要的问题就是把模型做好。创业公司可能是想通过商业化更好地融资,长期来看可能商业化不是一个难题,关键是能不能活到那个时候。太阳肯定是会升起的,但能不能看到明天的太阳是问题。


甲小姐:但你说的需求还在数字化转型范畴,它是数字化转型的延伸,而不是开辟一个全新的场景?


谭待:数字化的市场已经足够大,是可以用GDP占比来算的。


甲小姐:即便没有这波AI原生超级产品,B端的供给侧改革、降本增效这件事情已经足够大了?


谭待:云本身就是足够大的,即使没有AI,云计算本身就足够大了,只是AI会让云更大。


甲小姐:云厂商负责人好像都在找那些突然窜起来的流量,或者新的增长点,但在你看来这是一件不言自明的事情?


谭待:实践中你肯定是要不断去找的,我们每周也会聊收入怎么提升。关键在于你要有规模,这个也是火山的优势,因为它能把抖音的规模用起来。


甲小姐:这个规模指的是?


谭待:服务器规模。只有规模够大,弹性和资源调度才能发挥出来。规模大,成本低,客户多,才有竞争力。我们现在的服务器规模在中国优势很大,这样我就很放心,慢慢追就好了。我们战略比较稳定也是这个原因,我不用做短期投资换收入、资源互换的事情,只要发挥资源优势,在产品、技术上发挥到极致,重要的客户好好服务即可。


甲小姐:火山引擎的服务器规模在全国优势很大是因为字节做了很多产品吗?


谭待:是因为抖音很大。但核心都一样,比如为什么火山在AI方面多做了很多事情,也是因为我体量够大,这样做一些投资就没什么顾忌。比如,做预算时我会跟大家讲不用担心,不用怕卖不出去,过一年卖不出去的话内部也能用起来,哪怕是亏一点钱呢。


甲小姐:所以说你很幸福。


谭待:是的,但是你一开始就要认识到这一点。我们前几年也很痛苦,如果你没有把这个事儿想清楚,你会想“我是不是应该短期赶快做点收入”?当然不是说收入不重要,收入肯定是核心目标,收入不大产品肯定做不好,规模优势也发挥不出来。但是关键在于,收入是怎么来的?如果是通过把规模优势发挥到极致带来的,那没问题;如果是靠短期补贴带来的,那会没有底气。到时候有的公司可能就要转型,不一定是解散,可能转型做私有云好了。


甲小姐:怎么判断你的收入来源是否健康?


谭待:一个标准——你的收入确实是你长期的竞争力所带来的。



  • 38430
  • 219
  • 245
  • 0
评论