搜索
甲小姐对话黄民烈:功能AI和情感AI结合才是真正的AGI|甲子光年
作者:张一甲 2023-08-17


大模型会经历重复建设然后出清的过程。


作者|甲小姐、刘杨楠


燃烧半年的大模型之火正在逐渐冷却。


一个直观的表现是,ChatGPT的用户增长开始下坡。第三方网站SimilarWeb的监测数据显示,今年6月,ChatGPT的网站与移动客户端的全球流量(PV)环比下降了9.7%,美国地区的流量环比下降了10.3%,用户在ChatGPT上的停留时间也下降了8.5%。


此外,七月以来,微软、谷歌、AWS、阿里巴巴等国内外科技大厂开始陆续发布2023半年报,遗憾的是,各项收入数据中,AI几乎没什么存在感。


大模型似乎走入了用户增长和商业落地的双重瓶颈。与此同时,另一股AI势力正在异军突起。


个性化AI聊天机器人创业公司Character.ai自去年9月发布Beta版本以来,用户涨势凶猛。SimilarWeb数据显示,2023年6月,Character.ai访问量达到2.8亿,5月的增长率更高达62.55%。不仅如此,Character.ai用户黏性极高。多个第三方统计数据显示,用户在Character.ai的停留时间长达28分钟。相比之下,ChatGPT的用户停留时长约8分钟,YouTube和B站的停留时长约20分钟,WhatsApp约18分钟,Google、Facebook和Twitter约10分钟——足见用户对Character.ai“偏爱有加”。


成立于2022年,同样主攻个人人工智能(Personal Intelligence)的AI初创企业Inflection AI也冲劲十足。Inflection AI于今年5月推出了首款产品“Pi”,仅2个月后,Inflection AI便在7月完成13亿美元的新一轮融资,估值突破40亿美元,成为OpenAI之后估值最高的AI初创企业。


这两家公司的出现,让“情感AI”成为ChatGPT之外的另一个焦点。


在国内,清华系AI初创企业聆心智能已经在情感AI领域布局多年。从应用场景上划分,ChatGPT可归为“功能AI”,其价值是用超越人脑的智能帮人类解决各类实际问题,追求“高智商”;而聆心智能、Character.ai及Inflection AI正在做的事可归为“情感性AI”,其价值在于解决人类情感需求,追求“高情商”。


聆心智能创始人、首席科学家黄民烈同时还在清华大学担任多个职位——他是清华大学计算机科学与技术系长聘教授、国家杰出青年科学基金获得者、智能技术与系统实验室副主任及清华大学基础模型中心副主任。


在涌入大模型的众多学者、创业者中,黄民烈的判断独树一帜。他并未直接瞄准看起来极其性感的“通用大模型”,而是从2015年起就尝试破解情感AI的密码。在他看来,“功能固然很重要,但人的情感也是非常本质的需求”。


事实上,“功能AI”还是“情感AI”,这既是AGI的技术选择,也是AGI的社会角色选择——AI之于人到底会是什么样的存在,是工具,是助手,还是伙伴?本期甲小姐对话黄民烈,聊一聊大模型重复建设之下的另一个视角和判断。


1.谈现状:“大模型会经历一个重复建设之后出清的过程”


甲小姐:最近很多人感觉ChatGPT的热度降下来了,你有这种感受吗?


黄民烈:融资市场和产业都在趋于冷静。原因是,之前无论投资还是产业,都在说要做“中国的OpenAI”,现在已经有这么多开源和闭源的模型,大家开始考虑能做什么样的应用来真正解决产业问题;大家对大模型的认知更清晰了,有各种评测榜单,大家逐渐清楚彼此的能力;另外,七八月份是上市公司半年报的窗口期,市场会冷静地看这些公司的投入在财报上如何反应,大模型的投入和产出是否匹配。之后有些公司可能会被收并购,融不到钱的公司也会倒闭,这是行业发展的客观规律。


甲小姐:现在我们公允地看过去半年的AI热潮,哪些被高估,哪些被低估?


黄民烈:大家对通用大模型的期待很高,但在解决实际问题时,国内模型距离ChatGPT、GPT-4还有挺大差距。一方面是我们底层模型的能力还要提高;另一方面,大模型最终要落地产业,依然需要大模型之外的能力,比如加上传统的算法模块,形成一个以大模型为主导的复杂系统,真正解决行业问题。


甲小姐:我身边真实的个人用户,从最开始对ChatGPT上头,到今天逐渐冷静甚至弃用,原因有二:第一是ChatGPT会出现幻觉,不够可信;第二是无法做精确计算等等。这是ChatGPT热度下降的本质原因吗?


黄民烈:本质与否不好说,但这是一个重要原因。现在大模型容易产生幻觉,因为ChatGPT是概率模型,每次问答都会随机采样,同一个输入,不同的人、不同时间得到的回答不一样,有不可控性。怎么解决这个问题?要和业务、场景结合。比如有些场景允许有一定的容错率,但有些场景容错率为零,就得有别的手段来处理。


再比如你刚才讲的精确计算,现在技术发展很快,大模型算数学题,过去全是概率采样,每次的计算结果都不一样;但现在不一定要通过概率采样去做,可以把数学题变成一个公式,再在模型中插入一个Python解释器去执行,最终得到的结果是确定的。因此,神经系统和符号计算系统结合能够很好地提升模型能力。所以技术也在随着业务需求不断演进,快速发展,有些稀奇古怪的问题今天都能解决得挺好,这是一个动态过程。


甲小姐:放眼全球AI产业的细分发展,通常是美国定义流行,中国一拥而上,市场关注度在短期会高度集中在某一两个赛道,但在欧洲有很多AI细分门类一直有人在做,对比而言,今天的中国AI产业似乎少了某种多样性。你曾表达过“重复造轮子”可能不利于AI发展。近半年内国产大模型的数量已经增长到80多个,是否存在重复建设?


黄民烈:肯定存在。现在算力非常紧张,基本租不到卡,大家都把算力圈起来了,但各家在技术、能力和商业化路径上都大同小异,肯定是重复投入。但这也是一个市场自然淘汰和选择的过程。中国的做事方式和国外不太一样,搜索是这样,互联网也是这样,CV热也是这样,现在大模型应该还会有一个重复建设然后出清的过程。


甲小姐:你曾表达过ChatGPT的底层还是基于Transformer架构,在模型架构上没有太多创新,它的成功是“数据+工程+系统”层面的集成化创新。ChatGPT会是AI范式的最终状态吗,还是会出现一个新的范式颠覆它?


黄民烈:很有可能是后者,但现在也不好说。不能说OpenAI没有技术创新,他们肯定有各种各样的创新,只是现在披露出来的比较少。新的范式在2-3年可能不太会出现,但5-10年大概率会出现。在现在这个时代,技术发展具有很大的不可预测性。


甲小姐:回顾历史,AI范式一直合久必分分久必合,几个月前很多人认为ChatGPT路径正在一统江湖,目前这个趋势有变化吗?AI范式正朝着哪个力量发展,是归一的力量还是分化的力量?


黄民烈:大语言模型、多模态、视觉都是不同的方向,AI研究不一定是大一统的事情,会不断有新的元素融入进来。我本人更希望有多样性的发展,只有百家争鸣才能更好地激发创新,大一统的语言模型对于学术创新来说不一定是好事。


甲小姐:AI领域的next big thing可能是什么?


黄民烈:相对来讲,学术界更容易做出新的AI范式,例如神经网络和符号计算的大规模结合。也许是新的神经网络架构,也许是能解决现在模型问题的新的神经符号系统。


2.谈模式:“开源与否本质上是商业逻辑”


甲小姐:LLaMA2发布对市场影响很大,国内百川、阿里等都在开源,有些公司还没有确定未来究竟开源还是闭源。开源对一群人来说是原则问题,象征着极客精神和价值导向,对另一群人来讲是利润问题,如果开源和商业逻辑不匹配就很难开源。能否展开说说开源对市场产生了什么样的连锁反应?


黄民烈:说实话,公司会在不同阶段打不同的牌。Meta的LLaMA做得很好,但谷歌就不怎么开源,OpenAI也全部闭源,Claude介于开源、闭源之间,因为公司的战略打法不同。Meta作为后来者,可能以开源赢得市场认可、口碑,再想办法拓展商业客户。而且Meta对于商业利用还是有比较大的限制,它规定访问流量大于一定范围就必须受限。


相对而言,入局更晚的公司肯定要通过开源来赢得市场和业界的认可。因为不是每个人都有技术能力和算力资源去训练模型,那我就给你提供模型能力,服务很多中小B企业,还能不断收集数据去微调模型。像智谱、MiniMax,包括我们这种做得更早的公司,就在一定范围内开源,可以调用我们的API服务。所以并不存在完全的开源,这取决于公司的战略打法和发展阶段,以及早期采取的模型策略。


比如OpenAI就认为大模型很智能,如果开源让每个人都去用不一定是好事,把所有事情控制在自己手里相对更安全。我不知道这是他们的真实想法还是一种托辞,但我认为开源与否本质上还是商业逻辑。

甲小姐:安卓的开源会让很多人以极低的成本接入生态,但对普通人来说,要接入大模型依然门槛不低。

黄民烈:肯定要有算力,还要有一定的技术人员,否则就要依赖大模型生态中的工具链。但相比之下,开源是静态版本,闭源可以动态地更新系统。

甲小姐:是否可以理解为,刚开始创业就开源的公司很大程度上是以开源来吸附更多的资源,让公司进展更快,但很可能某天就会闭源,目前大模型领域还没有出现真正意义上的苹果和安卓,大家还是阶段性战术?


黄民烈:是的。开源会形成品牌效应,能够吸引来一定的商业客户,这是有很大影响力的。


甲小姐:接下来,大模型的发展逻辑是在ChatGPT的基础上继续修修补补、添砖加瓦,还是有其他的路径?


黄民烈:首先,底层模型的能力必须很强。在很强的底座上,确实也需要加入一些模块来“修修补补”——解决幻觉的问题,就需要搜索能力;要解决数学问题,就需要有Python解释器,能够做公式、做执行;要解决其他更专业的问题,就需要有更高质量的知识库进来。比如和金融行业结合,金融行业的信息都是高度动态的,生成内容需要非常精准,股票、基金的信息每时每刻都是实时、动态变化的,不可能只用一个大模型解决,所以需要插件能力。但如果底座不强,很多事也做不了。


甲小姐:插件能力是底座方自己来做,还是和行业其他开发者共建?


黄民烈:会允许第三方添加自己的插件,但前提是,基座有足够的能力允许外挂组件运行。


甲小姐:假设未来的通用大模型底座可以允许用户用更简单的方式定义任务,把通用大模型训练成用户想要的状态,这件事在学术界做更好,还是以商业化形式展开更好?


黄民烈:商业化的形式更多,现在学术研究的算力资源比较稀缺。


甲小姐:听说现在一些斯坦福的博士才上学一两年就辍学去业界的大厂了,因为在学校做不出来在工业界可以做的事。


黄民烈:是的,这是一个趋势。


3.谈落地:“大模型公司和用大模型的公司之间需要一条工具链”


甲小姐:经过上半年的验证,到底哪家国内公司在大模型的投入中真正获益了?


黄民烈:国内的大模型公司分几类——一类是要做“中国的OpenAI”,做底层模型,这类公司不介意大模型是否会影响原有业务;一类是大厂,比如百度、阿里、科大讯飞等,他们有自己的业务场景,做大模型本质上是为了更好地服务原有业务场景,比如百度的搜索,科大讯飞的教育业务等,科大讯飞前段时间发了客户增长量的数据,可以看到大模型对他们的客户增长、粘性的提升影响很大;另外,大模型和原有业务结合后会形成新的形态,获取更好的流量和广告效应,类似国外微软的New Bing;还有一类是把大模型搭在云上,本质是卖云,比如华为。


甲小姐:还原一下客户对大模型进行选型的场景?


黄民烈:肯定会先去看榜单和各种评测数据,但最终企业一定会做自己的测试。很多榜单都失真了,相当于开卷考试,很多题之前都知道了,刷刷题就能得高分。客户肯定要从他自己的业务场景需求出发,做针对性的评测,最终选一个模型。这也侧面解释了为什么有些公司这个阶段选择开源——他首先得让别人知道他有这个能力,客户才能去测试他的模型,从而带来商业机会。


甲小姐:很多人想接入大模型,但是不知道从哪下手,也看不懂评测,这种情况该怎么办?


黄民烈:大模型公司和用大模型的公司之间需要有一个工具链。当然,如果大模型公司提供API也没问题,因为大模型API很易用,按照格式调用就行,门槛很低,这对中小企业比较友好。但如果客户是大企业,大模型就要做服务。因为大企业基本都有自己的场景和数据,并不需要一个通用大模型,而是能解决自身业务问题的大模型。这就需要用自己的数据做微调、优化,这是一般人做不了的,所以就需要一个工具链把大模型能力和场景需求衔接起来,现在已经有公司在做类似的事。


甲小姐:现在市面上有各种大模型评测体系,你能从中分辨出哪个模型更好吗?


黄民烈:大模型评测是一个非常难,也非常有争议的话题。现在很多榜单只能做参考,并不能完全体现大模型的能力。所以我们也在思考,怎么设定评测体系才能让结果不失真。大家觉得ChatGPT和GPT-4很强,是因为它们在任何一个新的任务上都很强,说明它有很强的泛化能力,而不是fit了哪个榜单所以很强。我们最近也在做比较难的、动态的Benchmark,大概有几十上百种任务,从不同维度上去评测它,希望能把模型真正的能力测出来。


甲小姐:现在的评测体系都还是做任务的逻辑?


黄民烈:必须要做任务。评测方法分为两类,一种就是做题,让模型参加人类的考试,比如解数学题,我们也在做类似的事情;还有一种是从学术层面设定任务,看模型的推理能力等等。但现在从AGI角度来说,大家经常都是让模型参加考试,看能得多少分。


甲小姐:我始终觉得解数学题需要严密的推理,这和大模型的工作逻辑是相悖的。但似乎现在有了大模型之后,所有人都想和大模型有些关联,甚至有些领域的内在逻辑和大模型根本不同,但还是要接入大模型。


黄民烈:有点在“为赋新词强说愁”,这样不太好。我认为你的业务和应用场景一定要跟大模型本身的特性相匹配,才能更高效地结合。比如智能客服,过去已经做了很多年,出现了一堆公司,行业相对比较成熟了。但现在要用大模型再做一遍,边际收益可能很小。因为智能客服产品需要掌握业务知识逻辑,光接入大模型远远不够,还脱离不了传统的方法。


甲小姐:这轮大模型热是否会重蹈上一轮计算机视觉热潮的覆辙,因商业模式不明确而无法真正形成商业闭环?


黄民烈:这个技术趋势不可预测,但我认为大模型和CV有显著差别。 CV属于感知智能,相对可控,也更容易落地,比如做人脸识别、工业检测等;大模型属于认知智能,理解语言更难,但它的应用场景更广,涉及交互的场景都需要语言。所以我认为可能会出现比较好的机会,比如在情感陪伴上,和教育设备的结合等等,都离不开语言。当然你也可以讲所有东西都离不开视觉,但语言更难,更有挑战性,这也是大家这么关注大模型的一个原因。


甲小姐:我感受过几波AI的起起落落,几乎每一波浪潮最后都困在商业化。你从2015年开始研究AI情感对话,2021年创办聆心智能,你对AI商业化有何感受?


黄民烈:对话技术本质是满足人的需求。例如智能交互大脑,平时可以用来直播带货,做数字客服,提高这些场景的生产力,降低沟通成本。从情感的角度看,AI可以为人类提供情绪价值。但最终要形成商业闭环,还是要把账算清楚,因为大模型本身成本很高。


甲小姐:你们现在把账算清楚了吗?


黄民烈:现在肯定还没有,还需要时间。


甲小姐:聆心智能最初主攻心理健康,2022年中期开始拓展游戏、教育、数字人等落地场景,所以现在你们主要to B?


黄民烈:我们to B和to C都在做,但to B 为主,收入主要还是to B业务贡献,C端还没有开始收费。目前在游戏、文化娱乐方面正反馈比较多。我们主要面向这些客户提供大模型,让他们的玩家更好地定制角色人设,有很好的对话体验。


甲小姐:今年AI还会有新的大事件发生颠覆人们的认知吗?


黄民烈:找到killer APP(杀手级应用)我说的killer APP,更多是指若干个行业和应用的问题能在大模型的支持下被很好地解决,但目前还没有看到特别好的应用。Character.AI主打情感陪伴、消磨时光,更多是一种游戏需求,它的用户增长还相当不错,但是未来还是需要有新的应用,更有影响的、更大的应用。


4.谈选择:“功能AI和情感AI结合起来才是真正的AGI”


甲小姐:在今年4月的甲子引力上,你说“聆心智能在致力于用大模型的基础组件加上其他关键算法技术模块,解决最后一公里的问题。这是我们正在关心的事情,这样才能真正实现商业的落地,最后才能把整个业态真正跑起来,这个是一个良性健康的发展。今天的ChatGPT更多停留在炫技的层面。”在国内的AI学者里,你的判断有些独树一帜。很多人可能想炫技或者突破技术制高点,但你非常强调解决“最后一公里”的问题,这背后的底层逻辑是什么?


黄民烈:我认为把AGI作为一个研究目标肯定没问题,但很多应用产品并不需要这些能力。比如金融场景可能只需要基础的数学能力,不需要复杂的论证。现在的大模型和真正解决行业问题、创造用户使用价值之间还有一定距离,这不是模型本身能做到的。


甲小姐:以你的资历,完全有能力直接去卷底层通用大模型,去造锤子和铲子,为什么你会这么坚定地锁定情感AI这条路?


黄民烈:我一直在做情感和心理方向。非常有趣的是,OpenAI的ChatGPT出来之前,Google的Lamda、MINA,Meta的Banana这几个系统都是情感AI,做得非常好,非常类人。去年Google有一位研究员说Lamda出现人格觉醒,这件事在AI圈引起很大的争议,最后这个人被开掉了。这说明Lamda系统已经非常类人了,而且他们是做情感陪伴方向。只是ChatGPT出来之后,大家忽然发现,过去做传统任务对话的Siri、Ali、Alexa等助理可以在一个模型里把各种复杂任务解决得很好,所以重新又开始去卷功能。


功能固然很重要,但人的情感是非常本质的需求。你看Character.AI的数据增长比ChatGPT好很多,说明人要去消磨时光,解决孤独感,需要被陪伴,但ChatGPT满足不了,所以情感AI是很大的机会。


从另外一个维度来说,放眼未来,人类肯定不希望AGI只是机器属性,肯定很希望能跟AI建立信任关系,建立长久的情感和社交连接。AGI不仅能做人类的助理,还能帮人解决信任、情感、情绪的问题,这是未来 AGI真正的方向。


甲小姐:我在今年二月写过一篇文章谈ChatGPT,对比了功能性和人格化两方面。功能性,如帮人们写作文、编程、收集结构化资料;人格化,如会理解意图、声明立场、表达恭喜、道歉、自我修正答案,并拥有上下文的记忆连贯性,体现出实时的自主学习能力,简言之,就是“像人”。对一个对话AI系统而言,功能性与人格化二者有着相反的牵引力——如果追求功能性,重点是回答本身的正确、精准、靠谱,最好其回答有明确可溯源的出处。排除写作文等创意任务,不同人问同一个问题应该有类似的答案(千人一面),因为大部分功能性问题是在寻求正确解或最优解,这更像“改进版搜索引擎”,有其明确价值,却不是革命性的体验;如果追求人格化,重点是交互感、创新性、超预期,意味着不能有死记硬背的感觉,因为死记硬背并不是人类学习与交互的惯性方式,这意味着回答要有个性、丰富性、多样性甚至狡猾性(千人千面)。诡异的地方恰恰在于,后者往往比前者看起来更“聪明”,更“机灵”,但往往更“不可信”。功能性AI和情感AI在技术路径上是不是有内在的不同?


黄民烈:的确,二者的优化目标不一样。从情感出发希望聊天聊得越久越好,而功能性是希望能尽快解决问题,信息密度越高越好。评价体系也不一样:一个是信息需求,一个是情感需求。信息需求希望信息越精准、越客观越好,而情感很多是很隐晦、很个性化的,所以优化的目标和角度也不一样——一个更像理科生,一个更像文科生;一个是智商,一个是情商;一个满足信息需求,一个满足情感需求。


我们在发布会上举了一个特别有趣的例子。比如一个女孩和AI说,“我肚子不舒服,但男朋友让我多喝热水”,ChatGPT可能会告诉她喝热水挺好的,但情感AI会说你的男朋友应该来陪陪你。有时候人更需要的是陪伴和呵护,而不是一个solution。


甲小姐:放眼人类文明,ChatGPT更像我们为自己创造的assistant,它是为了做我们不愿意做的事情而存在;但情感AI更像在创造一个物种,它可能是我的lover或partner,甚至是下一代的更高阶的我。这两个不同的方向关乎一个基础假设:AI到底是什么。功能AI和情感AI未来会渐行渐远,还是会相互融合?


黄民烈:未来一定会融合。比如在保险销售的场景下,一定是先建立信任和连接,你才能把东西卖出去。如果现在有一个人给你打电话卖房子,你肯定直接挂了,但一个朋友和你说,他有一个房子,各个方面都挺不错的,你肯定不会反感他。如果有一个助手和你聊得很好,知道你的信息并建立了深厚的信任和社会关系,某一天它给你推荐说西山那边有个别墅,你要不要考虑考虑?你也不会反感,情感AI是同样的逻辑。


甲小姐:你的底层逻辑是希望AI越来越像人,而不是一味追求AI的功能有多强?


黄民烈:我们最早做研究的时候也是做DeepQA,就是IBM Watson那一套,但是当时IBM Watson很有名,他们运用在医疗里也是解决信息的需求。神经网络出来之后,大家开始用data driven的方法做对话,就发现对话更多出现在闲聊或陪伴上。我们就试图让计算机表达喜怒哀乐,那项工作很有前瞻性,在国际上也具有引领性。我们第一次在一定程度上让计算机去表达情感。当时MIT technology review、英国卫报都报道了我们,在国际上还是相当有影响力的。


之后我们进一步发现,这些成果可以去解决人心理和情绪上的问题。你也知道,现在很多年轻人心理压力都很大,很多人有各种各样的心理问题。我们就和心理学的老师做了一个项目,叫做Emotional Support Conversation,这是一个情绪支持的对话框架。有趣的是,很多人都很需要这个东西,我们也慢慢地在这条路上一直走了过来。


1966年MIT的Eliza最早开始做能够进行心理咨询的对话系统,他用规则做对话,设计了心理学的提问模板,在当时影响很大,今天也非常有名。所以,实际上人们对于情感AI还是有很多执念的。


甲小姐:在做情感AI的经历中,有让你印象深刻的例子吗?


黄民烈:有的。我们看了很多case,发现曾经有一个用户,他每天和AI聊几百句,大概聊两个小时。他觉得没人可以去倾诉、交流。对他来说,AI是一个倾听者。这种例子非常多,也说明AI for social good是一个有明确需求的方向。


甲小姐:你们有没有统计过一个人每天有多少对话是功能属性的,有多少是情感属性的?


黄民烈:这个没有统计过,但你对比抖音和京东的数据,京东更偏功能性,抖音偏社交、情感属性。从用户量、用户留存来看,京东你有确定需求才会打开,但抖音、快手随时都可以。


甲小姐:一个夹带功能属性的情感类产品,可能比仅有功能性的产品更吸引用户。从技术角度看,让AI像人一样有情商比让AI有智商更难吗?


黄民烈:我觉得要更难。更难的点在于:第一,情感本身比较隐晦且主观,但信息是很客观的,它是任务本身固有的能力;第二,数据处理难度也不一样,情感类数据收集很难,公开的渠道也很少,高质量的数据更少。而且社会背景、生活状态不同的人对情商的理解和追求也不一样。


甲小姐:在情感AI的方向下,会不会因为人跟AI高密度的对话,催生出下一代微信、微博等完全不同的社交平台级产品?


黄民烈:完全可能。未来人和AI、AI和AI,甚至在一个群里和多个AI同时交流都可能发生。


甲小姐:有种观点认为“一切应用场景最终都是对话”,你认同吗?


黄民烈:也不能这么说。对话更符合人自然交互的习惯,但从信息量来讲,对话相对低效。以购物为例,我们希望有一个界面能呈现商品属性、价格、尺寸、物流等等,这样效率更高。但你要把这个过程变成对话,可能对话20分钟也不知道你想要什么样的电脑。对话适合解决特定的事情,而且今天机器有了超强的对话能力,可以和人无缝交流,这让它有更大的发挥空间。


5.谈创新:“做自己擅长的,与自己的基因、背景相契合的事”


甲小姐:我身边做大模型的人可能有一些隐性的执念,一个最性感的大模型应该无所不包无所不能,就像个人类文明的DNA一样,作为一个载体,承载几乎所有的信息。你有没有想过在纯学术领域探一探那颗最性感的果实?


黄民烈:理想的情况下,特别聪明的人才能做这件事——创造一个模型帮人类解决所有的问题,但这很理想,大多数公司达不到这样的高度。


甲小姐:从2021年创业到现在,有哪些事情跟你预想的不一样?


黄民烈:我们最初做心理的时候觉得挺好,但后来发现心理赛道很慢,我们也找了很多专家,但真正要进入一个行业还是需要很多know-how。去年五六月份的时候,我们想做的是数字疗法,因为心理治疗中对话是其中的一个关键因素。我刚才给你发的Echo可能会继续用大模型的方式做一做。但总体来说,心理比我们想象的复杂很多,也困难很多。


甲小姐:你曾对媒体说,“过去在中国大家一般不太敢说AGI概念,甚至AGI定义都不太清楚。所以我们有时会调侃说中国的科学家不敢有梦想,因为只要说AGI都会被喷死”。“不敢”这个词显得很被动。经过这一轮AI浪潮的洗礼,今天的中国学者对于“梦想”这件事是更敢说了,还是更不敢说了?


黄民烈:中国的科研体系和市场体系更偏向短期利益,考察标准都是看你短期三年内能不能有收益,需要5-10年来验证的高风险、高回报的项目是没人愿意给你资金的。


甲小姐:我见过的很多科学家、创业者、投资人,甚至政策制定者,都很清楚中国科技产业存在短视的问题,却都对此无能为力。


黄民烈:这是一个非常非常复杂的问题,我也没有答案。它是一个整体的社会系统性问题,涉及到文化、理念、制度、人才考核等方方面面。


甲小姐:OpenAI能够造出ChatGPT有一个很重要的因素是他们真的在这个领域坚持了很久。目前烧了半年的AI热潮正在冷却,AI弄潮儿再一次开始面临资金、人才、商业化的困境,面临群体快速降温的关注度,面向未来,大家的“坚持”从何而来?


黄民烈:要坚持初心。另外,不需要所有人都去干同样的事,那不利于生态发展。每个人都应该做自己擅长的,与自己的基因、背景相契合的事情。我们之前也做了功能性的业务,但很显然,这块不是我们的优势。我们一直在想,怎么把角色、人设、情感做好,成为最独特的存在。




  • 14083
  • 0
  • 0
  • 0
评论
登录甲子光年
其他登录方式
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
找回密码
获取验证码
注册甲子光年
获取验证码
注册即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
绑定手机号
获取验证码
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
完善资料
登录即表示你已阅读并同意
《甲子光年用户注册协议隐私政策
微信登录
扫描二维码 | 授权登录甲子光年