您正在使用IE低版浏览器,为了您的雷峰网账号安全和更好的产品体验,强烈建议使用更快更安全的浏览器
此为临时链接,仅用于文章预览,将在时失效
业界 正文
发私信给何思思
发送

0

对话值得买科技CTO王云峰:大模型最大的掣肘不是算力、经费或场景,而是缺人丨AGI十人谈

本文作者: 何思思 2023-08-28 17:53
导语:钱可以解决算力,但很难解决人才短缺的问题

对话值得买科技CTO王云峰:大模型最大的掣肘不是算力、经费或场景,而是缺人丨AGI十人谈

作者丨何思思

编辑丨林觉民

从一个博客到一家集团型公司,值得买科技已走过了13年的时间。

2010年,秉持着为中国消费者推荐优质商品和服务的初心,值得买科技创始人、董事长隋国栋搭建了自己的个人博客,在博客快速发展的过程中,隋国栋深刻地感受到仅凭一己之力很难满足消费者的差异化需求,因此隋国栋选择扩张团队,“什么值得买”也由一个博客发展成一个平台,并培养了一批专业的消费编辑团队。

而后面对内容重塑消费产业格局的大背景,值得买科技在保障“什么值得买”主营业务正常运行的情况下,开始探索多种创新业务,最终形成了“消费内容+营销服务+消费数据”的多元业务格局,由单一业务成为了拥有多元业务的科技集团。

回首过往13年,值得买科技的业务在不断扩大,但不变的是其使命和愿景,即让每一次消费产生幸福感,和成为全球最懂消费的科技公司,创造消费信息自由流动的美好世界。

如今,进入大模型时代,一向以“科技驱动消费进步”作为slogan的值得买科技,也选择积极拥抱这项新技术。其实谈到AI,早在2017年其主营业务“什么值得买”就开始尝试通过算法和机器的方式生产内容,2022年,此类内容的占比已高达20.31%。

“值得买有消费内容、营销服务、消费数据三大核心业务,对我们而言,大模型对业务的挑战是很大的。现在业界有一个说法:未来互联网上百分之90%的内容是由AI生成的。”谈到大模型给公司业务带来的冲击时,值得买科技CTO王云峰如是说。

雷峰网了解到,为了应对此次冲击,值得买今年年初从原来的各Team中抽调出一部分人,成立了AI Lab团队,并率先开展了内容应用层面的研究。据王云峰透露,值得买在文、图、短视频、直播领域都在推进产品的开发,相应的应用也会陆续开始面对消费者和客户。

谈及为何这么做?

王云峰表示,一项新技术的出现会伴有大量的不确定性因素,这个不确定性是需要通过预研的方式消弭的,也就是说一个新东西到来,你不知道谁比谁的好,也不知道最终应用的路径是什么样的,这时就需要有专门的资源做对应的研究和尝试。

据王云峰介绍,在模型训练层,值得买已经在60亿参数的模型基座上完成了全参数的Post-Training,正在130亿参数的模型基座上开展全参数的训练;应用层面,则主要围绕多模态的内容识别和生成、智能的用户画像和推荐、智能的营销策略三个方向开展研究。

“其实对于大模型而言,相比算力、经费和场景,更缺的是人才”王云峰补充道。

对此,雷峰网还了解到,为了解决人才短缺的问题,除了抽调原Team内的成员外,值得买还积极和国内高等院校和创业公司展开合作。

以下是雷峰网和王云峰的对话:

AI概念早就有,大模型不是万能的,还不能解决垂类问题

雷峰网:大模型今年一下就在国内火了?速度还是很惊人的。

王云峰:其实AI不是一个新概念了,AI技术的发展已经有60多年,GPT也可以叫做生成式AI——AIGC,算是一个相对新的概念。

雷峰网:那GPT和之前的AI有什么不同?

王云峰:之前AI的功能是classification的概念更多一点,当然它也是AI的一部分,但更倾向于识别领域,新的AI技术其实更多的是生成式AI。

例如之前的MGC,即机器生成内容,机器生成也会用到大量的AI技术,主要是做前期的一些处理,但是它的生成过程不是靠AI,而是靠机器基于某些规则的方式来做。

去年年底国外的生成式AI确实给人们带来了一个很惊艳的感觉。最早的生成式AI走了两条不同的技术路线,以GPT为代表的这条技术线,去年年底真正“涌现”了出来。

雷峰网:其实现在人们对大模型还是非常看好的?

王云峰:对,现在大家更多的是把它当成一个很惊艳的东西看,认为它有无限的可能。实际上,还没有完全弄清这个东西最终的应用限制会在哪里。大模型通用的学习和适应能力还是很强的。

但是它也有一定的局限,比如我们和GPT或国内模型对话时,举个例子,比如问怎么挑选茶叶的问题,它只会泛泛的告诉你要注意什么?很多时候,输出的内容并没有能够真正帮助消费者去决策。

现实生活中,和卖茶叶的导购对话,他通常会很细致的回答你的问题,也会通过和你的对话来了解你的需求。但模型本身的特性,就意味着这个模型原始的语料是什么样的,学到的知识就是什么样的。这些知识它没有学过,所以有时候在某些领域的效果并不是很理想。

现在各种公众号喜欢举例的都是一些富有创造力、想象力的领域的东西,是那种说出来后没有所谓对错,看上去很新奇的内容,所以大模型可以很好地发挥,一旦落到非常垂直的领域,它的表现并不像其他领域那么理想。

雷峰网:为什么解决不了实际问题?毕竟很多人都认为大模型是万能的。

王云峰:单纯的用现有的模型来构建应用,就是既没有微调,也没有自己做进一步的预训练,用的都是别人的东西,但是因为它的参数很大,所以看上去很智能。

问题是某些垂直领域的原始知识,现有的大模型根本覆盖不到,所以没办法做很成型的应用,比如问一些行业的问题,可能输出的答案看着不错,但实际上会有错误。如果问它一些原始语料中不能覆盖的,且相对聚焦的问题,它的效果远没有预期的好。

雷峰网:那应该怎么解决?

王云峰:一种是在别家大模型的基础上做进一步的训练,相当于把自己服务的行业内的知识灌进去再做训练。我们知道大模型最开始是通过预训练的方式学习知识,然后通过微调的方式让它产生某种风格。这是一种做法。

蒸馏法训练垂类模型,应用层三条线齐头并进

雷峰网:大模型火了之后,值得买内部有哪些调整?

王云峰:我们成立了AI lab,其实成立AI lab 的核心原因在于,我们知道一项新技术的出现会伴有大量的不确定性因素,这个不确定性是需要通过预研的方式消弭。意思是一个新东西到来,你不知道谁比谁的好,也不知道这个东西最终应用的路径是什么样的,这时就需要有专门的资源做对应的研究。

所以今年年初我们从原来各team 里抽调出一部分人,成立了AI Lab这个新组织,目的是隔离资源,针对当下的新技术做预研,给出一个可使用的路径。

雷峰网:对大模型对业务的冲击,值得买有哪些应对措施?

王云峰:现在业界有一个说法:未来互联网上百分之90%的内容是由AI生成的。所以我们必须提前做好应对。其实从今年年初时候,我们就开始研究生成式 AI 方面的应用了。最开始是用Prompt的方式来用,就是我不对模型本身做额外训练,我只是告诉它用某种方式帮我总结这段话的意思,这段文字看上去像是人写的。在这种情况下,对原来的内容生产方式就有一个很大的冲击了,所以我们很早就在内容生产方面开始尝试了。

但是我们做的更深入一点,我们训练自己的模型。除了语言模型,有一些“多模态”的工作,比如直播的支持、短视频的生成工作,我们也都在做。应对措施就是拥抱它,赶紧投入力量来做,脚踏实地地做。

雷峰网:具体有哪几个项目?

王云峰:对于“多模态”的话,一是图生图的模型,包括图片批量生成,比如换背景图,换主图,其实都可以用自动生成的方式;我们内部搭了一个服务已经开始在用了。以及文生图的模型也在实际应用。

二是短视频脚本的生成。短视频脚本生成比较容易,然后就是短视频的自动生成;这个项目的难度要大一些,耗时也会更长。

三是直播数字人,月底数字人直播应该会先发一个内部的Demo。

雷峰网:为什么数字人直播难度大?对模型的要求高?

王云峰:数字人直播包含两个技术,一是形象,二是驱动。形象技术已经非常成熟了,难点在驱动方面。

在设计直播数字人时,你不可能让主播单纯地不停地说同一件事,直播间是要互动的,比如有人问你玉米口感怎么样?为什么这么贵?你是要回答问题的,有时候还有在直播间聊天的,你还要把他拉回来,这就要靠大脑驱动完成,这个大脑是要专门训练的。你不仅要了解产品,背后还要有一个对应的知识库做支撑,这个模型就是主播的大脑。

所以形象加上背后的大脑才是完整的数字人直播。形象基本是靠成熟的技术,也有很多供应商,后面的大脑就要自己训练了。

雷峰网(公众号:雷峰网):所以这三部分是在同时做?还是分步做?

王云峰:我们在同步做,因为每个产品的难度不一样,所以推出的顺序也不太一样。现在有些东西已经开始逐步露出了,下一步可能会把某些能力包装成独立的产品。

过段时间会放开评论区对话机器人,到时候可以和机器人直接对话,但是也需要灌大量的数据做训练,数据越多,效果就越好。

雷峰网:除应用层外,大模型方面有什么成果了吗?

王云峰:我们通过灌自己的数据、历史长文、历史攻略等做对应的训练动作,这个训练周期会比较长。因为是垂直领域,所以我们采用了蒸馏的方法。

雷峰网:选的哪家的大模型?

王云峰:像垂类模型的训练我们尝试了不少的方案,但在实际过程中发现基础模型对结果的影响确实很大。

国内用的是GLM6B开源的60亿参数的模型,冻结了一些层,训练出了自己的一个模型,用于垂类消费内容的生产。现在正在做的是基于百川发布的13B的模型做训练。

雷峰网:至于选哪家大模型,有评测标准吗?

王云峰:我们有一套标准的测试集,根据测试结果打分,然后再看整体分数。

雷峰网:没有尝试国外的模型吗?毕竟现在国外的水平要高于国内的。

王云峰:国内外的都用过,包括Meta开源的Llama系列都尝试过。但最终还是选了国内的,因为我们觉得中文支持这件事是非常重要的。

雷峰网:具体训练出来的参数量有多大?

王云峰:目前已经训练出了一个60亿参数的模型,正在训练130亿参数的模型。

算力可以用钱解决,人才是最大的难点

雷峰网:做模型训练包括应用层产品的研发,消耗的算力大吗?

王云峰:如果推理的话,类似3090的卡就能跑起来,训练的话,对卡的要求就比较高了。

雷峰网:算力是难点吗?好像现在大家都挺乐观的?

王云峰:对,我觉得算力问题会被逐步解决,但需要时间。其实算力分为两部分:一是训练,二是推理。推理用低端的卡能跑的动就行,训练的算力要求就很高了,但是从目前来看,我们自己储备的训练的算力还是比较理想的。

雷峰网:解决算力主要看芯片吗?还是?

王云峰:我觉得最大的问题不在于芯片,而是生态问题。从长远看,算力问题一定会被解决,只是在目前它仍旧是个问题。但是生态问题就比较复杂,比如英伟达的A100或者H100,它本身就有一套自己的开发包cuda,有完整的生态。国内虽然也有卡,但问题在于没有构建起完整的生态体系。

比如现在要在国内的卡上跑模型,是要做很多的所谓的“算子”的适配的。也就是说,想在N卡之外的卡上跑是要迁移的,且迁移成本还挺高的。我们现在也在和国内的合作伙伴,一起做国内的卡的适配。

雷峰网:对值得买来说算力消耗的不大,那主要困难是什么?

王云峰:主要是人力不够,为了弥齐人才短板,我们除了从各Team抽调外,还和大量的外部机构合作,比如和人民大学的高瓴人工智能学院一起在做多模态的工作。

因为现在大部分人不仅选择文字交互,还可能用图片、视频等交互方式。像消费领域,有很多内容也是用视频这样的方式来承载的,所以我们选择和人大合作,预计9月份第一版的模型结果会出来。

所以我们是通过两种途径补足AI Lab的能力,一是从各Team里抽调,二是和外部的创业公司或者高校实验室合作。

雷峰网:所以最大的挑战是人才?

王云峰:对,算力是能用钱解决的,但是人才问题不是用钱就能解决的了的。过了算力这关你会发现有算力也没用,因为想要拿到一个好的结果,这个过程应该怎么训练,用什么样的方式训练是需要人去选择的。

大模型的应用有几种方式:一是纯粹的Prompt的方式,二是在大模型基础上做训练,三是把大模型作为框架中的一部分,再加上自己的逻辑框架。

其实是有一些框架的,比如把大模型作为前面的交互入口,后面挂一个知识库,这个知识库不是纯粹的像MySQL一样的知识库,它可能是一个知识图谱、一个向量数据库、一个基于embedding 的数据等等。那你究竟用什么方式、怎么串联起来,才能克服幻觉的问题拿到好的结果,这些都不是算力能解决的问题,是需要人去做选择的。

比如我们做的对话机器人就有很多选择:第一种,直接和大模型对话,通过提示的方式,把问题给到大模型,但是这个过程中,你会发现大模型的输出能力是有限的,每秒钟也只能输出几十个TOKEN ,一次交互下来 30 秒出去了,用户肯定接受不了;

第二种,比如现在有一些对话框架的,就实际上它自身是一个框架,再外挂一个模型做识别,以保证交互的效率;

第三种,把模型本身做入口,然后做一个插件,通过这个插件返回外部的数据库拿到事实后再进行内容输出。

究竟哪种方式可以,哪种是未来的趋势和方向是需要思考和判断的。

雷峰网:也就是说大家还在试验阶段,还不清楚哪种方式更适合?

王云峰:对,这确实是个问题,或者说不同的场景下,用什么方式还没有范式。比如我们和合作伙伴沟通,有的建议先搭好大模型的框架,然后做插件,这样就可以利用大模型泛化的能力解决问题。但也有不同的意见,究竟哪个更好,现在谁也不知道,需要根据自己的实际情况判断,所以最后看的还是人才。

大模型市场越来越繁荣,是好事也是坏事

雷峰网:从年初到现在对大模型(GPT)有没有改观?

王云峰:能力越来越强,进化速度越来越快了。主要是工程能力和智能能力变化的非常快,每天都有新的东西出现,但是我觉得还在发展中,还没有完全定型。

雷峰网:随着大模型的火热,国内外做大模型的越来越多,您怎么看?

王云峰:是好事也是坏事,好事是有很多选择,坏事是选择实在太多了。

雷峰网:为什么这么说?

王云峰:我觉得国内大模型还处在早期阶段,还没有形成固定的格局。从服务能力上看,国内的模型,当下和ChatGPT还是有很大差距的,这是大家都承认且没办法的事情。另外,因为开源模型可以直接用,所以开源模型已经霸屏了,都在抢宣传位。

雷峰网:那国内的您比较看好哪家?

王云峰:我可能比较看好一些创业型公司,我会觉得大厂之外的大模型公司可能更纯粹一些,机会也更多一些,包袱比较小,完全可以用创新的方式去做,比如百川。其次是高校,中国高校发展的比较早,确实抢占了先机,虽然目前偏重研究而不是工程,但我觉得其实只要适当地做到研究成果工程化,就未来可期了,比如智谱。

雷峰网:大厂中有没有比较看好的,或者是有潜力的?

王云峰:我比较看好华为,华为其实属于大模型另外一个赛道里的玩家,从一定程度上讲,华为是有大模型积累的,它既有算力、有硬件、有软件,也有自己的模型,它完全可以给行业做深度服务,所以我觉得华为比较厉害。

垂类模型比拼的是算力、人才和行业

雷峰网:通用模型和垂类模型哪个更容易商业化推广?

王云峰:我觉得垂类模型可能场景更聚焦一点。各有自己的市场。但是垂类模型的难度并不比通用模型小,因为垂类领域的要求更高。

雷峰网:难在哪里?做垂类模型比拼的是什么?

王云峰:比拼的是大家对行业的理解,如果你正常设计一个直播数字人的话,如果没有行业的理解,很有可能是一个端庄,颜值很高,说话语气很舒缓、手部有一些简单的动作的产品,事实上直播完全不是这样的。

所以你必须知道大家平均在直播间停留的时间有多长、必须知道直播有忙时有闲时、必须知道什么时候全身出镜什么时候半身出镜、必须知道直播间里的人的分工和配比,背后的模型,也就是大脑的训练是要结合主播的语气、主播的风格,甚至要跟这个行业相匹配的方式做对应的串联,这样才能保证大家看到的是一个真实的东西。否则就会设计出来一个傻傻的主播。

很多专业领域也一样,要知道哪个环节是容错率高的,哪个环节是容错率低的,这样才能保证是一个好的应用,否则就是一个泛泛的、拉平的东西。

雷峰网:所以咱们的产品刚设计出来也是这样的?

王云峰:对,我们的产品最初设计出来就是这样的(笑),极傻。所以我认为,大模型本身需要人才,但如果做垂类的话,除了模型本身外,还要了解行业Know-How,否则是做不出来的。

雷峰网:听下来感觉做一个应用并不比做大模型简单?

王云峰:其实是这样的,大模型也是经过很长时间才突破到现在这个程度的,突破之前没有人知道它是谁。我们观察发现现在国内还没有一个特别成功的应用出现。为什么?中国缺聪明人吗?不缺。中国缺场景吗?不缺。中国缺钱吗?不缺。那是为什么?只能说明一件事,大模型的应用也的确有难度。


雷峰网原创文章,未经授权禁止转载。详情见转载须知

分享:
相关文章

工业口编辑

关注新基建,聚焦工业互联网领域 网络安全丨微信:15230152798
当月热门文章
最新文章
请填写申请人资料
姓名
电话
邮箱
微信号
作品链接
个人简介
为了您的账户安全,请验证邮箱
您的邮箱还未验证,完成可获20积分哟!
请验证您的邮箱
立即验证
完善账号信息
您的账号已经绑定,现在您可以设置密码以方便用邮箱登录
立即设置 以后再说