大模型之战,已经进入了一个新的阶段。
在从ChatGPT发布算起,国内公司“跑步进场”的大约半年里,大模型竞争的焦点集中在类ChatGPT的通用语言模型上。
然而到了7月,在上海的 WAIC 2023 上,讨论通用大模型的声量则开始在悄无声息中降低。
首先是用户对大模型的认知发生了改变:从6月初起,“ChatGPT变笨了”的话题一度在社交媒体上引发讨论。用户在写作、绘画等AIGC领域的新鲜劲开始退去,当他们试图用ChatGPT解决实际问题时,往往难以得到满意的答案;
另一方面,基于医疗、金融、教育等垂直行业的大模型开始出现。而已经发布通用大模型的公司,也在针对行业推出模型服务,发力行业模型,已经成为各家的共识。
在 WAIC 2023 上,更多人开始关注能够真正扎进行业、给企业带来生产力跃升的大模型产品。
当大模型竞争的重点从通用大模型转向行业大模型,又将产生什么样的变化?
一、见自己:通用与行业,应该如何平衡?
ChatGPT带火了大模型产品的研发,然而在过去几个月中,这些涌现出来的ChatGPT大模型产品通常都偏向于“对话交互型”而非“知识增强型”,这意味着,大多数C端用户与AI的交互偏向于“闲聊”而非“启发/创造”。
如小编此前在《大模型时代的三道鸿沟:数据、成本与想象力》一文中所提及,在第一个赛段即类ChatGPT的竞逐中,各个厂商比的不是“武功”,而是“想法”:由于C端用户的付费意愿偏低,到目前为止,只有ChatGPT这种产品形态在To C市场得到了验证;在过去几个月,国内大模型产品设计一味追随 ChatGPT,将问题的定义交给用户(俗称“AI 召唤师”),导致了严重的同质化现象。
同时,通用大模型只能在通用属性强的场景中应用,在B端,技术还未完备的情况下,通用的大模型由于缺乏专有领域的知识,很难实际落进行业场景,产生生产力。
通用大模型解决不了专业的问题,而那些相对简单的问题,用户也不见得非要使用大模型进行解决。
不能帮助用户解决实际的问题——这是大模型的商业链路中,一个急需解决的巨大 Bug。“大事答不了,小事不用答”,现时的通用大模型就处在这样一个不上不下的位置上。
如果没有能够发挥效用的“立身之本”,大模型就只能像一个气球,越吹越大,越飘越高。
感到路径出现了误差,厂商们便随即开始调转车头,把正在“飘向空中”的大模型“拽”回地面,落进场景,给客户带来实际的“降本增效”。如何在通用与行业两个方向平衡,则成为了大模型厂商关注的问题。
当中最为典型的案例,是今年3月推出的金融行业模型 BloomBergGPT。它在私有金融任务上的表现出了远高于当前的通用GPT模型的能力。
在相关论文中,作者认为,对模型效果提升促进最大的三个因素依次为精心清洗的高质量数据集、合理的标记器(tokenizer)、合理的模型结构。
这也为大模型厂商们在AI 2.0 的赛道上指明了一条道路:如果垂直领域的任务足够复杂、数据足够独特且数据量足够大,自主研发垂直领域的大型模型,可能是一个至少在短期内让大模型落地、解决行业需求痛点的策略。
谁先占领行业,谁就更先占领 To B 和 To C 先机;谁先让大模型产生实际的效用,谁就能先入“咸阳”。
但一个大模型,要完成面向行业的落地谈何容易?
对于一个大模型的提供方来说,必须得能够实打实地“扎”进场景,了解企业的痛点,并针对性地寻找大模型所独有的解决方案。
而在这一点上,率先提出行业大模型的腾讯,深有感触。
“企业需要的,是在实际场景中真正解决了某个问题,而不是在100个场景中,解决了70-80%的问题。”腾讯集团高级执行副总裁、云与智慧产业 CEO 汤道生,在6月19日腾讯行业大模型的发布会上如是说。
汤道生指出,在许多产业场景中,用户对企业提供的专业服务有着“要求高,容错低”的需求。另一方面,训练数据越多,模型越大,训练与推理的成本也越高;除此之外,安全和合规也是企业需要考量的因素。
腾讯更专注于解决落地实际的问题,而通用大模型不能彻底解决用户的所有问题。
围绕产业客户的需求,腾讯云公布了全新的MaaS(模型即服务)全景图。有意思的是,他们也是国内首家没有单纯押注通用大模型,而是率先系统性公布行业大模型,选择基础研究和产业落地两条腿走路的大模型实践路径。
在这之后,金山、华为、字节,也都相继发布行业大模型相关解决方案,意在给行业带来实打实的新变化、新可能。
二、见天地:大模型应用,理解场景才是关键
要在实际场景能真正解决问题,大模型对场景的理解,才是真正的关键。
从某种意义上说,在大模型之战的第一阶段,短短3个月内就有80多个大模型问世,更多的是属于“普及”,证明自己具有“对标ChatGPT”的能力,而6月之后的这一波行业大模型落地浪潮,才是真正“秀肌肉”的开始。
“930”变革后,汤道生曾将做To C业务的感受比作空军开飞机:当做产品时,不需要与每个用户直接交流,只需通过用户的使用体验就可以发现问题并解决问题。这就像在天空中飞行,进行几次飞行和轰炸后,炸弹就能覆盖一大片区域。
而To B业务则更像是陆军打仗,需要亲自下场,与每个客户面对面会谈了解需求,谈AI能够为他们做什么,以及需要提供哪些方面的能力。
正是因为 To B 经验不浅,腾讯深知,说是“行业模型”,即使是同一个行业,不同的企业的需求也千差万别。一套模型方案,想要深入细致地理解企业的需求,就必须做详细的定制——而如果大模型采用定制化的项目制模式,又将不可避免地走向 AI 1.0 时代的老路。
大模型要“落地”,就必须要完成“适用化”的革命。而腾讯行业大模型的尝试,或许对于其他厂商有一些借鉴的价值。
一个模型不够,就打造一个模型的“精选商店”——依托腾讯云的 TI 平台,腾讯行业大模型给出的方案,是在平台上开放多个模型,企业在选用了更加适合的模型后,可以针对自己的具体需求,进行定制化的训练。
搭配完善的模型工具链,并有配套的方法指导和流程服务,让用户能够自主地在标品模式下,自己解决大模型的定制化需求。
而在这个模式下,大模型开发者的工作,就从定制产品,变成了标品制作+售后服务的“解决方案”提供方——这也是一种比较理想和健康的 MaaS 商业模式。
有“精选商店”解决算法问题,算力和数据侧,腾讯云的落地方案也比较务实。
算力侧,新一代的高性能计算集群(HCC),通过“众人拾柴火焰高”的规模效应,让单机算力形成1+1>2的效果。
以腾讯云配套的 HCC 为例,不仅有英伟达最新代次 H800 GPU 的“一骑当千”,也有自研的星星海服务器,与3.2T的超高互联带宽,优化了处理器、网络架构和存储性能,也让大集群的算力损耗能够最大程度降低。
而数据侧,当下行业的关注点,更多放在数据的筛选、清洗和标注等基础工作上,却往往忽视了数据库建构的重要性。
在云业务有多年的经验积累,腾讯自研的向量数据库,也给了行业大模型不少支持。
在应用了自研的 AI 原生向量数据库 Tencent Cloud VectorDB 之后,腾讯的行业大模型在预训练数据的分类、去重和清洗过程中,效率相比传统的解决方案能够产生10倍的提升;
如果将向量数据库作为外部知识库,来辅助大模型完成推理,成本则可以完成2-4个数量级的降低。
模型精选商店+高性能算力集群+AI 原生向量数据库,腾讯云的这套打法,给大模型厂商趟出了一条可能的路。
三、见众生:MaaS为 B 端客户带来了什么?
AI 的“功法”纵然重要,但大模型的“华山论剑”终究不是纸上谈兵,真正能够分出高下的,是在实际场景中实打实的“战绩”。
需要注意的一点是:目前看来,并非所有的场景都适合应用大模型技术。
对此,腾讯云副总裁、腾讯云智能与优图实验室负责人吴运声感触颇多。
“我们一直在思考和探索,大模型和各行业结合背后最本质的逻辑是什么?”在WAIC 2023会场,吴运声曾提到腾讯对大模型与真实场景结合的思考。“其实只有两点:一是技术的根本出发点是解决实际问题,二是如果不能深入行业探索,便不能真正解决行业面临的问题。”
而据小编此前调研,大模型在企业落地也存在两个难以落地的盲区:一是数据安全,二是成本可控。
先前提到腾讯扎进行业场景,金融行业就是一个典型的例子。
以金融业务中常见的银行单据处理场景为例,单据处理场景涉及到大量银行回单、交易发票、跨境汇款申请书、业务往来邮件、传真等非标数据,需要整理、录入系统,是不少业者难以逃离的“噩梦”。
某国家首批股份制商业银行与腾讯合作,腾讯TI-OCR大模型,可以在 Prompt 的调优的基础上,不经过额外训练直接支持常规下游任务,零样本学习泛化召回率可以达到93%、小样本学习泛化召回率则能达到95%。
从样本收集、模型训练到部署上线,实现全流程零人工参与,建模时间也从2周减少到仅需2天。
另一个传统机器学习得以广泛应用的场景金融风控,在实际业务中,很多时候受限于积累的样本有限,或者是新品刚刚上线,面临“零样本”搭建风控体系,制定策略非常困难。基于腾讯云风控大模型丰富的场景样本快速搭建能力,可以帮助客户跳过“冷启动”过程。
除了上述需要判别式AI能力的场景,大模型的生成能力还将为金融行业带来更大的惊喜。
如上述银行客户提出,在他们此前智能客服场景的实践存在几个痛点:知识维护量大;冷启动知识配置成本高,且需要持续投入运营;由于知识边界受限,不在知识库的问题无法回复或者答非所问,等等。
而通过行业大模型快速接入多个知识来源,同时直接对接银行API进行任务式对话问答,腾讯帮助客户打造了专属AI助手,提供智能咨询、辅助分析、决策等服务,助力客户多个核心业务智能化、健康发展。
另一个案例中,腾讯云 TI 平台通过训练工坊和模型服务功能,帮助上海金融期货信息技术有限公司(简称“中金所”)解决了算法服务运维成本高、资源分配不合理、算法框架重复构建、依赖版本冲突等问题,降低了算法框架搭建成本和人力投入。
通过提供 restful 服务,以服务化的方式将算法通过平台提供给其他部门使用,腾讯云 TI 平台已成功支持中金所及技术公司内部的智慧屏和三大平台系统,每日调用峰值高达1亿次,整体调用成功率超过了99%。
眼见众生,心在天地。大模型不仅要面向客户的需求,提供生产力的跃升,作为近10年最大的一波技术革命,AI 也给产业的自我更新带来了新的可能和广阔的想象空间。
在 WAIC 2023 上,腾讯展示了不少行业大模型落地的案例,从金融、文旅、政务、传媒、教育等10大行业中,孵化出了超过50个针对性的解决方案,行业覆盖力惊人。
“AI大模型技术发展和产业探索,离不开产业链协同和生态共建,这也是腾讯在AI发展方面一直坚持的态度。”在 WAIC 2023 上,吴运声如此总结道,“我们愿与行业伙伴携手,去探索无限的可能性。”
结语:
AGI 的梦想再绚烂,大模型的落地才是真功夫。
十年前的 AI 1.0 时代,小编早已见识过 AI 赛道的炙手可热。
“必须扎到行业,必须创造价值,一家 AI 服务的提供商才能活下去。”悟到这个道理,不少人工智能公司花了整整十年的时间。
顶层的设计往往充满着不确定性,而市场的判断却是朴素而直接的:谁能给我带来收益,谁就是于我有用的;谁能给我带来更多的价值,我就用脚为他“投票”。
大模型竞逐的第二个赛段,势必围绕市场和业界展开,对于技术和产品齐备的玩家来说,当下的“必争之地”,就是在市场上获得认可,并通过端到端的模式,形成一套能够越转越快的数据飞轮,积累更多的大模型 Know how,最终在万事俱备的情况下,做更好的通用大模型。
谁先在行业站稳第一只脚,谁就能更早迎接 AI 的下一个飞速发展期。
本站部分文章来自互联网,文章版权归原作者所有。如有疑问请联系QQ:3164780!