腾讯没去选择直接推出面向普通人的大模型产品,而是将重心放置在了企业市场,这背后存在着他们对于大模型实际价值的冷静思考。
战略选择的差异
不像多项科技公司竞相去发布针对公众的聊天机器人,腾讯于6月19日的发布会上,确切地把资源侧重到了企业服务范畴。这一决定不是跟风追随,是依据对市场要求的判断。他们觉得,在当下的阶段,大模型于解决确切行业课题方面的潜力,比起给予通用对话具备更少的商业价值。
腾讯云副总裁吴运声表明观点,大模型的价值得经由解决实际问题才能够展现出来。所以,公司没有匆忙去推出一款针对消费级市场领域做对照的产品,而是选取深入到金融这个行业,以及文旅行业和传媒行业还有其他七个行业,和现有的客户一道合作去精心打磨出数量已经超过五十个具有针对性的解决办法。这样的做法的目的在于开始先去验证技术实际产生的效果,之后这才考虑进行广泛的推广。
行业模型的必要性
现如今公开着的通用大模型,其用于训练的数据多数源自互联网的公开资讯,如此一来使得它们在面对诸如医疗、法律、制造等专业范畴的时候,知识深度显著欠缺。一个借助全网数据开展训练的模型,极难精准领会一份繁杂的工业图纸或者一份专业的病理报告句号。
腾讯所推出的MaaS平台,其核心在于构建“行业大模型精选商店”,它并非提供一个万能模型,而是准许企业依据自身的数据以及知识,针对预训练好的大模型展开精调,进而生成专属的、懂行的智能助手,这能够让模型切实吸收行业的私有知识以及专业术语。
降低应用门槛
对于绝大多数企业来讲,自己去开发大模型简直是异想天开。这得要有海量的数据量,要有造价高昂的计算集群,要有极为稀缺的AI科学家团队,还要有漫长无比的调试周期。就算模型训练完成了,部署的时候所面临的算力成本问题,网络延迟问题,以及数据安全问题,也完全能够让诸多公司知难而退。
腾讯着力推出的MaaS服务在尝试通过整合方式去解决这些棘手难题,其底层所依赖的是腾讯云自主研发的HCC高性能计算集群,以此来给予强大的算力支持,在平台层面,腾讯TI平台能够提供一整套从数据标注开始,历经模型训练,直至应用部署的工具链,这使得企业不必再从毫无基础的状态去构建复杂的技术栈 。
成本控制的核心
人们普遍觉得市场里大模型运用费用高昂,腾讯云位技术专家讲,成本主要部分并非是模型自身,是模型运作时耗费的推理计算能力耗费的推理计算能力,每次调用模型去生成内容,都得耗损大批量的GPU计算资源 。
为达成此目的,腾讯所采用的策略乃是“按需匹配”,他们不会致使客户为一个规模庞大然而却呈现过剩状态的模型支付费用,而是经由剖析客户的具体场景情形,推荐出成本最为低廉、效果最为适配的模型或者服务组合。与此同时,其自行研发制造的“太极Angel”加速框架,能够把大模型的训练以及推理效率提升至30%以上,进一步助力客户对成本加以控制。
内部先行验证
腾讯内部向来是新技术的试验场地,在大模型服务对外进行发布以前,其内部多个产品线已经率先接入并应用,比如说,腾讯会议借助大模型提高了会议纪要的总结能力,腾讯企点客服依靠大模型达成了更精准的客户意图分析以及回答生成。
这种采取“内部先行”方式的策略,保障了推向市场的服务是经过实际业务检验证实的。吴运声讲道,只有在这些内部应用切实提高了效率、解决了问题情况下,他们才有底气将同样的能力以服务形态开放给外部企业客户,保证服务的可靠性跟实用性。
未来的落地挑战
就算腾讯给出了从模型直至工具的一站式服务,然而大模型于企业端的全面落地依旧面临着挑战。数据安全以及隐私保护是企业最为核心的关切要点,该如何去确保行业敏感数据于训练以及使用过程当中不会被泄露出去,这是需要极其严苛的技术和制度保障的 。
大模型可不是能解决所有问题的万能钥匙,它得跟企业的业务流程深度融合,这就表明企业自身得开展一定的流程改造以及员工培训,技术提供商跟行业客户之间要进行更紧密的协作,一起探寻人机协同的最佳模式,才能够让大模型的价值最大程度地释放出来。
问企业,引入大模型技术时,您所最优先考量的呢,是成本控制、数据安全,抑或是业务场景之匹配度诶,请来分享您观点哟。

