大模型如何实际在行业落地:生成式大模型结合常识库,打造出7*24小时永远在线的超等职工

大模型构建人机协同的新型生产关系。采访嘉宾 | 中关村科金AI平台本领中心作者 | 刘燕 infoQ对话式AI产品拥抱大模型  一个大胆的决定自2014年成立以来,中关村科金就选择专注于企业服务赛道提供对话场景服务,聚焦生成式AI技巧,包括畛域大模型、大数据分析、多模态交互三大核心技巧。如今基于这三大类核心技巧,已形成了一套完备的技巧体系,并构建了一个基础的技巧底座——即生成式的得助对话引擎。这些底座式的本领都由AI平台本领中心来提供支持的。这是一个在内部被定义为偏底层、汇聚“原子本领”的地方。这个本领中心,既要构

大模型构建人机协同的新型生产关系。

大模型如何实际在行业落地:生成式大模型结合常识库,打造出7*24小时永远在线的超等职工

采访嘉宾 | 中关村科金AI平台本领中心

作者 | 刘燕 infoQ

对话式AI产品拥抱大模型  

一个大胆的决定

自2014年成立以来,中关村科金就选择专注于企业服务赛道提供对话场景服务,聚焦生成式AI技巧,包括畛域大模型、大数据分析、多模态交互三大核心技巧。如今基于这三大类核心技巧,已形成了一套完备的技巧体系,并构建了一个基础的技巧底座——即生成式的得助对话引擎。

这些底座式的本领都由AI平台本领中心来提供支持的。这是一个在内部被定义为偏底层、汇聚“原子本领”的地方。这个本领中心,既要构建前沿的技巧本领,又要快速响应前端营业系统的变化,构建标准化的产品组件用以快速落地。

从得助对话引擎上“长”出了三大类产品,包括数字化洞察与营销、数字化服务与运营、数“智”底座,基于这三大类产品陆续推出云呼叫中心、全媒体智能客服、智能外呼机器人、智能质检、智能陪练、智能音视频等一系列服务,覆盖了用户服务的全生命周期,包括售前、售中、售后等环节,被广泛利用于金融、政务、零售、大健康、制造等行业。

“我们一直在探索对话式AI技巧在企业服务赛道的创新利用,同时积累数据,比如对话场景的KnowHow。此外我们一直紧密跟踪大模型的发展趋势,进行相关的技巧更新和迭代,比如预训练模型如何在畛域里做优化,为企业提供贴合实际利用场景的模型等。” 中关村技巧副总裁张杰博士表示。

自2018年开始,预训练模型逐渐兴起,起初用的比较多的是判别式模型,例如BERT模型。近几年,预训练模型几乎是以爆发式的速度增长,参数规模逐年上涨。尤其是去年11月底,ChatGPT火爆出圈成为革命式的事件,基于GPT出色的生成效果,很多传统的NLP义务都规划到了生成模型中。从BERT到后来的T5,再到GPT4,张杰团队观察到,整个技巧发展的趋势,在向一个统一范式的方向发展。

“大模型+畛域常识”这一路线,核心是为了利用大模型的理解本领,将散落在企业内外部各类数据源中的事实常识和过程常识提取出来,然后再利用大模型的生成本领输出长文本或多轮对话。但是这个方向上一直没有一个创新力强的产品出来。ChatGPT发布后,让张杰和他的团队眼前一亮。

中关村科金算法团队负责人于皓告诉InfoQ,他们在多个营业场景进行实际测试,验证了在一些特定的场景,经过精心设计的畛域prompt,大模型的效果会显著提升,特别是在新畛域的模型泛化性本领方面表现优异。例如,以前用判别式的模型解决意图识别成绩需要做大量的人工标注工作,对新畛域的营业解决本领非常弱,有了这类大模型以后,通过微调畛域prompt,利用大模型的上下文进修本领,就能很快地适配到新畛域的营业成绩,其显著降低对数据标注的依赖和模型定制化成本。

“以前我们主要用BERT技巧体系解决实际营业成绩,ChatGPT出来后,我们重新研究了GPT整个发展路线,梳理好整个大模型的技巧发展脉络后,从AI技巧发展角度研判,生成式大模型可能是现在通向通用性AI的一条可行性路线,于是大胆地做了一个决定——在产品中,积极探索利用生成式大模型解决实际营业成绩 。

2022年,在中关村科金AI平台本领中心的主导下,公司的智能外呼、智能客服、智能质检、智能陪练等产品通过自研的对话引擎全面拥抱大模型,充分挖掘企业各类对话场景数据价值,帮助企业实现更加智能的沟通、成本更低的运营维护。

从传统对话引擎转向大模型对话引擎

“通过新一代的得助对话引擎,我们正在从传统的对话引擎迈向大模型的对话引擎,用一套对话引擎支持多种营业系统,营业系统会基于行业线进行拆分,在不同的行业线还推出了私有化和SaaS化的版本。”中关村科金资深AI产品总监曹阳介绍,通过一套技巧体系对产品进行本领赋能具有很多优势,以前产品矩阵的底层有几百个定制化模型,运维起来非常麻烦,现在可以统一用一套大模型就搞定了。

于皓介绍,新一代得助对话引擎的核心本领是:畛域CoT + 畛域大模型 + 畛域常识库 + 畛域本领套件。通过将畛域的know-how转化为畛域CoT,使大模型具有更复杂的营业成绩解决本领;通过外挂常识库的形式,把事实性常识的过程性常识都放在畛域常识中台内,大模型用来做抽取、调度和生成,然后下游营业系统通过API获取结果,以保证营业常识的实时性、可靠性;通过畛域本领套件,打通大模型和企业已有系统的融合,建立模型和企业已有营业系统的无缝链接,将大模型的本领充分释放到各个营业系统中。

得助对话引擎主要特点是以大模型为中心,传统对话引擎相关的意图识别、对话状态跟踪和话术生成等义务全部由大模型进行判别和自主执行,为了保证整个对话过程的可用、可信、无害和可靠,中关村科金自主研发了畛域prompt工程组件,可以有效将对话本领约束到畛域边界内,使大模型可以在营业规范下,安全、可靠地完成对话义务。

在新一代得助对话引擎的设计中,充分考虑到实际营业情况,轻量化部署本地化大模型是现在企业的强烈需求,团队研发了本地化大模型的快速优化套件,主要包括畛域常识的注入本领、畛域prompt生成本领、畛域指令自主生成本领、畛域指令微调本领和畛域规范行为对齐本领,可以帮助企业快速构建适合于自身营业场景的大模型,降低大模型在企业的落地门槛。

于皓介绍,在得助对话引擎架构的设计过程中,也充分考虑了ToB场景的特性。在ToB场景中,企业有很多畛域常识,但这种畛域常识基本都固化在各个常识库里,如何结合大模型的隐性畛域常识和推理本领,与企业已有的固化好的显性常识融合起来,这是目前需要解决的一个大成绩。

因此在设计引擎架构时,于皓的算法团队把常识库和大模型的基础推理本领相融合,结合企业固有的常识满足实际营业场景需求。针对解耦合的模式设计了交互式的推理本领,例如针对问答场景,首先要理解成绩语义,抽取出成绩中涉及到的实体关系,如果成绩属于隐形常识范畴,就由大模型直接回答。如果涉及到营业中的显性常识,其可能存在于结构化数据库或者文档库等形式的常识库中,大模型需要利用畛域CoT和畛域本领套件自主性生成查询语句,根据查询语句到常识库里查出相关常识,把常识提炼出来之后,再根据上下文生成对话的形式,将一个复杂的成绩做思维链推理,提炼成简单的成绩,借助于畛域本领组件可以从常识库、营业系统或者互联网等资源检索信息,再借助于大模型的上下文进修本领归纳总结出答案,在这一模式下,重点在于大模型解决成绩时的推理合理性、过程可控性和结果的可靠性。

大模型如何在畛域落地,打造超等职工  

随着基础大模型的不断成熟,中关村科金AI本领平台中心不断拓展得助对话引擎的利用场景,推出虚拟职工助手,帮助企业打造“超等职工”,在营销文案生成、客服问答、坐席助手等场景,助力企业营销服价值提升。这些超等职工就像是企业里的“超人”。

“超等职工”形成的技巧路径

在基础大模型本领加持下,得助对话引擎帮助企业构建“超等职工”,需要经历“学、教、用”三步形成路径。

第一步:学,大模型在畛域数据上的无监督进修。

大模型就像是一个智商较高、理解本领很强、过目不忘的“文科生”。中关村科金AI平台本领中心在这个底子很好的“文科生”基础之上,注入企业的畛域常识,如各种培训材料、行业通用常识等,让大模型能够理解畛域常识,成为一个具备畛域常识的“普通职工”。

这一步的重点是让大模型从散落在各处的数据源中萃取出畛域事实性常识。

中关村科金高级算法工程师罗华刚介绍,做到这一步的关键是要“及时动手自制”。ChatGPT用的数据都是开源的,没有规范的具体畛域数据。而如果要利用到畛域里,则首先要用自己的畛域数据。比如中关村科金积累了多个行业大量的对话数据,把这些高质量对话数据灌到大模型里训练,就可以让模型更符合畛域分布,那么,它生成答案就会带有畛域的常识,这种是隐性的常识。

对于事实性的动态常识,模型是难以把控的。比如针对具体某个金融产品,客户会询问利率,正确答案是5%,但是大模型生成的结果可能是6%。大模型善于理解用户的意图,使生成的回答符合逻辑,但并不能保证事实性。另外,随着时间的推移,这款产品的利率可能会降低,变为4%,大模型很难及时跟进此变化。

事实性的动态常识尽管也可以通过训练融入大模型,但无法保证输出的正确性。如果要保证正确性,就会让这个模型过度拟合,这不符合训练模型的目的。因此对于事实性的动态常识,非固有的畛域性常识,罗华刚团队参考了 GPT-4 提供的插件功能,来保证大模型实时输出的正确性。“我们将它作为插件,畛域常识库/中台作为它的事实性或动态常识的存储地,大模型负责对给出的成绩做语义理解,同时发挥中枢调度的功能,最终生成答案。“

第二步:教,从人类反馈中以小规模有监督进修的方式做微调。

“普通职工”依托专业的产品设计,不断和人类专家进行闭环反馈。基于人类专家的反馈,它能够不断地获得提升,逐步成为“超等职工”。

这一步的技巧难点是,如何让大模型学到过程性常识。因为与事实性常识相比,过程性常识更强调连续性和逻辑性。

为了让大模型具备过程性常识,罗华刚介绍,可以采用两种方式。一是无指导进修的方式,让模型自己去体会对话中存在的常识,将对话数据以及对话数据产生的目标(比如,营销场景下坐席与客户的对话数据,最终是否完成了销售义务)设为标签,作为一个监督性的义务进行微调。

第二种是有指导进修的方式,告诉模型怎么做,这具体有两种方法,一是采用思维链的技巧,加入逻辑引导,比如针对一小段对话,加入逻辑分析,告诉模型如何分析这通对话,分析顾客的特点、顾客表现出的意愿等,输出一个更优质的对话告诉模型,这样的例子是比较好的,让模型再去进修这样的案例,大模型通过进修一个评判模型来评判一个对话逻辑。另一种方法可以考虑采用强化进修或GAN的形式,比如,机器人与机器人之间产生了对话,再去评判这通对话做的怎么样,通过这样不断地来回进修,使模型的本领越来越强。

第三步:用,在特定场景下以机器人或助手的方式利用。

成为具备畛域常识的“超等职工”后,企业可以给它分配特定的义务,在具体的场景下进行利用。比如撰写营销文案,自动解答用户的成绩,或辅助坐席去回答一些成绩等。

这一步的关键点是产品设计,如何合理的为人类职工和数字职工分配义务,实现本领互补,并且让数字职工从业绩反馈中持续进修。

曹阳介绍,为“超等职工”分配义务,目前是机器+人工结合的方式。基于营业属性,会按照一套通用的框架和过程进行分工,到具体环节会采用单元模式的动态人工介入的方式。

这种方式的核心是单元化产品逻辑,所有的营业单元都会抽象到一个整体的单元,系统会按照固定过程执行,过程中涉及到人工审核或验证环节。人工参与的程度可以根据营业成绩的复杂度进行动态调整,简单的营业成绩系统会进行自动化处理,复杂的成绩交由模型处理后,人工再进行审核。针对不同的营业,也会动态化的控制人工参与度,比如,售前营销沟通场景中营业类型比较重要,且用户画像相对丰富,这个环节会有较强的人工介入,其他场景比较简单,动态控制的要求也会相应地降低。

利用案例解析:AI落地商业空间更大了

“超等职工”的目标是帮助企业降本增效。目前,中关村科金打造的“超等职工”已在各个场景展开试点。罗华刚向InfoQ介绍了两个代表性的利用案例。

外呼机器人,让话术师告别“刀耕火种”时代。

一组利用数据显示,以前在一个新场景构建外呼机器人,大概需要22-23周时间,且需要非常熟练的话术师才行。但现在,借助一个构造好的畛域大模型,只需大约1-2天时间就可以成功交付,能明显降低交付成本,加快交付效率。

与传统的智能客服相比,大模型进一步降低了开发和运维成本。以前,各种场景都需要算法工程师标注数据以训练特定义务的模型,因此开发成本较高。现在,大模型本身的通用性好,不再需要很多算法工程师标数据,可以直接拿过来用,有时稍微标几条数据就够了。企业部署外呼机器人、客服系统的成本会大大降低。原有30个话术师的工作量,现在2人即可完成,而且语义理解准确度从85%提升至94% 。

营销文案助手,赋能理财师撰写营销文案,原先10分钟一条营销文案,现在10秒即可完成。

当下的财富管理行业面临营业增速较快,但理财师规模和人才增速不足的挑战。理财师的专业要求高,其中,文案生成就是一项刚需工作,如果技能不够,就容易流失很多高净值客户。因此,理财师亟需借助智能助手工具,将一些繁琐的工作,如编写营销话术工作等交给机器完成,这样就能释放出更多精力放在拓展新客户等工作上。

针对理财场景,中关村科金研发了营销文案助手。它发挥大模型的语言理解本领,将产品的介绍文档、行研报告、权威媒体的财经新闻、专家观点等“灌进”大模型,大模型从这些非结构化文档中,抽取出核心观点及关键信息,如新基金产品的发布日期、期限费率、收费政策、风险等级、利好政策、行业趋势等。这些抽取出来的要素,形成了新的畛域常识库。

当理财师选择某一客户时,客户的属性就能从CRM(客户关系管理系统)中关联出来。根据这些客户特有的属性,理财师就能了解其投资偏好。接下来进入营销环节,根据所处的阶段,大模型可以生成相应的营销话术,为保证生成的内容是准确、可控的,理财师最后对生成的内容进行审核和再编辑。

透过实际的落地实践,中关村科金AI平台本领中心发现,拥抱大模型也明显加速了AI商业化的进程。

“ 在探索大模型实践的过程中,我们尝试了多个对话利用场景,也和客户共创了一些有场景代表性的试点项目。”张杰坦言,“使用大模型以后,已有的对话产品中定制化建模的成本降低了,而且之前技巧达不到要求的对话场景现在也可以做数智化尝试,AI落地的商业空间更大了。”

原来的智能分析比较简单,基本是机器根据录音做转出分析,或者机器按照已设定好的过程一步步往下执行,但不考虑用户的反馈,对用户的意图理解并不到位,客户体验不好,很难实现成单;客服质检也只能做一些简单的操作,比如关键词匹配等,且匹配度也有一定的提升空间;原来针对各项对话场景分析的粒度不够细,准确度也不够高。用上大模型升级后,对话的理解本领和智能分析效果有显著提升,成单率也取得了极大地提升。

大模型重塑生产关系

现在“超等职工”在企业里所承担的角色,一方面可以完成一些机械、重复的工作,另一方面,可以辅助人工,承担一些创造性的工作,减少职工的工作量。大模型强大的意图理解本领以及泛化性使其完成一些创造性的义务成为可能,这将对企业的生产关系带来重要的变革。

“中关村科金的愿景是希望通过对话式AI技巧,重塑企业的生产关系。现在尽管大模型十分火爆,但在企业服务赛道,很少有人意识到大模型现在会对企业的生产关系带来很大影响。”张杰表示。

现在的企业生产关系是一个树状的架构,从上往下分别是董事会、职能部门、营业部门,一层一层往下是金字塔式的。现阶段在数字化转型中,企业开始将一些简单的体力劳动、能总结出规律的活动,写成具体的程序,通过自动化校对的方式来实现。也有些企业会训练模型,这些模型会以助手的方式辅助一线职工,职工下面一层也就变成了助手机器人。但整体来看,整个组织结构仍然是树状的,是人–人–机的架构。

现在,情况可能会发生变化。

张杰表示,“现在大模型带来的启示是,它不但能够替代一些简单的体力劳动,还能替代一些简单的脑力劳动,甚至包括那些能够从日志里总结出经验的脑力劳动。”

在张杰看来,现在企业的组织结构将呈现纺锤形,上层是人类经营者,中间层真正负责干活的是机器人,少数的营业专家会指导机器或与机器协同互补,是人— 机—人的架构。“机器人在其中的角色并不完全是助手。最开始由于技巧所限,它以助手的形态呈现;现在在具备自主进修本领后,它能够真正成为独立承担工作的数字职工,而且是成本非常低的职工。”

现在,随着大模型重构企业组织架构、重塑企业生产关系,可以释放出更多的人力,开展更具创造性的工作。但不可避免地,重塑生产关系意味着必然有一些人会被替代掉。张杰认为,从短期来看,大模型带来的影响是,一些不产生价值的、中间的职能岗位,可能会很快将被机器取代掉。长期来看,关于价值判断、规则制定、以及关乎人性和心理的工作,是大模型不能取代的。

巅覆对话场景:下一阶段企业数字化转型的重点 

对于企业来说,数字化是一项“必修课”。最近几年,可以明显感受到,数字化转型逐渐往“纵深化”发展。而大模型技巧的爆发,有望给企业的数字化转型进程带来“加速度”。

一个显著的变化是,前几年,企业数字化主要针对企业内部的交易数据和核心营业系统,对这些数据通过数据挖掘的方法进行建模,实现降本增效。

随着近些年大模型的高速发展,对话数据成为企业愈发重视的数据资源。无论在现阶段还是现在,无论是企业与外部客户沟通还是企业内部职工的培训和协作,对话都一直是最主要、最自然的交互形式。在这期间,会产生很多对话数据,包括线下营销和线上营销、文字沟通和电话沟通等场景。

企业希望充分利用对话数据、挖掘对话数据的价值,从而更好地服务于数字化的需求。这也是对话式AI技巧解决方案提供商当下正在思考的成绩。

采访中,张杰谈到了他的一个判断:“对话数据,将是企业数字化转型下一阶段的重点。过去,企业的数据只是存了下来,并没有进行结构化的表示和挖掘,更遑论提取出智能服务。随着大模型的到来,可以理解这些非结构化数据中蕴含的语义,进而挖掘出其中的智能服务。”

张杰表示,大模型能解决对话场景下数字化转型中存在的“最后一公里”的成绩。以销售话术复盘场景为例,很多企业都在针对其做数字化转型,此前大都通过规整和挖掘订单、客户标签等数据的方式进行。但往往在“最后一公里”的时候,无法实现特别好的转化效果。

“最后一公里”是指,营业人员与客户在门店、连锁店、呼叫中心等线下和线上销售的场景交互时,通过对话的方式进行,这一环节没法做数字化转型;“最后一公里”的分析和挖掘也很难做到位,比如传统的客户呼叫中心在进行电话营销时,原先只能做简单的关键词质检,无法做更细粒度的分析。

大模型具备的超强语言理解本领,让“最后一公里”的销售过程实现数字化转型成为可能。具体的做法可以是,通过电子工牌或呼叫中心将销售过程录下来,采用ASR语音转写技巧将录音转成文本;再通过对话文本挖掘出用户的意图;随着对话过程不断进行,大模型可以实时生成过程图谱,给销售提供对话建议,分析潜在的话题引导方向,提升销售人员的营销技能,提高成单概率和用户的留存率。由此,既能帮助企业通过智能对话服务实现降本增效,也能有效提升用户体验以及拓展服务外延。

在此前很长一段时间里,对话营业在对话式AI厂商的语境中基本指“客服”。曹阳表示,造成这一局面的原因主要有两个,一是客服在售中、售后等环节的营业较规范、标准,可在固定框架内让机器人回答相对固定的成绩,实现对效率的追求和用户体验的平衡;另一个原因是技巧的局限性。受到技巧所限,客服基本围绕售中、售后环节服务,如果要实现从售中、售后向售前扩展则面临技巧挑战。

得益于大模型带来的技巧变革,对话可做的营业范围会得到极大地扩展,如从售中、售后向售前扩展。与此同时,售中、售后环节能否带来新的营收增长点等探索也会增加。此外,与以往集中在客服场景做数字化转型不同,现在很多企业希望在整个生产过程中所有涉及到对话的场景都进行数字化转型,包括人和人之间工作的协作、职工培训、私人社交等畛域,现在将在企业和个人层面诞生更多的利用。

对话式AI及大模型发展技巧趋势展望

对话式AI下一步重点是过程性成绩

张杰认为,对话式AI下一步要攻克的一个技巧难题是过程性的成绩。对话有过程步骤,如何让大模型,基于一个特定的目的,探索出最佳的实践过程,这很关键。

目前,中关村科金AI平台本领中心正在对这一成绩进行攻坚。让大模型不断从历史对话中总结话术过程,通过不断地总结完善,使其生成的话术过程更有针对性,可以应对不同客户的诉求。这样模型准确度更高,自动化程度更高,智能化程度也会更高。

程序员的归宿不是提醒工程

大模型与之前的预训练模型的不同之处之一就是提醒进修(Prompt Learning)。预训练模型需要微调,大模型往往需要提醒。

提醒进修是2020年出现的新概念,主要是为了解决预训练语言模型训练过程的义务和实际营业的义务之间不一致的成绩。通过提醒语,可以让预训练语言模型理解当前义务的类型,从而可以更好地完成义务。随着NLP技巧的飞速发展,现在的提醒工程已变得更为复杂,提醒语通常包含义务指令、义务目标、行为约束、输出规范、资源清单、样例展示和思维本领提醒等要素。

于皓的团队将提醒进修作为大模型工程化方向上的研究重点,并在多个场景测试效果。团队根据不同的场景设计了自动化封装的Prompt工程的方法,一条思路是离散的提醒工程,另一种是连续的提醒工程,比如用一个模型把对话自动生成向量,隐含提醒工程,然后将提醒向量融合到大模型向量中解决成绩。

现在,给每个义务找到合适的提醒语还是一个很大的挑战。测试中,于皓团队发现,不同的义务需要差异化的Prompt模版,从指令设计、样例选择、样例的顺序以及推理过程等细节进行prompt的优化微调,每一个环节都可能影响到Prompt在实际利用的场景效果。测试结果显示,在意图识别上,不同的Prompt的准确率能达到2%~80%的巨大差距。

关于提醒进修的另一焦点话题在于,现在的提醒进修工程师可能会比软件工程师多。对此,于皓认为,“Prompt工程的确在现阶段非常重要,但至于说现在是不是程序员都成为提醒工程师,我的观点是,Prompt工程可能是暂时的一个中间过程。只是说,现在大模型的本领还没有达到基于人工设定的复杂义务目标去自主性进行义务分解,然后根据这些义务转化成一种它可以直接解决的细粒度的自然语言义务。现在大模型需要中间的提醒工程师帮助它理解义务,然后转化成它可以直接执行的自然语言义务,这中间是一个适配的过程”。

现在随着大模型的本领向更高层级提升,会覆盖掉现有的Prompt工程。因此,于皓认为,程序员的归宿不是提醒工程,提醒工程一定会被大模型的本领覆盖。现在大模型一定具备很强的交互本领,甚至实现人人都是“陪练师”。每个人在日常工作中可能都会有大模型与之交互,在交互的过程中,大模型会不断提升其对畛域的认知本领,增强大模型专业本领,逐渐成为7*24小时的“超等职工”。

算力难题下,如何选择适合自己的模型

大模型迎来爆发后,很多企业都在争相上车,但一个现实的成绩是,大模型背后所需的算力成本极为昂贵。

以ChatGPT 为例,其训练约需要万卡时的计算量。对于大多数的企业来说,做到这一点不太现实,全球可能达到这一量级的企业都极少。此外,还面临很多需要处理的技巧难题,例如,数据质量差,训练过程中模型缩小导致最终训练结果不及预期等成绩。

因此,罗华刚认为,当大多数企业很难付出像ChatGPT 这样的大模型所需的成本时,就需要考虑如何将模型调小以满足需求。模型的规模会随着利用场景的复杂程度及数量发生改变,模型越大,提供的本领会越强;而畛域越小,它需要的模型规模越小。因此,在企业自有资源允许的条件下,建议选择尽可能大的模型,使得模型的本领更强。在这种情况下,企业可以考虑用一些方法来降低训练成本,进一步细分到具体的义务场景下,采用比如Self-Instruction或LLM+LoRA技巧。

Self-Instruction是通过大模型的输入、输出来微调模型,比如,有人训练斯坦福的羊驼模型大概只用了500美元的成本,通过调用ChatGPT的接口生成一系列的 instruction,微调指令和输入、输出,最后自己的模型只有70亿参数,相对而言成本降低了20倍,用这样一个模型去拟合,最终它的效果可以接近ChatGPT的效果。

LoRA是指在大模型插入一些小模型,微调时,大模型不动,只微调小模型的部分,也可以达到同样的效果。这种方案牺牲了模型的整体本领,提高了在特定义务上的本领,但这样做能够降低训练成本。

如果企业没有自己的大模型,也没有自己的畛域大模型,可以考虑部署开源模型,这样也可以节省算力消耗的资源。

现在:畛域模型成王者?

大模型混战之际,业界也在讨论和预测大模型的终局。张杰的判断是,现在会呈现出基础大模型多家并存、畛域模型百花齐放的状态。

“基础大模型,特别是多模态基础大模型,现在应该只有几家公司做,因为做基础大模型需要大量的数据、算力和人才,这些组合资源极少部分企业能够承担得起。因此,现在一定是有数据、有算力、有人才的公司,更可能去构建出基础大模型。基础大模型现在会聚焦在提升多模态本领、挖掘复杂推理本领,以及构建利用生态圈。”

基础大模型如果想用在实际营业中,还有很多方向需要适配,例如在法律、医疗、金融、政务等畛域,很多工作过程逻辑复杂,且对数据敏感性、营业可解释性要求高,基础大模型在这些场景无法直接商用。

这就给现在其他企业留下了空间。如何根据实际的营业,将大模型转化成一种具有高效的计算方式的小模型,小模型再根据专业常识做注入、指令微调、思维链提升、对齐等,使其更适配某一畛域的规范约束。

作为对话式AI技巧解决方案提供商,中关村科金需要思考的是,如何发挥自身优势,在畛域内如何积累数据,如何沉淀畛域常识,如何将畛域常识注入到大模型上,以此构建自己的技巧护城河。此外,在具体利用场景下,思考围绕对话和推理两种本领颠覆已有的产品体验,挖掘新的利用场景。

“可以畅想,现在大模型畛域会是一个百花齐放的局面。个别头部企业会去做大模型,其他企业根据大模型的本领提升每个畛域的中小模型,中小模型再结合畛域的常识,变得更专业化,这是一个大趋势。”张杰如是展望。

采访嘉宾介绍

张杰,中关村科金技巧副总裁,天津大学计算机专业博士。先后就职于华为诺亚方舟实验室、阳光保险、明略科技。在常识工程、自然语言处理等技巧畛域拥有丰富的理论和实践经验,出版技巧专著两部,发表学术论文十余篇,发明专利一百余项,主持或参与国家级课题八项,获第十届吴文俊人工智能技巧发明一等奖。主持开发了推荐引擎、常识问答系统、客服机器人、大数据风控系统、行业常识图谱等多项商业系统,累计销售额数亿元。于皓,中科金算法专家,同济大学计算利用技巧博士,先后参与机器进修、常识图谱和大模型畛域相关项目数十项,具有丰富的项目实战经验;申请国内外技巧发明专利20多项,获得第十届吴文俊人工智能技巧发明一等奖、2019年上海市科技发明一等奖、第四届中国保险业年度最佳突破奖等数十项奖项。罗华刚,中关村科金高级算法工程师,北京大学计算数学专业硕士,研究方向为运筹优化、常识图谱、自然语言处理等。曾参与建设HAO图谱、常识即服务、图谱CBB等多项系统,撰写发明专利三十余篇,协助撰写专著《常识中台》,获2020年吴文俊人工智能技巧发明一等奖、世界人工智能大会卓越人工智能引领者奖Top30。曹阳,中关村科金资深AI产品总监,拥有超过10年的ToB产品经验,曾任职于阿里、京东、字节跳动、shopee等公司,主导多个智能客服产品,对NLP、智能客服、CRM相关的技巧、产品利用、商业化有着丰富经验。

给TA打赏
共{{data.count}}人
人已打赏
AI

Meta用《圣经》训练超多谈话模型:辨别1107种、辨认4017种谈话

2023-5-23 15:05:00

AI

ChatGPT在iOS美区下载火爆,6天内下载量胜过 50 万次

2023-5-26 19:23:00

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
今日签到
有新私信 私信列表
搜索