如何向大模型注入学问?达摩院通义对话模型SPACE系列探索

如何将人类先验学问低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种鉴于半监视预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起从事预训练,从而把标注数据中蕴含的学问注入到预训练模型中去,打造了 SPACE 1/2/3 系列模型。SPACE-1:注入对话计谋学问,AAAI 2022 长文录用;SPACE-2:注入对话明白学问,COLING 2022 长文录用,并获 best paper award 推荐;SPACE-3:集对话明白 + 对话计谋 + 对话天生于一体的模型, SIGIR 2

如何将人类先验学问低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种鉴于半监视预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起从事预训练,从而把标注数据中蕴含的学问注入到预训练模型中去,打造了 SPACE 1/2/3 系列模型SPACE-1:注入对话计谋学问,AAAI 2022 长文录用;SPACE-2:注入对话明白学问,COLING 2022 长文录用,并获 best paper award 推荐;SPACE-3:集对话明白 + 对话计谋 + 对话天生于一体的模型, SIGIR 2022 长文录用。达摩院对话大模型 SPACE-1/2/3 在 11 个国际对话数据集取得 SOTA。

图片

图 1 SPACE 系列模型在 11 个国际对话数据集取得 SOTA,包含 Intent Prediction、Slot Filling、Dialog State Tracking、Semantic Parsing、End-to-End Generation 五大类对话义务相关论文:SPACE-1: https://arxiv.org/abs/2111.14592SPACE-2: https://arxiv.org/abs/2209.06638SPACE-3: https://arxiv.org/abs/2209.06664相关代码:https://github.com/AlibabaResearch/DAMO-ConvAI1. 关于人机对话和预训练模型的简介1.1. 什么是人机对话?人机对话的终极目的是让机器(对话系统)和人类(用户)能像人和人一样从事自由的对话。通常来说,对话系统和人类的对话过程主要分为三个主要阶段,分别是对话明白(Understanding)、对话计谋(Policy)和对话天生(Generation)。如下图所示,当用户说了一句 "查询水费",对话系统首先要明白用户说的是什么意思(What do you say ?),然后要根据明白的结果,需要判断自己该如何去回答(How Shold I say ?),第三步要通过自然语言的方式返回给用户(What should I say ?)。

图片

图 2 人机对话系统简介1.2. “无学问,不对话”人机对话都是鉴于学问构建起来的,即“无学问,不对话”。目前的对话系统大概可以分为三个类别,包括对话、问答和闲聊。对话主要是指义务型对话,通过具体的业务流程学问来构建,围绕一个流程完成某个具体的义务;问答根据学问形态的不同,分为了很多种,比如鉴于学问图谱的问答(KBQA)、鉴于表格或者数据库的问答(TableQA)、鉴于文档的问答(DocQA)等;闲聊主要是利用一些开放域学问,完成与人类的聊天等。除此之外,所有的对话都可能会依赖人类标注的学问、世界学问和各种常识等。

图片

图 3 无学问不对话,学问是对话系统的基础举个例子,比如在办理汽车保险的场景中,相关的多轮对话受业务逻辑流程约束的:首先需要验证个人信息,然后系统调用验收报告,如果验收报告通过,接下来就要填写保单,最终完成保险的办理;如果验车不通过,需要反馈给用户原因,最终完成整个对话的流程。在这个例子中,对话流程体现的是业务流程学问;需要验证的个人信息包括姓名等,依赖于世界学问,比如姓名中的“弓长张木子李”;最后,这个项目如果想达到交付效果要求,还需要标注训练样本训练模型,这里面就包含人工标注学问1.3. 预训练对话模型近些年来,预训练模型引爆了 NLP 的技术变革,比如 BERT[1]、GPT[2]、T5[3] 等。这些模型鉴于自监视的训练方式(MLM)在大规模无监视语料上从事进修,而其背后的本质是语言模型(Language Model),回答什么样的句子更像一个合理的句子。典型的预训练语言模型主要由三个主要组件构成 :(1) 海量的自由文本作为输入 (2)利用 Transformer [4] 网络架构作为模型 (3)通过自监视的预训练目标 MLM 作为优化目标。 

图片图 4 预训练语言模型及其组成

但是对话数据和普通文本数据有非常显著的差异,相比于普通的文本数据,对话作为语言的高级应用,至少有如下的特点:对话是口语化的,人在对话的时候表述随意,也不一定符合语法,可能存在噪音及 ASR 错误;对话是分角色多轮次的,至少有两个参与主题,轮次间存在省略、指代、状态继承等特点;对话都存在垂直的学问约束;对话需要深层语义明白,比如涉及到意图槽位,逻辑推理等;对话是讲究计谋的,为了完成特定的义务目标,模型需要知道自己该如何决策。直接利用预训练语言模型作为对话模型的基座存在天然的不适配,我们需要针对对话的数据及特点,设计独特的对话预训练模型,来增强对话系统的效果。从 2020 年开始,面向对话的专用预训练对话模型开始涌现。目前预训练对话模型的建模,基本按照对话明白和对话天生两大义务类从事建模,利用类似于 BERT 或者 GPT-2 的 loss 在对话语料上从事预训练。例如,针对话明白,常见模型有 PolyAI 的 ConvRT [5],Salesforce 的 TOD-BERT[6]和亚马逊的 ConvBERT[7],针对对话天生,常见模型有微软的 DialoGPT [8],谷歌的 Meena[9]和 Meta 的 Blender[10]。这些预训练对话模型仍然存在很多不足:数据上,大部分只用了开放域数据;模型上,大多只面向回复天生从事建模;训练机制上,只利用了自监视预训练目标。综上,一方面,无学问不对话,学问是对话的基础;另一方面,预训练对话模型对于对话系统是刚需。鉴于此,我们希望在数据和学问双驱动的预训练对话模型方向上从事深入探索。2. SPACE-1: 从 自监视训练 到 半监视训练2.1. 从自监视到半监视如何向模型中注入标注学问依旧是一个尚未充分探索的方向。早期工作中,谷歌的 T5 就已经尝试了将有标和无标数据统一成语言天生义务从事进修,但是实验却表明简单地混合有标无标数据训练反而会带来负面影响。经过大量的实验探索,我们发现如果还是鉴于原先的两大预训练范式,难以很好地从事预训练。首先,单利用自监视预训练或者有监视预训练是无法同时利用好有标和无标的预训练数据,仅自监视损失函数是无法进修出标注学问中的高层语义的,有监视损失函数亦不能学出无标语料中的通用底层语义;其次,在大规模预训练中,由于所使用的预训练数据往往存在着少量有标数据和海量无标数据之间的数量鸿沟,如果简单混合两种预训练,会使得标注学问的信息要么淹没在无标数据中,要么就会出现严重的过拟合,因此我们需要全新的预训练范式来解决该问题。鉴于上述动机,我们期待能够通过一种新的训练方式,将人类学问注入到预训练对话模型中。这里我们提出半监视预训练对话模型 SPACE (Semi-supervised Pre-trAined Conversation ModEl) 。如下图所示,半监视预训练从迁移进修的角度来看,可以认为是一个前两种范式的自然延伸,通过构造半监视进修的损失函数来充分综合利用有限的标注学问和大量的无标数据。在半监视进修理论里 [11],模型既需要在无标数据上从事自我推断,根据结果进一步约束优化,也需要利用有标数据从事一定程度的有监视,指导自监视预训练的过程,同时避免模型参数陷入平凡解。

图片

图5 三种预训练方式:有监视、自监视及半监视,参考[16]修改 如下图所示,传统的半监视进修主要是通过无标注数据来辅助有标注数据,从而减少进修所需要的标注样本量。而我们关注的不再是如何降低对标注数据量的依赖,而是如何更加高效地融入特定标注学问。

图片图 6 我们提出的半监视预训练与之前半监视的不同点

半监视预训练是我们 SPACE 系列模型的核心思路,鉴于这个思路,我们该从哪个方向从事探索呢?当前的预训练对话模型主要可以分为对话明白、对话计谋、对话天生几个方向,对话明白和对话天生都有一些相关的工作了,而对话计谋的研究却比较薄弱,但对话计谋又是连接对话明白和对话天生的核心环节,它指导着对话天生的正确性,同时对于多轮对话能否完成目标(对话完成率)也至关重要。所以我们先从对话计谋从事入手,将计谋学问注入到预训练对话模型中。

图片图 7 针对对话计谋的预训练对话模型还处于空白

2.2. 对话计谋学问什么是对话计谋呢?对话计谋最早是 1995 年在语言学被提出,用来对人类的语言交流从事行为建模的,将对话动机或者对话行为抽象为具体的类型,在 wiki 百科中的解释为 “A dialog act is a tag for an utterance, in the context of a conversational dialog, that serves a function in the dialog”。随着领域的发展,人机对话也开始采取这种标签体系,称之为 dialog act (DA),比如哥伦比亚大学的 Zhou Yu 老师团队提出以用户为中心的 DA 体系,一共 23 个 DA 标签,凭借这套对话计谋的标签,拿下了当年的 Alexa Prize 的冠军,证明了这种计谋学问对于人机对话义务也是非常重要的。

图片

图 8 对话计谋(Dialog Act)的发展历史但是目前的 DA 标注体系都比较零散,每个研究的标注体系都不相同,毕竟用一个小规模的、具体的集合来描述整个人类的语言描述,还是非常有挑战的。为了推进这个方向的研究,我们将学术界面向义务型对话的计谋体系从事了整合,最终梳理出 5 大类、20 小类的统一标签体系。最终我们打造出最大的统一 DA 的对话数据集 UniDA,共计 100w 条 utterance,同时我们还整理了学术界所有的大规模无标注语料 UniDIal,共计 3500w 条 utterance

图片

图 9 我们总结出的 DA 体系,鉴于此梳理发布了学术界最大的统一 DA 的对话数据集 UniDA目前我们已经整理好了用于预训练的学问和数据,接下来需要考虑如何设计模型。首先我们将对话计谋从事显式建模,给定对话历史,直接预测下一轮系统端的 DA 标签。比如下面这个例子,用户首先说 “帮我查一下上个月的水费”,机器人说“好的,请问你的户号是多少?” 然后这个用户就会把他的水卡的号说出来。那么再下一句,机器人应该说什么呢?我们要预测机器人的这个对话计谋,就是选择继续询问,或者选择回答信息,还是要从事澄清,这些行为就是模型就要预测机器人的这个对话计谋。那么这样一个预测的过程,可以直接建模为分类问题从事处理。

图片

图 10 对话计谋的建模方式2.3. 半监视预训练如何将这个分类问题从事半监视训练呢?目前学界对于半监视的利用主要分为 3 种:鉴于判别式的方法,比如 self-prediction、co-training 等;鉴于天生式的方法,比如 VAE、GAN 等,还有鉴于对照进修的方法,比如 有负样本的对照和无负样本的对照。其中,在我们的实验中,鉴于判别式(self-prediction)和天生式(VAE)由于缺乏显式的 loss 约束及隐变量的不确定性,效果都不尽人意。

图片

图 11 NLP 中常用的半监视方法我们最后选择鉴于对照进修的半监视训练方法。具体的,针对无标对话数据,我们采用了 R-drop[12] 的思路,如下图所示,给定同样的对话输入 c(context),经过两次带有 dropout 的 forward 得到了两次经过随机扰动后在对话动作空间 (DA)上预测的不同分布,然后通过双向 KL 正则损失函数(L_KL)来约束两个分布。针对有标对话数据,我们则直接利用基础的有监视交叉熵 loss(L_DA)来优化对话动作预测。理论可以证明,在满足低密度假设下(即分类边界处于低密度分布),通过对同一个样本从事扰动后分类结果仍然具备一定程度上的一致性 (即分布接近或预测结果接近),那么最终鉴于一致性正则的半监视进修可以保证找到正确的分类面。最终模型的预训练损失将和回复选择义务(L_select)和回复天生义务(L_gen)从事联合优化。

图片

图 12 半监视 Loss 设计2.4. SAPCE-1 结果最终 SPACE-1 借助半监视注入计谋学问的能力,在这些经典的对话榜单上均大幅超过了之前的 SOTA 模型,端到端混合分数在 In-Car,MultiWOZ2.0 和 MultiWOZ2.1 分别提升 2.5、5.3 和 5.5 个点

图片

图 13 SPACE-1 在 MultiWoz 2.0 等数据集上带来显著提升以上的结果充分证明了半监视预训练的效果。进一步详细分析如下图所示,Success 是对话完成率指标,BLEU 是对话天生指标,对话计谋对于这两个指标有重要影响,注入对话计谋学问后的大模型,在这两个这两个指标上带来了显著提升。

图片

图 14 SPACE-1 效果详细分析3. SPACE-2:从封闭集学问到开放集学问3.1. 开放集学问SAPCE-1 主要将对话计谋学问注入到预训练模型的过程中,但是仍然存在一些局限,首先 DA 标签体系比较简单,因为只有 20 个类别;其次,DA 的标签体系是一个封闭集,虽然对于人机对话是非常重要的,但从学问的角度来看,仍然是比较简单。对于整个对话系统来说,语言明白所涉及的学问会更加复杂,比如一个 query “市中心有什么好吃的吗?”,首先这句话有意图信息(找餐馆),其次对于餐馆位置等属性一般作为是槽位信息。在广泛的对话场景下,对于意图和槽位的人类标注,其实也可以看做学问的一种形态。所以我们希望 SPACE-2 能完成从简单封闭集学问到复杂开放集学问的跃迁,很好的利用已有的标注数据。

图片

图 15 两种学问形态:简单的封闭集学问和复杂的开放集学问3.2. 语义树标签沿着这个思路,我们首先要解决一个难点,已有的复杂开放集学问不是一个简单的封闭集合的分类义务,不同数据集的体系更加复杂不一致。我们通过提出语义树结构对所有义务型对话数据集的用户侧明白标签从事统一,从 domaim、intent、slot、value 等四个层次从事树状标签的构建。比如对于 query “附近有好吃的川菜馆吗”,其 domain 为 restaurant,intent 是查找餐厅,slot 是菜系,value 是川菜,就可以完成一颗语义树的构建。利用这个思路,我们整合学术界已有的 32 个有标对话数据,提出 AnPreDial(300 万) ,同时整合已有的 19 个无标对话数据,提出 UnPreDial(1900 万),作为 SPACE-2 的预训练数据。

图片

图 16 语义树标签3.3. 半监视对照进修与 SPACE-1 类似,我们仍然采用半监视对照进修的思路从事学问注入,有标注样本采用有监视对照进修,无标注样本采用自监视对照进修。而对于有监视对照进修,当前的语义树学问不是独热(one-hot)的,而是可度量的相似度标签。比如 query A 表达的是“能不能帮我在城东找一家比较便宜的宾馆”,而 query B 表达的是“你能不能在城西帮忙找一家便宜的宾馆”,这两句话的语义树标签之间的相似度是可度量的,具体的度量方式我们通过两个 query 标签解析出的语义树从事计算,将语义数按照节点和路径的组合,拆分为 10 种不同的情况 {D, I, S, V, DI, IS, SV, DIS, ISV, DISV} 其中 D 表示 domain,I 表示 intent,S 表示 slot,V 表示 value。最终按照路径和节点的重合程度,计算 Jaccard 距离作为 soft label 值,最终作为半监视进修的标签。

图片

图 17 语义树相似度度量因为两个样本之间,可能只有部分是相似的,所以根据语义树的特点,我们进一步提出了 Multi-view scoring 的进修计谋,在最后预测的过程中加入不同子空间的映射矩阵,用不同子空间对部分相似的样本从事显式建模。

图片

 图 18 采用多视角(Multi-View)分别对不同的子结构从事显式建模通过这种计谋,可以通过 soft label 度量 batch 内任意两个样本的相似度,最后通过 weighted 对照进修的方式从事优化。下图可以看出,相比于自监视的对照进修(自己和自己作为正例,batch 内其他样本作为负例)和全监视的对照进修(正负标签作为对照进修标签),SPACE-2 鉴于树结构的半监视对照进修方式,既能有效的利用标注信息,又能很弹性的退化为自监视对照进修,非常适合对话明白义务。

图片

图 19 鉴于树结构的半监视对照进修3.4. SPACE-2 结果SPACE-2 在面向对话明白的榜单 DialoGLUE 上(意图识别、填槽、对话跟踪)全量测试和小样本测试总分均为第一,其中在全量测试上,SPACE-2 相比之前的 SOTA 提升 1.1%,在小样本测试上,SPACE-2 相比之前的 SOTA 提升 3.41,由此可以证明开放集学问对于对话明白的增益。

图片

图 20 SPACE-2 注入了对话明白学问,在对话明白榜单 DialoGLUE 取得 full-data 和 few-shot 双榜单第一名4. SPACE-3: 从单模块建模到一体化建模面向单模块的预训练模型存在几个问题:首先,模型的泛化性有限,无法很好的泛化到其他对话义务中,比如面向对话明白的模型很难再对话计谋上有很好的效果;对话义务具有流程型和时序性,明白 -> 计谋 -> 天生是有先后顺序及相辅相成的,同时建模多个义务将能更充分的挖掘数据特征;不同义务的标签学问如果能够同时以半监视的方式注入到预训练模型中 ,标注信息的增多,对于模型的优化也更有帮助。为了克服这些问题,所以我们提出了 SPACE-3,希望将对话明白、对话计谋、对话天生都统一到一个预训练对话模型中。4.1. 一体化模型我们换个角度来看人机对话,首先多轮对话是流动的,是对话双方不停地从事交互,但之前的预训练对话模型都是从单侧(用户侧 or 系统侧)从事建模,没有考虑他们之间相互的影响。另外,语义树是对用户侧的语言(utterance)从事明白的,DA 是对系统侧的语言(response)从事明白的,那么就可以将明白学问和计谋学问从事双侧明白统一建模。

图片

图 21 换个角度看人机对话鉴于这个思路,我们希望能够模拟人类对话的思考路径,通过三个 Decoder 依次做明白、计谋和天生,中间的结果可以用在各类对话下游义务上。在模型技术选型上,我们采取 UniLM 作为 backbone,将 1 Encoder + 1 Decoder 扩展为 1 Encoder + 3 Decoder 的结构,其中 Dialog Encoder 作为基础编码器通过 MLM loss 完成基础语言明白,而三个 Decoder 各司其职,Understanding Decoder 通过半监视对照进修从事对话明白,Policy Deocder 通过语义计谋正则 loss 从事对话计谋建模,最后 Response Decoder 通过传统的天生 loss 从事对话天生。

图片

图 22 SPACE-3 模型架构4.2. 双侧明白建模计谋 loss 的设计体现了我们对双侧明白的思想,首先在用户侧时刻,根据上下文和用户 utterance,经过 Policy Decoder 的预测的结果,和直接利用 Understanding Decoder 对下一轮 response 明白的结果,二者具有一致性。比如在下面的例子中,当模型接受 U1 + R1 + U2 为 context 的输入时 Policy Decoder 模块的结果,需要与 U1 + R1 + U2 + R2 为 context 的输入时 Understanding Decoder 模块的结果从事一致性约束,来引导模型对计谋从事建模。 

图片

图 23 计谋 LOSS 建模示例同样的,在用户侧时刻,根据上下文和系统 response,经过 Policy Decoder 的预测的结果,和直接利用 Understanding Decoder 对用户 utterance 明白的结果,二者具有一致性。当模型接受 U1 + R1 + U2 + R2 为 context 的输入时 Policy Decoder 模块的结果,需要与 U1 + R1 + U2 + R2 + U3 为 context 的输入时 Understanding Decoder 模块的结果从事一致性约束,来引导模型对计谋从事建模。

图片

图 24 计谋 LOSS 建模示例4.3. SPACE-3 结果最后,我们同时在对话明白义务、对话计谋义务和对话天生义务上同时评测了 SPACE-3 的效果,在包含明白、计谋和天生的 8 个数据集的综合评价上,取得当前最好效果。

图片

图 25 SPACE-3 模型结果5. SPACE-1/2/3 系列模型总结这一年多来,我们通过提出半监视预训练新范式,向预训练对话模型中注入人类标注学问,打造了 SPACE 系列模型,共在 11 个国际对话数据集取得 SOTA,并且三个工作分别侧重对话计谋、对话明白及统一建模。相关的论文已经被顶级会议接收。其中,SPACE-1 融合对话计谋学问,被 AAAI 2020 录用;SPACE-2 融合对话明白学问,被 COLING 2022 录用;SPACE-3 集明白、计谋、天生一体,被 SIGIR 2022 录用。

图片

图 26 SPACE 1/2/3 系列模型6. 未来展望拓展更多义务:半监视预训练作为一个通用的预训练技术, 不仅可以用于对话义务,对于更多的 NLP 义务, 甚至其他模态的义务都有应用的潜力;融入更多学问:本文中我们对分类标注学问和树形语义学问做了探索,除此之外还有很多其他学问形态,如何从事更好的形式化表示,统一地融入到一个预训练模型中也是一个开放问题;设计更好算法:目前的探索是鉴于一致性正则化的半监视预训练方案,但整个半监视领域还有 self-taught, co-training, deep generative modeling 等诸多方法,如何综合利用或设计更优的算法是一个重要研究课题;放松数据约束:半监视进修要求标注数据和无标数据具有类似的数据分布,这一要求在真实场景中具有局限性,如何设计泛化性更强的半监视进修方法,放松对于无标数据分布的假设,是未来的一个发展方向。特别鸣谢灵骏为本项目提供智能算力支持,显著性加速了 SPACE 大规模预训练过程。灵骏是阿里云自主研发的新一代智能计算服务,以软硬件一体的系统性创新优化,使端到端计算效率得到飞跃式升级。支持自然语言处理、图形图像识别、搜索广告推荐等多种应用场景,具备高性能、高效率、高资源利用率等核心优势,可为大模型等前沿 AI 技术提供高拓展可预期的计算服务。参考文献[1] Devlin J, Chang M W, Lee K, et al.  BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL 2019.[2] Brown T, Mann B, Ryder N, et al. Language Models are Few-Shot Learners. NeurIPS 2020.[3] Raffel et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer.  JMLR 2020.[4] Vaswani A, Shazeer N, Parmar N, et al. Attention Is All You Need.  NeurIPS 2017.[5] Henderson M, Casanueva I, Mrkšić N, et al. Convert: Efficient and accurate conversational representations from transformers. EMNLP-findings 2019.[6] Wu C S, Hoi S, Socher R, et al. TOD-BERT: pre-trained natural language understanding for task-oriented dialogue. EMNLP 2020.[7] Zihang Jiang, Weihao Yu, Daquan Zhou, et al. ConvBERT: Improving BERT with Span-based Dynamic Convolution. NeurIPS 2020.[8] Zhang Y, Sun S, Galley M, et al. DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation. ACL system demonstration 2020.[9] Adiwardana D, Luong M T, So D R, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020.[10] Roller S, Dinan E, Goyal N, et al. Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637, 2020.[11] Xiaojin Jerry Zhu. Semi-supervised learning literature survey. 2005.[12] Liang X, Wu L, Li J, et al. R-Drop: Regularized Dropout for Neural Networks. NeurIPS 2021.[13] He W, Dai Y, Zheng Y, et al. SPACE: A Generative Pre-trained Model for Task-Oriented Dialog with Semi-Supervised Learning and Explicit Policy Injection. AAAI 2022.[14] He W, Dai Y, Hui B, et al. SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding. COLING 2022.[15] He W, Dai Y, Yang M, SPACE-3: Unified Dialog Model Pre-training for Task-Oriented Dialog Understanding and Generation. SIGIR 2022.[16] Xu H, Zhengyan Z, Ning D, et al. Pre-Trained Models: Past, Present and Future [J]. arXiv preprint arXiv:2106.07139, 2021.

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/ru-he-xiang-da-mo-xing-zhu-ru-xue-wen-da-mo-yuan-tong-yi/

(0)
上一篇 2022年 10月 9日 下午6:07
下一篇 2022年 10月 12日 下午4:13

相关推荐

  • 我,波士顿能源的机器人工程师,这是我的一天

    波士顿能源大家都很熟悉,但该公司员工的任务和生活却很少有人了解。特别是新冠疫情在美国的蔓延,员工的日常任务和生活不可避免地受到了影响。本文就带大家看看波士顿能源的员工如何度过自己的一天。

    2021年 5月 27日
  • baidu出席AI顶会IJCAI2020,学术创新成果全球领先

    近日,人工智能国际联合会议IJCAI2020受疫情影响延期后,顺利在线上举行。IJCAI(International Joint Conference on Artificial Intelligence)始于1969年,现为每年一次,学术水平和影响力极高,受到全球学术界和产业界高度关注。据知,IJCAI2020是史上最难的一届,论文接受率12.6%创历史最低;其中,baidu不仅贡献多篇优质论文,涵盖众多前沿领域,更有线上展台技术讲座,分享交流最新的学术突破。值得一提的是,baidu研究院量子盘算研究所所长段润尧还在会上发表

    2021年 1月 19日
  • 揭秘Hologres如何支持超高QPS在线办事(点查)场景

    Hologres(中文名交互式分解)是阿里云自研的一站式及时数仓,这个云原生系统融合了及时办事和分解大数据的场景,全面兼容PostgreSQL协定并与大数据生态无缝打通,能用同一套数据架构同时支持及时写入及时盘问以及及时离线联邦分解。它的出现简化了业务的架构,为业务提供及时决策的能力,让大数据发挥出更大的商业价值。本期将为大家揭秘Hologres如何支持超高QPS点查。传统的 OLAP 系统在业务中往往扮演着比较静态的角色,以通过分解海量的数据得到业务的洞察(比如说预计算好的视图、模型等),从这些海量数据分解到的结

    2021年 7月 29日
  • 哪家公司、哪位学者本年NeurIPS中稿最多?这里有一份统计报告

    NeurIPS 2021 论文接纳结果已经公布,有位顶会数据挖掘爱好者对此进行了分析,分析数据包括积年投稿量统计、集体中稿量排行、公司中稿量排行等。全球人工智能顶会 NeurIPS 2021 将于 12 月 6 日至 14 日在线上举办。前段时间,大会民间放出了本年的论文接纳列表。据大会民间统计,本年 NeurIPS 共有 9122 篇有效论文投稿,总接纳率 26%,只有 3% 被接纳为 Spotlight 论文。当然,除了接纳率之外,民间披露的数据中还有其他一些有趣的信息。最近,热衷于顶会数据挖掘的 Criteo

    2021年 11月 4日
  • HAOMO AI DAY官宣定档,年末AI主动驾技术盛筵即将上演

    今日好消息,毫末智行HAOMO AI DAY定档12月23日! 特斯拉AI DAY后,中国AI主动驾驭领域也有了自己的AI主动驾驭技术盛筵!在即将过去的2021年中,毫末智行惊喜不断,三次品牌开放日接连带来Pre-A轮融资、全球首个L4无人车工厂、主动驾驭三定律、NOH 智慧领航辅佐驾驭零碎、全球算力最高的可量产主动驾驭计算平台ICU3.0等众多惊爆人眼球的业务及产品发布,特别是辅佐驾驭用户行驶里程仅150天即突破200万公里、辅佐驾驭零碎3年落地乘用车超100万台的成绩及目标,更是让人们看到了主动驾驭技术大规模量

    2021年 12月 14日
  • 冰鉴科技完成2.28亿元C2轮融资,国创中鼎领投

    上海冰鉴信息科技有限公司(以下简称冰鉴科技)近日宣布完成2.28亿元C2轮融资,该轮融资由国创中鼎领投,东方富海、曦域资本跟投。投中资本担任C2轮独家投资顾问。2020年底冰鉴科技宣布完成C1轮投资,C1和C2合称为C轮融资。本轮融资主要用于扩展研发团队,对上下游进行投资并购,以及完善公司生态建设和业务版图。冰鉴科技是一家利用人工智能手艺提供企业级效劳的高科技公司。经过近六年的发展,已成长为人工智能企业效劳畛域尤其是风控畛域的领军企业。同时,以金融行业效劳为根基,冰鉴科技不竭拓展人工智能运用边界,将领先的核心手艺转

    2021年 4月 12日
  • 斯坦福《决议计划算法》教科书更新2022版,700页PDF开放下载

    这本书体系介绍了不确定性情况下的决议计划算法,作家已将册本内容重新修订,发布了 700 页的最新版。

    2022年 5月 12日
  • 阿里开源 反对10万亿模型的自研分布式训练框架EPL(Easy Parallel Library)

    最近阿里云机器学习PAI平台和达摩院智能估计实验室一起发布“低碳版”巨模型M6-10T,模型参数已经从万亿跃迁到10万亿,规模远超业界此前发布的万亿级模型,成为当前全球最大的AI预训练模型。

    2022年 3月 30日
  • 环球首个隐衷较量争论一体机国际尺度宣布,中国企业主导

    近日,IEEE 尺度协会(IEEE-SA)正式宣布并推行了由我国企业主导的环球首个隐衷较量争论一体机国际尺度《隐衷较量争论一体机技巧要求》(IEEE 3156-2023)。IEEE-SA是权威国际尺度订定机构,该尺度的成功宣布意味着中国的隐衷较量争论技巧与应用摸索受到国际高度认可,可为环球提供参照方案。(图:IEEE尺度协会官网宣布“隐衷较量争论一体机技巧要求”国际尺度)隐衷较量争论一体机作为隐衷较量争论产业落地的重要技巧摸索,通过软硬件结合方式构建从硬件、固件、操作系统到应用软件的一站式隐衷爱护较量争论解决方案,提供

    2024年 3月 1日

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注