如何向大模型注入学问?达摩院通义对话模型SPACE系列探索

如何将人类先验学问低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种鉴于半监视预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起从事预训练,从而把标注数据中蕴含的学问注入到预训练模型中去,打造了 SPACE 1/2/3 系列模型。SPACE-1:注入对话计谋学问,AAAI 2022 长文录用;SPACE-2:注入对话明白学问,COLING 2022 长文录用,并获 best paper award 推荐;SPACE-3:集对话明白 + 对话计谋 + 对话天生于一体的模型, SIGIR 2

如何将人类先验学问低成本融入到预训练模型中一直是个难题。达摩院对话智能团队提出了一种鉴于半监视预训练的新训练方式,将对话领域的少量有标数据和海量无标数据一起从事预训练,从而把标注数据中蕴含的学问注入到预训练模型中去,打造了 SPACE 1/2/3 系列模型SPACE-1:注入对话计谋学问,AAAI 2022 长文录用;SPACE-2:注入对话明白学问,COLING 2022 长文录用,并获 best paper award 推荐;SPACE-3:集对话明白 + 对话计谋 + 对话天生于一体的模型, SIGIR 2022 长文录用。达摩院对话大模型 SPACE-1/2/3 在 11 个国际对话数据集取得 SOTA。

图片

图 1 SPACE 系列模型在 11 个国际对话数据集取得 SOTA,包含 Intent Prediction、Slot Filling、Dialog State Tracking、Semantic Parsing、End-to-End Generation 五大类对话义务相关论文:SPACE-1: https://arxiv.org/abs/2111.14592SPACE-2: https://arxiv.org/abs/2209.06638SPACE-3: https://arxiv.org/abs/2209.06664相关代码:https://github.com/AlibabaResearch/DAMO-ConvAI1. 关于人机对话和预训练模型的简介1.1. 什么是人机对话?人机对话的终极目的是让机器(对话系统)和人类(用户)能像人和人一样从事自由的对话。通常来说,对话系统和人类的对话过程主要分为三个主要阶段,分别是对话明白(Understanding)、对话计谋(Policy)和对话天生(Generation)。如下图所示,当用户说了一句 "查询水费",对话系统首先要明白用户说的是什么意思(What do you say ?),然后要根据明白的结果,需要判断自己该如何去回答(How Shold I say ?),第三步要通过自然语言的方式返回给用户(What should I say ?)。

图片

图 2 人机对话系统简介1.2. “无学问,不对话”人机对话都是鉴于学问构建起来的,即“无学问,不对话”。目前的对话系统大概可以分为三个类别,包括对话、问答和闲聊。对话主要是指义务型对话,通过具体的业务流程学问来构建,围绕一个流程完成某个具体的义务;问答根据学问形态的不同,分为了很多种,比如鉴于学问图谱的问答(KBQA)、鉴于表格或者数据库的问答(TableQA)、鉴于文档的问答(DocQA)等;闲聊主要是利用一些开放域学问,完成与人类的聊天等。除此之外,所有的对话都可能会依赖人类标注的学问、世界学问和各种常识等。

图片

图 3 无学问不对话,学问是对话系统的基础举个例子,比如在办理汽车保险的场景中,相关的多轮对话受业务逻辑流程约束的:首先需要验证个人信息,然后系统调用验收报告,如果验收报告通过,接下来就要填写保单,最终完成保险的办理;如果验车不通过,需要反馈给用户原因,最终完成整个对话的流程。在这个例子中,对话流程体现的是业务流程学问;需要验证的个人信息包括姓名等,依赖于世界学问,比如姓名中的“弓长张木子李”;最后,这个项目如果想达到交付效果要求,还需要标注训练样本训练模型,这里面就包含人工标注学问1.3. 预训练对话模型近些年来,预训练模型引爆了 NLP 的技术变革,比如 BERT[1]、GPT[2]、T5[3] 等。这些模型鉴于自监视的训练方式(MLM)在大规模无监视语料上从事进修,而其背后的本质是语言模型(Language Model),回答什么样的句子更像一个合理的句子。典型的预训练语言模型主要由三个主要组件构成 :(1) 海量的自由文本作为输入 (2)利用 Transformer [4] 网络架构作为模型 (3)通过自监视的预训练目标 MLM 作为优化目标。 

图片图 4 预训练语言模型及其组成

但是对话数据和普通文本数据有非常显著的差异,相比于普通的文本数据,对话作为语言的高级应用,至少有如下的特点:对话是口语化的,人在对话的时候表述随意,也不一定符合语法,可能存在噪音及 ASR 错误;对话是分角色多轮次的,至少有两个参与主题,轮次间存在省略、指代、状态继承等特点;对话都存在垂直的学问约束;对话需要深层语义明白,比如涉及到意图槽位,逻辑推理等;对话是讲究计谋的,为了完成特定的义务目标,模型需要知道自己该如何决策。直接利用预训练语言模型作为对话模型的基座存在天然的不适配,我们需要针对对话的数据及特点,设计独特的对话预训练模型,来增强对话系统的效果。从 2020 年开始,面向对话的专用预训练对话模型开始涌现。目前预训练对话模型的建模,基本按照对话明白和对话天生两大义务类从事建模,利用类似于 BERT 或者 GPT-2 的 loss 在对话语料上从事预训练。例如,针对话明白,常见模型有 PolyAI 的 ConvRT [5],Salesforce 的 TOD-BERT[6]和亚马逊的 ConvBERT[7],针对对话天生,常见模型有微软的 DialoGPT [8],谷歌的 Meena[9]和 Meta 的 Blender[10]。这些预训练对话模型仍然存在很多不足:数据上,大部分只用了开放域数据;模型上,大多只面向回复天生从事建模;训练机制上,只利用了自监视预训练目标。综上,一方面,无学问不对话,学问是对话的基础;另一方面,预训练对话模型对于对话系统是刚需。鉴于此,我们希望在数据和学问双驱动的预训练对话模型方向上从事深入探索。2. SPACE-1: 从 自监视训练 到 半监视训练2.1. 从自监视到半监视如何向模型中注入标注学问依旧是一个尚未充分探索的方向。早期工作中,谷歌的 T5 就已经尝试了将有标和无标数据统一成语言天生义务从事进修,但是实验却表明简单地混合有标无标数据训练反而会带来负面影响。经过大量的实验探索,我们发现如果还是鉴于原先的两大预训练范式,难以很好地从事预训练。首先,单利用自监视预训练或者有监视预训练是无法同时利用好有标和无标的预训练数据,仅自监视损失函数是无法进修出标注学问中的高层语义的,有监视损失函数亦不能学出无标语料中的通用底层语义;其次,在大规模预训练中,由于所使用的预训练数据往往存在着少量有标数据和海量无标数据之间的数量鸿沟,如果简单混合两种预训练,会使得标注学问的信息要么淹没在无标数据中,要么就会出现严重的过拟合,因此我们需要全新的预训练范式来解决该问题。鉴于上述动机,我们期待能够通过一种新的训练方式,将人类学问注入到预训练对话模型中。这里我们提出半监视预训练对话模型 SPACE (Semi-supervised Pre-trAined Conversation ModEl) 。如下图所示,半监视预训练从迁移进修的角度来看,可以认为是一个前两种范式的自然延伸,通过构造半监视进修的损失函数来充分综合利用有限的标注学问和大量的无标数据。在半监视进修理论里 [11],模型既需要在无标数据上从事自我推断,根据结果进一步约束优化,也需要利用有标数据从事一定程度的有监视,指导自监视预训练的过程,同时避免模型参数陷入平凡解。

图片

图5 三种预训练方式:有监视、自监视及半监视,参考[16]修改 如下图所示,传统的半监视进修主要是通过无标注数据来辅助有标注数据,从而减少进修所需要的标注样本量。而我们关注的不再是如何降低对标注数据量的依赖,而是如何更加高效地融入特定标注学问。

图片图 6 我们提出的半监视预训练与之前半监视的不同点

半监视预训练是我们 SPACE 系列模型的核心思路,鉴于这个思路,我们该从哪个方向从事探索呢?当前的预训练对话模型主要可以分为对话明白、对话计谋、对话天生几个方向,对话明白和对话天生都有一些相关的工作了,而对话计谋的研究却比较薄弱,但对话计谋又是连接对话明白和对话天生的核心环节,它指导着对话天生的正确性,同时对于多轮对话能否完成目标(对话完成率)也至关重要。所以我们先从对话计谋从事入手,将计谋学问注入到预训练对话模型中。

图片图 7 针对对话计谋的预训练对话模型还处于空白

2.2. 对话计谋学问什么是对话计谋呢?对话计谋最早是 1995 年在语言学被提出,用来对人类的语言交流从事行为建模的,将对话动机或者对话行为抽象为具体的类型,在 wiki 百科中的解释为 “A dialog act is a tag for an utterance, in the context of a conversational dialog, that serves a function in the dialog”。随着领域的发展,人机对话也开始采取这种标签体系,称之为 dialog act (DA),比如哥伦比亚大学的 Zhou Yu 老师团队提出以用户为中心的 DA 体系,一共 23 个 DA 标签,凭借这套对话计谋的标签,拿下了当年的 Alexa Prize 的冠军,证明了这种计谋学问对于人机对话义务也是非常重要的。

图片

图 8 对话计谋(Dialog Act)的发展历史但是目前的 DA 标注体系都比较零散,每个研究的标注体系都不相同,毕竟用一个小规模的、具体的集合来描述整个人类的语言描述,还是非常有挑战的。为了推进这个方向的研究,我们将学术界面向义务型对话的计谋体系从事了整合,最终梳理出 5 大类、20 小类的统一标签体系。最终我们打造出最大的统一 DA 的对话数据集 UniDA,共计 100w 条 utterance,同时我们还整理了学术界所有的大规模无标注语料 UniDIal,共计 3500w 条 utterance

图片

图 9 我们总结出的 DA 体系,鉴于此梳理发布了学术界最大的统一 DA 的对话数据集 UniDA目前我们已经整理好了用于预训练的学问和数据,接下来需要考虑如何设计模型。首先我们将对话计谋从事显式建模,给定对话历史,直接预测下一轮系统端的 DA 标签。比如下面这个例子,用户首先说 “帮我查一下上个月的水费”,机器人说“好的,请问你的户号是多少?” 然后这个用户就会把他的水卡的号说出来。那么再下一句,机器人应该说什么呢?我们要预测机器人的这个对话计谋,就是选择继续询问,或者选择回答信息,还是要从事澄清,这些行为就是模型就要预测机器人的这个对话计谋。那么这样一个预测的过程,可以直接建模为分类问题从事处理。

图片

图 10 对话计谋的建模方式2.3. 半监视预训练如何将这个分类问题从事半监视训练呢?目前学界对于半监视的利用主要分为 3 种:鉴于判别式的方法,比如 self-prediction、co-training 等;鉴于天生式的方法,比如 VAE、GAN 等,还有鉴于对照进修的方法,比如 有负样本的对照和无负样本的对照。其中,在我们的实验中,鉴于判别式(self-prediction)和天生式(VAE)由于缺乏显式的 loss 约束及隐变量的不确定性,效果都不尽人意。

图片

图 11 NLP 中常用的半监视方法我们最后选择鉴于对照进修的半监视训练方法。具体的,针对无标对话数据,我们采用了 R-drop[12] 的思路,如下图所示,给定同样的对话输入 c(context),经过两次带有 dropout 的 forward 得到了两次经过随机扰动后在对话动作空间 (DA)上预测的不同分布,然后通过双向 KL 正则损失函数(L_KL)来约束两个分布。针对有标对话数据,我们则直接利用基础的有监视交叉熵 loss(L_DA)来优化对话动作预测。理论可以证明,在满足低密度假设下(即分类边界处于低密度分布),通过对同一个样本从事扰动后分类结果仍然具备一定程度上的一致性 (即分布接近或预测结果接近),那么最终鉴于一致性正则的半监视进修可以保证找到正确的分类面。最终模型的预训练损失将和回复选择义务(L_select)和回复天生义务(L_gen)从事联合优化。

图片

图 12 半监视 Loss 设计2.4. SAPCE-1 结果最终 SPACE-1 借助半监视注入计谋学问的能力,在这些经典的对话榜单上均大幅超过了之前的 SOTA 模型,端到端混合分数在 In-Car,MultiWOZ2.0 和 MultiWOZ2.1 分别提升 2.5、5.3 和 5.5 个点

图片

图 13 SPACE-1 在 MultiWoz 2.0 等数据集上带来显著提升以上的结果充分证明了半监视预训练的效果。进一步详细分析如下图所示,Success 是对话完成率指标,BLEU 是对话天生指标,对话计谋对于这两个指标有重要影响,注入对话计谋学问后的大模型,在这两个这两个指标上带来了显著提升。

图片

图 14 SPACE-1 效果详细分析3. SPACE-2:从封闭集学问到开放集学问3.1. 开放集学问SAPCE-1 主要将对话计谋学问注入到预训练模型的过程中,但是仍然存在一些局限,首先 DA 标签体系比较简单,因为只有 20 个类别;其次,DA 的标签体系是一个封闭集,虽然对于人机对话是非常重要的,但从学问的角度来看,仍然是比较简单。对于整个对话系统来说,语言明白所涉及的学问会更加复杂,比如一个 query “市中心有什么好吃的吗?”,首先这句话有意图信息(找餐馆),其次对于餐馆位置等属性一般作为是槽位信息。在广泛的对话场景下,对于意图和槽位的人类标注,其实也可以看做学问的一种形态。所以我们希望 SPACE-2 能完成从简单封闭集学问到复杂开放集学问的跃迁,很好的利用已有的标注数据。

图片

图 15 两种学问形态:简单的封闭集学问和复杂的开放集学问3.2. 语义树标签沿着这个思路,我们首先要解决一个难点,已有的复杂开放集学问不是一个简单的封闭集合的分类义务,不同数据集的体系更加复杂不一致。我们通过提出语义树结构对所有义务型对话数据集的用户侧明白标签从事统一,从 domaim、intent、slot、value 等四个层次从事树状标签的构建。比如对于 query “附近有好吃的川菜馆吗”,其 domain 为 restaurant,intent 是查找餐厅,slot 是菜系,value 是川菜,就可以完成一颗语义树的构建。利用这个思路,我们整合学术界已有的 32 个有标对话数据,提出 AnPreDial(300 万) ,同时整合已有的 19 个无标对话数据,提出 UnPreDial(1900 万),作为 SPACE-2 的预训练数据。

图片

图 16 语义树标签3.3. 半监视对照进修与 SPACE-1 类似,我们仍然采用半监视对照进修的思路从事学问注入,有标注样本采用有监视对照进修,无标注样本采用自监视对照进修。而对于有监视对照进修,当前的语义树学问不是独热(one-hot)的,而是可度量的相似度标签。比如 query A 表达的是“能不能帮我在城东找一家比较便宜的宾馆”,而 query B 表达的是“你能不能在城西帮忙找一家便宜的宾馆”,这两句话的语义树标签之间的相似度是可度量的,具体的度量方式我们通过两个 query 标签解析出的语义树从事计算,将语义数按照节点和路径的组合,拆分为 10 种不同的情况 {D, I, S, V, DI, IS, SV, DIS, ISV, DISV} 其中 D 表示 domain,I 表示 intent,S 表示 slot,V 表示 value。最终按照路径和节点的重合程度,计算 Jaccard 距离作为 soft label 值,最终作为半监视进修的标签。

图片

图 17 语义树相似度度量因为两个样本之间,可能只有部分是相似的,所以根据语义树的特点,我们进一步提出了 Multi-view scoring 的进修计谋,在最后预测的过程中加入不同子空间的映射矩阵,用不同子空间对部分相似的样本从事显式建模。

图片

 图 18 采用多视角(Multi-View)分别对不同的子结构从事显式建模通过这种计谋,可以通过 soft label 度量 batch 内任意两个样本的相似度,最后通过 weighted 对照进修的方式从事优化。下图可以看出,相比于自监视的对照进修(自己和自己作为正例,batch 内其他样本作为负例)和全监视的对照进修(正负标签作为对照进修标签),SPACE-2 鉴于树结构的半监视对照进修方式,既能有效的利用标注信息,又能很弹性的退化为自监视对照进修,非常适合对话明白义务。

图片

图 19 鉴于树结构的半监视对照进修3.4. SPACE-2 结果SPACE-2 在面向对话明白的榜单 DialoGLUE 上(意图识别、填槽、对话跟踪)全量测试和小样本测试总分均为第一,其中在全量测试上,SPACE-2 相比之前的 SOTA 提升 1.1%,在小样本测试上,SPACE-2 相比之前的 SOTA 提升 3.41,由此可以证明开放集学问对于对话明白的增益。

图片

图 20 SPACE-2 注入了对话明白学问,在对话明白榜单 DialoGLUE 取得 full-data 和 few-shot 双榜单第一名4. SPACE-3: 从单模块建模到一体化建模面向单模块的预训练模型存在几个问题:首先,模型的泛化性有限,无法很好的泛化到其他对话义务中,比如面向对话明白的模型很难再对话计谋上有很好的效果;对话义务具有流程型和时序性,明白 -> 计谋 -> 天生是有先后顺序及相辅相成的,同时建模多个义务将能更充分的挖掘数据特征;不同义务的标签学问如果能够同时以半监视的方式注入到预训练模型中 ,标注信息的增多,对于模型的优化也更有帮助。为了克服这些问题,所以我们提出了 SPACE-3,希望将对话明白、对话计谋、对话天生都统一到一个预训练对话模型中。4.1. 一体化模型我们换个角度来看人机对话,首先多轮对话是流动的,是对话双方不停地从事交互,但之前的预训练对话模型都是从单侧(用户侧 or 系统侧)从事建模,没有考虑他们之间相互的影响。另外,语义树是对用户侧的语言(utterance)从事明白的,DA 是对系统侧的语言(response)从事明白的,那么就可以将明白学问和计谋学问从事双侧明白统一建模。

图片

图 21 换个角度看人机对话鉴于这个思路,我们希望能够模拟人类对话的思考路径,通过三个 Decoder 依次做明白、计谋和天生,中间的结果可以用在各类对话下游义务上。在模型技术选型上,我们采取 UniLM 作为 backbone,将 1 Encoder + 1 Decoder 扩展为 1 Encoder + 3 Decoder 的结构,其中 Dialog Encoder 作为基础编码器通过 MLM loss 完成基础语言明白,而三个 Decoder 各司其职,Understanding Decoder 通过半监视对照进修从事对话明白,Policy Deocder 通过语义计谋正则 loss 从事对话计谋建模,最后 Response Decoder 通过传统的天生 loss 从事对话天生。

图片

图 22 SPACE-3 模型架构4.2. 双侧明白建模计谋 loss 的设计体现了我们对双侧明白的思想,首先在用户侧时刻,根据上下文和用户 utterance,经过 Policy Decoder 的预测的结果,和直接利用 Understanding Decoder 对下一轮 response 明白的结果,二者具有一致性。比如在下面的例子中,当模型接受 U1 + R1 + U2 为 context 的输入时 Policy Decoder 模块的结果,需要与 U1 + R1 + U2 + R2 为 context 的输入时 Understanding Decoder 模块的结果从事一致性约束,来引导模型对计谋从事建模。 

图片

图 23 计谋 LOSS 建模示例同样的,在用户侧时刻,根据上下文和系统 response,经过 Policy Decoder 的预测的结果,和直接利用 Understanding Decoder 对用户 utterance 明白的结果,二者具有一致性。当模型接受 U1 + R1 + U2 + R2 为 context 的输入时 Policy Decoder 模块的结果,需要与 U1 + R1 + U2 + R2 + U3 为 context 的输入时 Understanding Decoder 模块的结果从事一致性约束,来引导模型对计谋从事建模。

图片

图 24 计谋 LOSS 建模示例4.3. SPACE-3 结果最后,我们同时在对话明白义务、对话计谋义务和对话天生义务上同时评测了 SPACE-3 的效果,在包含明白、计谋和天生的 8 个数据集的综合评价上,取得当前最好效果。

图片

图 25 SPACE-3 模型结果5. SPACE-1/2/3 系列模型总结这一年多来,我们通过提出半监视预训练新范式,向预训练对话模型中注入人类标注学问,打造了 SPACE 系列模型,共在 11 个国际对话数据集取得 SOTA,并且三个工作分别侧重对话计谋、对话明白及统一建模。相关的论文已经被顶级会议接收。其中,SPACE-1 融合对话计谋学问,被 AAAI 2020 录用;SPACE-2 融合对话明白学问,被 COLING 2022 录用;SPACE-3 集明白、计谋、天生一体,被 SIGIR 2022 录用。

图片

图 26 SPACE 1/2/3 系列模型6. 未来展望拓展更多义务:半监视预训练作为一个通用的预训练技术, 不仅可以用于对话义务,对于更多的 NLP 义务, 甚至其他模态的义务都有应用的潜力;融入更多学问:本文中我们对分类标注学问和树形语义学问做了探索,除此之外还有很多其他学问形态,如何从事更好的形式化表示,统一地融入到一个预训练模型中也是一个开放问题;设计更好算法:目前的探索是鉴于一致性正则化的半监视预训练方案,但整个半监视领域还有 self-taught, co-training, deep generative modeling 等诸多方法,如何综合利用或设计更优的算法是一个重要研究课题;放松数据约束:半监视进修要求标注数据和无标数据具有类似的数据分布,这一要求在真实场景中具有局限性,如何设计泛化性更强的半监视进修方法,放松对于无标数据分布的假设,是未来的一个发展方向。特别鸣谢灵骏为本项目提供智能算力支持,显著性加速了 SPACE 大规模预训练过程。灵骏是阿里云自主研发的新一代智能计算服务,以软硬件一体的系统性创新优化,使端到端计算效率得到飞跃式升级。支持自然语言处理、图形图像识别、搜索广告推荐等多种应用场景,具备高性能、高效率、高资源利用率等核心优势,可为大模型等前沿 AI 技术提供高拓展可预期的计算服务。参考文献[1] Devlin J, Chang M W, Lee K, et al.  BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL 2019.[2] Brown T, Mann B, Ryder N, et al. Language Models are Few-Shot Learners. NeurIPS 2020.[3] Raffel et al. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer.  JMLR 2020.[4] Vaswani A, Shazeer N, Parmar N, et al. Attention Is All You Need.  NeurIPS 2017.[5] Henderson M, Casanueva I, Mrkšić N, et al. Convert: Efficient and accurate conversational representations from transformers. EMNLP-findings 2019.[6] Wu C S, Hoi S, Socher R, et al. TOD-BERT: pre-trained natural language understanding for task-oriented dialogue. EMNLP 2020.[7] Zihang Jiang, Weihao Yu, Daquan Zhou, et al. ConvBERT: Improving BERT with Span-based Dynamic Convolution. NeurIPS 2020.[8] Zhang Y, Sun S, Galley M, et al. DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation. ACL system demonstration 2020.[9] Adiwardana D, Luong M T, So D R, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020.[10] Roller S, Dinan E, Goyal N, et al. Recipes for building an open-domain chatbot. arXiv preprint arXiv:2004.13637, 2020.[11] Xiaojin Jerry Zhu. Semi-supervised learning literature survey. 2005.[12] Liang X, Wu L, Li J, et al. R-Drop: Regularized Dropout for Neural Networks. NeurIPS 2021.[13] He W, Dai Y, Zheng Y, et al. SPACE: A Generative Pre-trained Model for Task-Oriented Dialog with Semi-Supervised Learning and Explicit Policy Injection. AAAI 2022.[14] He W, Dai Y, Hui B, et al. SPACE-2: Tree-Structured Semi-Supervised Contrastive Pre-training for Task-Oriented Dialog Understanding. COLING 2022.[15] He W, Dai Y, Yang M, SPACE-3: Unified Dialog Model Pre-training for Task-Oriented Dialog Understanding and Generation. SIGIR 2022.[16] Xu H, Zhengyan Z, Ning D, et al. Pre-Trained Models: Past, Present and Future [J]. arXiv preprint arXiv:2106.07139, 2021.

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/ru-he-xiang-da-mo-xing-zhu-ru-xue-wen-da-mo-yuan-tong-yi/

(0)
上一篇 2022年 10月 9日 下午6:07
下一篇 2022年 10月 12日 下午4:13

相关推荐

  • 国内首届AI宁静大赛圆满收官,上交大、北交大、北理工等夺得三项赛道冠军

    从长远看,人工智能的宁静问题,还需从算法模型的原理上突破,唯有持续加强基础钻研,才能破解核心科学问题。

    2022年 9月 16日
  • ImageNet「众包」成就伟大数据集,「昇腾众智」创新AI开发模式

    作为人工智能社区群策群力的早期形式,「众包」成就了 ImageNet 等一批成功的数据集,也加快了整个社区的发展进程。但要构建人工智能技术开发生态,仅靠「众包」是不够的。

    2021年 3月 26日
  • 2021 Facebook 博士奖研金名单出炉:13位华人学者获选

    今年,Facebook 从来自全球百余所大学的 2163 份申请中选出了 26 位奖研金获得者,华人博士生占据半数。当地时间 4 月 22 日,Facebook 公布了 2021 年博士生奖研金(2021 PhD Fellowship)获得者的名单,共有 26 位博士生获奖,其中华人博士生占据半数,多达 13 位。Facebook 奖研金计划主要面向计算机科学与工程领域的重要主题,包括计算机视觉、编程语言等。获奖者将获得为期两个学年的学费,并获得 42000 美元的津贴,其中包括会议旅行等支持。此外,获奖者还将受邀

    2021年 4月 24日
  • Creator 面对面 | 面向对立的 AI 模型架构和进修步骤

    随着 AI 的兴起,不同规模的相关研究热火朝天,各种各样的 AI 模型框架和进修步骤扑面而来,各不相同。那么是否能有一种对立的模型架构和进修步骤来解决不同规模的不同问题呢?让我们来听听怎么看。

    2022年 7月 18日
  • 2021入坑呆板进修,有这份指南就够了

    这是一份适用于小白的呆板进修超丰富资本指南。呆板进修社区社交媒体上经常有人提出这样的问题:我如何开始呆板进修?我如何收费进修?什么是人工智能?我怎样才能学会它?人工智能是如何工作的?我该从何学起?如果我没有开发人员背景,该如何开始?……面对这些问题,油管博主 What's AI——Louis Bouchard 撰写了一份关于「如何在 2021 年零基础开始呆板进修」的完整指南,整合了大量进修资本,而且大部分是收费的。项目地点:https://github.com/louisf

    2021年 9月 22日
  • 94岁诺奖得主希格斯去世,曾预言「上帝粒子」的存留

    一名用诗意的语言揭示宇宙秘密的人。一名 94 岁平凡科学家的逝世,引发了人们广泛的哀思。4 月 10 日消息,诺贝尔物理学奖得主、著名物理学家彼得・希格斯(Peter Higgs)于周一去世,享年 94 岁。希格斯因提出希格斯玻色子也被称为「上帝粒子」而闻名。根据爱丁堡大学的一份声明我们得知(彼得・希格斯是该校的名誉退休熏陶),希格斯经历短暂的生病后,于 4 月 8 日星期一在家中安静的离开。对于老爷子的去世,爱丁堡大黉舍长 Peter Mathieson 沉重的表示:「彼得・希格斯是一名杰出的科学家 &mdash

    2024年 4月 10日
  • JUST技术:提升基于GPS轨迹的路网断定精确度

    路网数据对于城市中的很多应用,比如车载导航和线路优化等,都非常重要。传统的路途数据采集方式依赖于采集车,消耗大量的人力物力。随着GPS设备的普及,海量轨迹数据在城市里产生,使我们能够用轨迹数据去天生路网。这个问题在近十年中已经有了广泛的研究,但是其中很多方式的精确度(precision)并不高,特别是上下路途,平行路途等地方。由于轨迹数据在城市内并不是均匀分散的,对于那些车辆频繁通行的地方,我们有没有办法进一步提高这些区域路网断定的精确度呢?

    2021年 4月 7日
  • 简单使用PyTorch搭建GAN模型

    2014年,Goodfellow等人则提出天生对抗网络(Generative Adversarial Network, GAN),能够让我们完全依靠机器学习来天生极为逼真的图片。GAN的横空出世使得整个人工智能行业都为之震动,计算机视觉和图象天生领域发生了巨变。本文将带大家了解GAN的工作原理,并介绍如何通过PyTorch简单上手GAN。

    2021年 8月 25日
  • 千寻地位亮相2022世界人工智能大会:首秀更精细化的数字孪生才智

     9月1日,2022世界人工智能大会在上海正式开幕。全球领先的时空智能基础设施公司——千寻地位网络有限公司(以下简称“千寻地位”)首次展示了具备精确时空才智的数字孪生产品在都会数字化、新基建建设等领域的利用,包括都会道路智能巡检和保护、高速公路高精度舆图收罗、智能矿山三维可视化办理等。今年的世界人工智能大会以“智联世界,元生无界”为主题,数字孪生、时空智能、元宇宙等硬核科技热门赛道备受关注。更精细化的数字孪生才智数字孪生是物理世界与数

    2022年 9月 1日
  • 王怀民院士:图灵较量争论模型仍是最深刻的理论基础,是新科学基础的基点

    下文为国防科大王怀民院士在第 24 届全国高校较量争论机学科系主任 / 院长论坛上的主旨报告《人机物交融智能化时期,较量争论机学科专业革新人才培养》。机器之心做了不改变原意的整理。

    在较量争论无处不在的当下,较量争论机学科专业却大有泯然众生之态。新时期的较量争论机学科专业革新人才该如何培养?

    王怀民院士以 120 年的时间跨度回顾较量争论机学科专业的发源和成长历程,不同的历史阶段有着不同的成长模式,在时期的激流中什么改变了,什么是不变的?较量争论机科学和技巧的成长具有国家战略意义,在人机物交融的新时期,如何理解从而实现科技革新?

    2022年 2月 8日

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注