这个夏天,跟陈天奇学「呆板进修编译」中英文课程,6月17日开课!

陈天奇:「因为世界上还没有关于这个方位的体系性课程,所以这一次尝试应该会是和小伙伴们共同的探索」。随着呆板进修框架和硬件需求的发展,呆板进修 / 深度进修编译正成为一个越来越受关注的话题。在去年 12 月的一篇文章中,TVM、MXNET、XGBoost 作者,CMU 助理教授,OctoML CTO 陈天奇探讨了「新一代深度进修编译技术的变革和展望」。他指出,现在深度进修编译生态正围绕四类笼统展开:估计图体现、张量步调体现、算子库和运行情况、硬件专用指令。不过,由于篇幅受限,陈天奇并未就这一话题展开体系、详细的讨论,

陈天奇:「因为世界上还没有关于这个方位的体系性课程,所以这一次尝试应该会是和小伙伴们共同的探索」。

随着呆板进修框架和硬件需求的发展,呆板进修 / 深度进修编译正成为一个越来越受关注的话题。

在去年 12 月的一篇文章中,TVM、MXNET、XGBoost 作者,CMU 助理教授,OctoML CTO 陈天奇探讨了「新一代深度进修编译技术的变革和展望」。他指出,现在深度进修编译生态正围绕四类笼统展开:估计图体现、张量步调体现、算子库和运行情况、硬件专用指令。

图片

不过,由于篇幅受限,陈天奇并未就这一话题展开体系、详细的讨论,这让很多对呆板进修 / 深度进修编译感兴趣的小伙伴感到意犹未尽。陈天奇本人也体现,「今朝互联网上也有一些关于呆板进修编译的先容,不过大部分都还是先容其中的各个模块,或者是针对一个体系的深入内部讲解。」因此,陈天奇萌生了开一门体系性课程的想法。

6 月 2 日,陈天奇通过知乎宣布,由他主讲的呆板进修编译入门课程将于近期正式开课。

图片

原贴链接:https://zhuanlan.zhihu.com/p/523372873

陈天奇先容说,今朝课程已经确定了几点大的方位,「首先,呆板进修编译自己虽然有『编译』二字,其涉及到的技术其实超过了传统编译的范畴,包含了如呆板进修搜索自动化,算子库调整,和呆板进修生态交互等各个方面。而在相关笼统设计上面也有许多呆板进修需求自己的考量。」因此,「这次课程会集中先容估计图、张量步调、算子库和硬件指令四个层面的笼统。而更加重要的一点考量是调整。一般对于呆板进修编译的先容都会集中在一个点上,而各大笼统的调整自己反而恰好是真正需要大家关注的地方。」

今朝,课程的中英文大纲都已经在官网上线,课程视频也是中英文均有。

英文课程主页 https://mlc.ai/summer22/ 

中文课程主页 https://mlc.ai/summer22-zh/ 

以下是关于该课程的详细信息(来自课程官网):

课程简介

随着人工智能应用在我们的日常生活中变得越来越普遍,今朝存在的挑战是如何在不同的生产情况中布置最新的人工智能模型。模型和布置情况的组合爆炸给训练和推理布置带来了巨大的挑战。此外,今朝落地的模型也提出了更多的要求,例如减少软件依赖、全面的模型覆盖、利用新硬件进行加速、减少内存占用,以及更强的可扩展性。

这些模型训练和推理问题,涉及呆板进修编程范式、基于进修的搜索算法、编译优化以及估计运行时。这些话题的组合生成了一个全新主题——呆板进修编译,并且该方位正在不断持续发展。这门课程将按照其中的关键元素,体系地研究这一新兴领域的关键要素。参与者将进修一些核心的概念,用以体现呆板进修步调、自动优化技术,以及在端到端呆板进修布置中优化情况依赖、内存和性能的方法。

课程受众和知识储备要求

关于这门课程的受众和要求,陈天奇体现,「这次课程自己并不需要编译和呆板进修体系的背景知识。只需要对于深度进修框架有一些使用经验即可」。具体信息如下:

图片

课程安排

从今朝公布的课程安排来看,这门课程总共有 11 次课,从 6 月 17 日一直持续到 8 月 23 日,可以陪伴大家度过一个充实的夏天。

图片

图片

此外,这门课程还设置了专门的中英文论坛。

中文论坛:https://github.com/mlc-ai/mlc-zh/discussions

英文论坛:https://github.com/mlc-ai/mlc-en/discussions

小板凳搬好了吗?

原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/zhe-ge-xia-tian-gen-chen-tian-qi-xue-dai-ban-jin-xiu-bian/

(0)
上一篇 2022年 6月 2日 下午4:28
下一篇 2022年 6月 6日 上午9:18

相关推荐

  • 机械之心升级「SOTA!模型」资本站,万余模型覆盖千余AI任务

    机械之心于2022年第一季度推出新版「SOTA 模型」资本站。作为专注办事中国开发者的第三方平台,该站点在对每日学界、业界最新的SOTA工作进行追踪的同时,汇总了原作团队、社区用户所放出的模型文件、实现代码、数据集等开发资本,协助用户快速上手测验考试新技能。当前新版 「SOTA!模型」已收录超过15000个模型资本,覆盖超过1000个AI任务。用户可通过「检索模型」功能鉴于模型资本所适配的硬件类型、计算平台、框架及模型规模等维度高效查询。作为专业的人工智能信息平台,机械之心于2019年9月发布了首版「SOTA 模型」项

    2022年 8月 5日
  • 2022年高通创新奖学金北美获奖名单公布:38人获奖,华人占半数

    高通将为每个获奖团队提供10万美元的奖学金和技术指导。

    2022年 9月 28日
  • 130亿光年:刚刚,NASA发布了宇宙最深处的影像

    北京光阴 7 月 12 日早晨,美国宇航局(NASA)公布了詹姆斯・韦伯太空千里镜拍摄的第一张全彩图象,这是深空天文台的一次重要时刻,标志着其进入科学研究第一年的开始。

    2022年 7月 12日
  • 全球首台百亿亿级超算用AMD的GPU:性能增7倍,能效提升3倍

    E 级超算,每秒钟百亿亿次运算,1 后面跟 18 个零。

    2021年 12月 26日
  • 数仓架构的持续演进与发展 — 云原生、湖仓一体、离线及时一体、SaaS模式

    数据仓库概念从1990年提出,经过了四个主要阶段。从最初的数据库演进到数据仓库,到MPP架构,到大数据时代的数据仓库,再到今天的云原生的数据仓库。在不断的演进过程中,数据仓库面对着不同的挑衅。

    2021年 8月 11日
  • 解读阿里云PAI模型紧缩手艺落地实时挪动端智能应用

    随着挪动端AI应用摆设需求的日益增强,模型紧缩作为深度学习模型实现轻量化摆设的有用手段,在挪动端场景越来越受关注。尤其是剪枝、量化、权重稀疏化与网络结构搜索等算法政策,能够帮助减少深度模型端侧摆设时的资源消耗(Latency、Energy与Memory等),始终是学术界与工业界的发展焦点。阿里云机器学习PAI平台模型紧缩手艺,在端智能应用场景实现了端侧智能的快速赋能与应用落地。尤其在2020年阿里双十一期间,淘宝直播App的“一猜到底”语音交互游戏中,PAI模型紧缩手艺体现了关键作用。淘宝直播一猜到底背后的模型紧缩

    2021年 2月 18日
  • 英特尔 AI 100 Connect Day 大消费专场︱大消费变革背后的 AI 革新

    3月24日,英特尔 AI 百佳革新激励计划系列中心活动2021 AI 100 Connect Day 大消费专场在上海浦东新区浦发银行张江科技支行举行。大消费专场由英特尔联合浦发银行、上海市人工智能行业协会主办,由中关村融创企业开放革新促进会、德勤咨询(深圳)有限公司、机器之心,张江-英特尔联合革新中心协办。汇聚英特尔技能专家、财产领袖、顶级投资机构代表、大企业场景提供方、AI 百佳及生态合作伙伴,在“AI+大消费”的技能背景下,共同探讨大消费变革背后的革新和财产落地。上海浦东发展银行股份有

    2021年 3月 25日
  • 模型听人讲几句就能学得更好?斯坦福提出用谈话表明辅助进修

    谈话是人与人之间最自然的沟通方式,能帮助我们传递很多重要的信息。斯坦福大学人工智能实验室(SAIL)近日发表博客,介绍了其两篇 ACL 2020 论文。这两项研究立足于近段时间 BERT 等神经谈话模型的突破性成果,指出了一个颇具潜力的新方向:利用谈话表明来辅助进修 NLP 乃至计算机视觉范畴的使命。

    2020年 12月 1日
  • Creator 面对面 | 大规模预训练模型的新思考:效力和泛化

    自 2018 年谷歌推出 BERT(3.4 亿参数)以来,语言模型开始朝着「大」演进。国内外先后出现了参数量高达千亿甚至万亿的语言模型,比如谷歌的 T5(110 亿)、OpnAI 的 GPT-3(1,750 亿)、华为联合鹏城实验室的盘古(Pangu)(2000 亿),智源研究院的 WuDao2.0(1.75 万亿)……

    对于这样的大模型,其背后支撑的是巨额的算力要求。那么对于 AI 民主化,降低模型训练门槛和壁垒,同时兼顾性能和表现,在未来模型的训练上又会有怎样的思考呢?

    2022年 7月 26日

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注