陈天奇:「因为世界上还没有关于这个方位的体系性课程,所以这一次尝试应该会是和小伙伴们共同的探索」。
随着呆板进修框架和硬件需求的发展,呆板进修 / 深度进修编译正成为一个越来越受关注的话题。
在去年 12 月的一篇文章中,TVM、MXNET、XGBoost 作者,CMU 助理教授,OctoML CTO 陈天奇探讨了「新一代深度进修编译技术的变革和展望」。他指出,现在深度进修编译生态正围绕四类笼统展开:估计图体现、张量步调体现、算子库和运行情况、硬件专用指令。
不过,由于篇幅受限,陈天奇并未就这一话题展开体系、详细的讨论,这让很多对呆板进修 / 深度进修编译感兴趣的小伙伴感到意犹未尽。陈天奇本人也体现,「今朝互联网上也有一些关于呆板进修编译的先容,不过大部分都还是先容其中的各个模块,或者是针对一个体系的深入内部讲解。」因此,陈天奇萌生了开一门体系性课程的想法。
6 月 2 日,陈天奇通过知乎宣布,由他主讲的呆板进修编译入门课程将于近期正式开课。
原贴链接:https://zhuanlan.zhihu.com/p/523372873
陈天奇先容说,今朝课程已经确定了几点大的方位,「首先,呆板进修编译自己虽然有『编译』二字,其涉及到的技术其实超过了传统编译的范畴,包含了如呆板进修搜索自动化,算子库调整,和呆板进修生态交互等各个方面。而在相关笼统设计上面也有许多呆板进修需求自己的考量。」因此,「这次课程会集中先容估计图、张量步调、算子库和硬件指令四个层面的笼统。而更加重要的一点考量是调整。一般对于呆板进修编译的先容都会集中在一个点上,而各大笼统的调整自己反而恰好是真正需要大家关注的地方。」
今朝,课程的中英文大纲都已经在官网上线,课程视频也是中英文均有。
英文课程主页 https://mlc.ai/summer22/
中文课程主页 https://mlc.ai/summer22-zh/
以下是关于该课程的详细信息(来自课程官网):
课程简介
随着人工智能应用在我们的日常生活中变得越来越普遍,今朝存在的挑战是如何在不同的生产情况中布置最新的人工智能模型。模型和布置情况的组合爆炸给训练和推理布置带来了巨大的挑战。此外,今朝落地的模型也提出了更多的要求,例如减少软件依赖、全面的模型覆盖、利用新硬件进行加速、减少内存占用,以及更强的可扩展性。
这些模型训练和推理问题,涉及呆板进修编程范式、基于进修的搜索算法、编译优化以及估计运行时。这些话题的组合生成了一个全新主题——呆板进修编译,并且该方位正在不断持续发展。这门课程将按照其中的关键元素,体系地研究这一新兴领域的关键要素。参与者将进修一些核心的概念,用以体现呆板进修步调、自动优化技术,以及在端到端呆板进修布置中优化情况依赖、内存和性能的方法。
课程受众和知识储备要求
关于这门课程的受众和要求,陈天奇体现,「这次课程自己并不需要编译和呆板进修体系的背景知识。只需要对于深度进修框架有一些使用经验即可」。具体信息如下:
课程安排
从今朝公布的课程安排来看,这门课程总共有 11 次课,从 6 月 17 日一直持续到 8 月 23 日,可以陪伴大家度过一个充实的夏天。
此外,这门课程还设置了专门的中英文论坛。
中文论坛:https://github.com/mlc-ai/mlc-zh/discussions
英文论坛:https://github.com/mlc-ai/mlc-en/discussions
小板凳搬好了吗?
原创文章,作者:机器之心,如若转载,请注明出处:https://www.iaiol.com/news/zhe-ge-xia-tian-gen-chen-tian-qi-xue-dai-ban-jin-xiu-bian/