神经网络
-
为什么要纯C谈话手搓GPT-2,Karpathy回应网友质疑
Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实行 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 谈话 / CUDA,不须要 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅须要单个文献中的大约 1000 行干净代码(clean
-
为什么要纯C言语手搓GPT-2,Karpathy回应网友质疑
Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上完成 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 言语 / CUDA,不需求 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需求单个文献中的大约 1000 行干净代码(clean
-
为什么要纯C说话手搓GPT-2,Karpathy回应网友质疑
Karpathy:for fun.几天前,前特斯拉 Autopilot 负责人、OpenAI 科学家 Andrej Karpathy 发布了一个仅用 1000 行代码即可在 CPU/fp32 上实行 GPT-2 训练的项目「llm.c」。llm.c 旨在让大模型(LM)训练变得简单 —— 使用纯 C 说话 / CUDA,不需求 245MB 的 PyTorch 或 107MB 的 cPython。例如,训练 GPT-2(CPU、fp32)仅需求单个文献中的大约 1000 行干净代码(clean
-
闲下来的Andrej Karpathy录了个课程:保证学会,你听不懂我吃鞋
为了重拾自己对 AI 开源和教育的热情,Andrej Karpathy 在家录了一个详解反向传达的课程。
-
《几许深度进修》作者授课,2022年GDL100课程上线
今年的 GDL100 包含通例课程、辅导课和专题研讨课,深入讲解了几许深度进修的基本概念和重要问题。
-
Creator 面对面 | 通往第三代人工智能的实践之路如何走?
人工智能已经是一门使能技巧。现在人工智能取得突破性的规模偏向,一定是从脑科学、材料学等规模得到了启发。同时,人工智能在现在将成为科学家的新生产工具,催生科研新范式。
-
吴凌飞、崔鹏、裴健、赵亮联合撰写,一本书读懂图神经网络的底子、前沿、利用(免费下载)
这本书称得上是目前为止图神经网络范畴最为全面的卓越之作。
-
可对药物份子举行表征的若干深度进修
编辑 | 萝卜皮若干深度进修(GDL)基于包罗和处理对称信息的神经网络架构。GDL 为依赖于具有不同对称性和抽象级别的份子体现的份子建模利用程序带来了希望。苏黎世联邦理工学院的研讨人员对份子 GDL 举行了结构化和统一概述,重点介绍了其在药物发现、化学合成猜测和量子化学中的利用。它包罗对 GDL 原理的介绍,以及相关的份子体现,例如份子图、网格、曲面和字符串,以及它们各自的属性。讨论了份子科学中 GDL 当前面临的挑战,并尝试猜测未来的机会。该综述以「Geometric deep learning on molec
-
深度进修模型知识产权损坏怎么做?看看IJCAI 2021这场Workshop说了什么
在刚刚结束的 IJCAI 2021 大会上,「深度进修模型知识产权损坏国际研讨会(DeepIPR-IJCAI’21)」正式举行,这场研讨会由微众银行、马来亚大学、香港科技大学、上海交通大学共同主办。
-
150页在线书「若干深度进修」上线:利用对称性和不变性解决呆板进修问题
CNN、GNN、LSTM、Transformer 等深度进修模型之间的共通之处是什么?在这本书里问题得到了解答。