斯坦福机器学习硬件加速器的课程学芯片技术机会来了

描述

学芯片技术的机会来了!斯坦福大学2018秋季学期推出《机器学习硬件加速器》课程,深入介绍机器学习系统中设计训练和推理加速器的架构技术。课程涵盖经典的ML算法,用于ML模型推理和训练的加速器设计等,超多专业材料和PPT,是本领域不可多得的专业课程。

本课程将深入介绍用于在机器学习系统中设计训练和推理加速器的架构技术。本课程将涵盖经典的ML算法,如线性回归和支持向量机,以及DNN模型,如卷积神经网络和递归神经网络。我们将考虑这些模型的训练和推理,并讨论诸如batch size、精度、稀疏度和压缩等参数对这些模型精度的影响。我们将介绍用于ML模型推理和训练的加速器设计。学生将熟悉使用并行性、局部性和低精度来实现ML中使用的核心计算内核的硬件实现技术。为了设计高效节能的加速器,学生们将建立直觉,在ML模型参数和硬件实现技术之间进行权衡。学生将阅读最近的研究论文并完成一个设计项目。

主讲教师:

Kunle Olukotun

Kunle Olukotun是斯坦福大学电气工程和计算机科学的Cadence设计系统教授,自1991年以来一直在该系任教。Olukotun以领导Stanford Hydra研究项目而著名,该项目开发了首批支持thread-level speculation的芯片多处理器。

Ardavan Pedram

Ardavan Pedram是斯坦福大学电气工程系研究助理,与Kunle Olukotun教师合作的Pervasive Prallelism Laboratory (PPL) 项目的成员。

特邀讲师:

Boris Ginsburg, NVIDIA 

Robert Schreiber, Cerebras Systems 

Mikhail Smelyanskiy, Facebook 

Cliff Young, Google 

课程安排和阅读材料

第1课:简介,摩尔定律和Dennard Scaling定律后硬件加速器的作用

阅读:暗硅(Dark Silicon)有用吗? Hennessy Patterson第7.1-7.2章

https://ieeexplore.ieee.org/document/6241647/

第2课:经典ML算法:回归、SVM

阅读:TABLA:基于统一模板的加速统计机器学习的架构

https://www.cc.gatech.edu/~hadi/doc/paper/2015-tr-tabla.pdf

第3课:线性代数基础和加速线性代数BLAS运算

20世纪的技术:收缩阵列和MIMD,CGRAs

阅读:为什么选择收缩架构?

www.eecs.harvard.edu/~htk/publication/1982-kung-why-systolic-architecture.pdf

高性能GEMM的剖析

https://www.cs.utexas.edu/users/pingali/CS378/2008sp/papers/gotoPaper.pdf

第4课:评估性能、能效、并行性,局部性、内存层次,Roofline模型

阅读:Dark Memory and Accelerator-Rich System Optimization in the Dark Silicon Era

https://arxiv.org/abs/1602.04183

第5课:真实世界的架构:将其付诸实践

加速GEMM:定制,GPU,TPU1架构及其GEMM性能

阅读:Google TPU

https://arxiv.org/pdf/1704.04760.pdf

Codesign Tradeoffs

https://ieeexplore.ieee.org/document/6212466/

NVIDIA Tesla V100

images.nvidia.com/content/volta-architecture/pdf/volta-architecture-whitepaper.pdf

第6课:神经网络:MLP和CNN推理

阅读:IEEE proceeding

Brooks’s book (Selected Chapters)

第7课:加速CNN的推理:实践中的阻塞(Blocking)和并行(Parallelism)

DianNao, Eyeriss, TPU1

阅读:一种阻塞卷积神经网络的系统方法

https://arxiv.org/abs/1606.04209

Eyeriss:用于卷积神经网络的节能数据流的空间架构

https://people.csail.mit.edu/emer/papers/2016.06.isca.eyeriss_architecture.pdf

Google TPU (see lecture 5)

第8课:使用Spatial建模神经网络,分析性能和能量

阅读:Spatial:一种应用程序加速器的语言和编译器

http://arsenalfc.stanford.edu/papers/spatial18.pdf

第9课:训练:SGD,反向传播,统计效率,batch size

阅读:去年的NIPS workshop:Graphcore

https://supercomputersfordl2017.github.io/Presentations/SimonKnowlesGraphCore.pdf

第10课:DNN的弹性:稀疏性和低精度网络

阅读:EIE:压缩深度神经网络的高效推断机(Efficient Inference Engine)

https://arxiv.org/pdf/1602.01528.pdf

Flexpoint of Nervana

https://arxiv.org/pdf/1711.02213.pdf

Boris Ginsburg: 卷积网络的Large Batch训练

https://arxiv.org/abs/1708.03888

LSTM Block Compression by Baidu?

第11课:低精度训练

阅读:HALP:High-Accuracy Low-Precision Training

https://arxiv.org/abs/1803.03383

Ternary or binary networks

See Boris Ginsburg's work (lecture 10)

第12课:分布式和并行系统训练:Hogwild!,异步和硬件效率

阅读:Deep Gradient compression

https://arxiv.org/abs/1712.01887

Hogwild!:一种并行化随机梯度下降的Lock-Free 方法

https://people.eecs.berkeley.edu/~brecht/papers/hogwildTR.pdf

大规模分布式深度网络

https://static.googleusercontent.com/media/research.google.com/en//archive/large_deep_networks_nips2012.pdf

第13课:FPGA和CGRAs:Catapult,Brainwave, Plasticine

Catapult

https://www.microsoft.com/en-us/research/wp-content/uploads/2016/10/Cloud-Scale-Acceleration-Architecture.pdf

Brainwave

https://www.microsoft.com/en-us/research/uploads/prod/2018/03/mi0218_Chung-2018Mar25.pdf

Plasticine

dawn.cs.stanford.edu/pubs/plasticine-isca2017.pdf

第14课:ML基准:DAWNbench,MLPerf

DawnBench

https://cs.stanford.edu/~matei/papers/2017/nips_sysml_dawnbench.pdf

MLPerf

https://mlperf.org/

第15课:Project presentations

更多阅读材料:https://cs217.github.io/readings

课程PPT:https://cs217.github.io/lecture_slides

第一课对深度学习的发展、摩尔定律、Dennard Scaling、相关理论方法等做了较为详尽的介绍,非常干货,下面附上第一课的PPT。

深度学习的挑战:深度学习存在理论吗?

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分