218
熱門ppt
斯坦福CS231n 2017春季課程公開全部視頻、PPT
李飛飛主講,Ian Goodfellow 等人客座,經典課程不容錯過!
新智元編譯
來源:cs231n.stanford.edu
編輯:劉小芹
【新智元導讀】斯坦福大學的 CS231n(全稱:麵向視覺識別的卷積神經網絡)一直是計算機視覺和深度學習領域的經典課程,每年開課都吸引很多學生。今年是該課程第3次開課,學生達到730人(第1次150人,第2次350人)。今年的CS231n Spring的instructors 是李飛飛、Justin Johnson和Serena Yeung,並邀請 Ian Goodfellow 等人講解GAN等重要主題。最近斯坦福大學公開了該課程的全部視頻(配備英文)、slides等全部課程資料,新智元帶來介紹。
全部課程視頻(英文字幕):https://t.cn/R9Dfnxn
所有課程資料、PPT等:https://cs231n.stanford.edu/syllabus.html
課程描述
講師和助教團隊
計算機視覺在我們的社會中已經無處不在,例如應用於搜索、圖像理解、apps、地圖、醫療、無人機、自動駕駛汽車,等等。大部分應用的核心是視覺識別任務,例如圖像分類、定位和檢測。神經網絡(又稱“深度學習”)方法最新的進展大大提高了這些最先進的視覺識別係統的性能。本課程將帶大家深入了解深度學習的架構,重點是學習這些任務,尤其是圖像分類任務的端到端模型。
在為期10周的課程中,同學們將要學習實現、訓練和調試自己的神經網絡,並深入了解計算機視覺的最前沿的研究。期末作業將涉及訓練一個數百萬參數的卷積神經網絡,並將其應用於最大的圖像分類數據集(ImageNet)。我們將重點介紹如何創建圖像識別問題,學習算法(例如反向傳播算法),訓練和微調網絡的實用工程技巧,引導學生進行實際操作和最終的課程項目。本課程的背景知識和材料的大部分來自 ImageNet 挑戰賽。
課程 Notes
課程Notes: https://cs231n.github.io/
模塊0:準備內容
Python / Numpy 教程
IPython Notebook 教程
Google Cloud 教程
Google Cloud with GPU教程
AWS 教程
模塊1:神經網絡
圖像分類:數據驅動的方法,k最近鄰法,train/val/test splits
L1 / L2距離,超參數搜索,交叉驗證
線性分類:支持向量機,Softmax
參數化方法,bias技巧,hinge loss,交叉熵損失,L2正則化,web demo
優化:隨機梯度下降
本地搜索,學習率,分析/數值梯度
反向傳播,直覺
鏈規則解釋,real-valued circuits,gradient flow中的模式
神經網絡第1部分:建立架構
生物神經元模型,激活函數,神經網絡架構
神經網絡第2部分:設置數據和損失
預處理,權重初始化,批量歸一化,正則化(L2 /dropout),損失函數
神經網絡第3部分:學習和評估
梯度檢查,完整性檢查,動量(+ nesterov),二階方法,Adagrad / RMSprop,超參數優化,模型集合
把它放在一起:一個神經網絡案例研究
極小2D玩具數據示例
模塊2:卷積神經網絡
卷積神經網絡:架構,卷積/池化層
層,空間排列,層模式,層大小模式,AlexNet / ZFNet / VGGNet案例研究,計算考慮
理解和可視化卷積神經網絡
tSNE嵌入,deconvnets,數據梯度,fooling ConvNets,human comparisons
遷移學習和微調卷積神經網絡
內容簡介
Lecture 1:麵向視覺識別的卷積神經網絡課程簡介
Lecture 1介紹了計算機視覺這一領域,討論了其曆史和關鍵性挑戰。我們強調,計算機視覺涵蓋各種各樣的不同任務,盡管近期深度學習方法取得了一些成功,但我們仍然遠遠未能實現人類水平的視覺智能的目標。
關鍵詞:計算機視覺,寒武紀爆炸,暗箱,Hubel 和 Wiesel,積木塊世界,規範化切割,人臉檢測,SIFT,空間金字塔匹配,定向梯度直方圖,PASCAL視覺對象挑戰賽,ImageNet挑戰賽
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture1.pdf
Lecture 2:圖像分類
Lecture 2 使圖像分類問題正式化。我們討論了圖像分類問題本身的難點,並介紹了數據驅動(data-driven)方法。我們討論了兩個簡單的數據驅動圖像分類算法:K-最近鄰法(K-Nearest Neighbors)和線性分類(Linear Classifiers)方法,並介紹了超參數和交叉驗證的概念。
關鍵詞:圖像分類,K最近鄰,距離度量,超參數,交叉驗證,線性分類器
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture2.pdf
Lecture 3:損失函數和最優化
Lecture 3 繼續討論線性分類器。我們介紹了損失函數的概念,並討論圖像分類的兩個常用的損失函數:多類SVM損失(multiclass SVM loss)和多項邏輯回歸損失(multinomial logistic regression loss)。我們還介紹了正規化(regularization ),作為對付過擬合的機製,以及將權重衰減(weight decay )作為一個具體的例子。 我們還介紹了優化(optimization)的概念和隨機梯度下降(stochastic gradient descent )算法。我們還簡要討論了計算機視覺特征表示(feature representation)的使用。
關鍵詞:圖像分類,線性分類器,SVM損失,正則化,多項邏輯回歸,優化,隨機梯度下降
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture3.pdf
Lecture 4:神經網絡介紹
在 Lecture 4 中,我們從線性分類器進展到全連接神經網絡(fully-connected neural network)。本節介紹了計算梯度的反向傳播算法(backpropagation algorithm),並簡要討論了人工神經網絡與生物神經網絡之間的關係。
關鍵詞:神經網絡,計算圖,反向傳播,激活函數,生物神經元
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture4.pdf
Lecture 5:卷積神經網絡
在 Lecture 5 中,我們從完全連接的神經網絡轉向卷積神經網絡。我們將討論卷積網絡發展中的一些關鍵的曆史裏程碑,包括感知器,新認知機(neocognitron),LeNet 和 AlexNet。我們將介紹卷積(convolution),池化(pooling)和完全連接(fully-connected)層,這些構成了現代卷積網絡的基礎。
關鍵詞:卷積神經網絡,感知器,neocognitron,LeNet,AlexNet,卷積,池化,完全連接層
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture5.pdf
Lecture 6:訓練神經網絡1
在Lecture 6中,我們討論了現代神經網絡的訓練中的許多實際問題。我們討論了不同的激活函數,數據預處理、權重初始化以及批量歸一化的重要性; 我們還介紹了監控學習過程和選擇超參數的一些策略。
關鍵詞:激活函數,數據預處理,權重初始化,批量歸一化,超參數搜索
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture6.pdf
Lecture 7:訓練神經網絡2
Lecture 7繼續討論訓練神經網絡中的實際問題。我們討論了在訓練期間優化神經網絡的不同更新規則和正則化大型神經網絡的策略(包括dropout)。我們還討論轉移學習(transfer learnin)和 fine-tuning。
關鍵詞:優化,動量,Nesterov動量,AdaGrad,RMSProp,Adam,二階優化,L-BFGS,集合,正則化,dropout,數據擴張,遷移學習,fine-tuning
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture7.pdf
Lecture 8:深度學習軟件
Lecture 8 討論了如何使用不同的軟件包進行深度學習,重點介紹 TensorFlow 和 PyTorch。我們還討論了CPU和GPU之間的一些區別。
關鍵詞:CPU vs GPU,TensorFlow,Keras,Theano,Torch,PyTorch,Caffe,Caffe2,動態計算圖與靜態計算圖
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture8.pdf
Lecture 9:CNN架構
Lecture 9 討論了卷積神經網絡的一些常見架構。我們討論了 ImageNet 挑戰賽中表現很好的一些架構,包括AlexNet,VGGNet,GoogLeNet 和 ResNet,以及其他一些有趣的模型。
關鍵詞:AlexNet,VGGNet,GoogLeNet,ResNet,Network in Network,Wide ResNet,ResNeXT,隨機深度,DenseNet,FractalNet,SqueezeNet
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture9.pdf
Lecture 10:循環神經網絡
Lecture 10討論了如何使用循環神經網絡為序列數據建模。我們展示了如何將循環神經網絡用於語言建模和圖像字幕,以及如何將 soft spatial attention 納入圖像字幕模型中。我們討論了循環神經網絡的不同架構,包括長短期記憶(LSTM)和門循環單元(GRU)。
關鍵詞:循環神經網絡,RNN,語言建模,圖像字幕, soft attention,LSTM,GRU
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture10.pdf
Lecture 11:檢測和分割
在Lecture 11中,我們超越了圖像分類,展示了如何將卷積網絡應用於其他計算機視覺任務。我們展示了具有下采樣和上采樣層的完全卷積網絡可以怎樣用於語義分割,以及多任務損失如何用於定位和姿態估計。我們討論了一些對象檢測方法,包括基於區域的R-CNN係列方法和 single-shot 方法,例如SSD和YOLO。最後,我們展示了如何將來自語義分割和對象檢測的想法結合起來進行實例分割( instance segmentation)。
關鍵詞:語義分割,完全卷積網絡,unpooling,轉置卷積(transpose convolution),localization,多任務損失,姿態估計,對象檢測,sliding window,region proposals,R-CNN,Fast R-CNN,Faster R-CNN,YOLO,SSD,DenseCap ,實例分割,Mask R-CNN
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture11.pdf
Lecture 12:可視化和理解
Lecture 12討論了可視化和理解卷積網絡內部機製的方法。我們還討論了如何使用卷積網絡來生成新的圖像,包括DeepDream和藝術風格遷移。
關鍵詞:可視化,t-SNE,saliency maps,class visualizations,fooling images, feature inversion,DeepDream,風格遷移
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture12.pdf
Lecture 13:生成模型
在Lecture 13中,我們超越了監督學習,並將生成模型作為一種無監督學習的形式進行討論。我們涵蓋了自回歸的 PixelRNN 和 PixelCNN 模型,傳統和變分自編碼器(VAE)和生成對抗網絡(GAN)。
關鍵詞:生成模型,PixelRNN,PixelCNN,自編碼器,變分自編碼器,VAE,生成對抗網絡,GAN
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture13.pdf
Lecture 14:深度強化學習
在Lecture 14中,我們從監督學習轉向強化學習(RL)。強化學習中,智能體必須學會與環境交互,才能最大限度地得到獎勵。 我們使用馬爾科夫決策過程(MDPs),策略,價值函數和Q函數的語言來形式化強化學習。我們討論了強化學習的不同算法,包括Q-Learning,策略梯度和Actor-Critic。我們展示了強化學習被用於玩 Atari 遊戲,AlphaGo在圍棋中超過人類專業棋手等。
關鍵詞:強化學習,RL,馬爾科夫決策過程,MDP,Q-Learning,政策梯度,REINFORCE,actor-critic, Atari 遊戲,AlphaGo
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture14.pdf
Lecture 15:深度學習的高效方法和硬件
在Lecture 15中,客座講師 Song Han 討論了可用於加快深度學習工作負載訓練和推理的算法和專用硬件。我們討論了剪枝,weight sharing,量化等技術,以及其他加速推理過程的技術,包括並行化,混合精度(mixed precision)等。我們討論了用於深度學習的專門硬件,例如GPU,FPGA 和 ASIC,包括NVIDIA最新Volta GPU中的Tensor Core,以及穀歌的TPU(Tensor Processing Units)。
關鍵詞:硬件,CPU,GPU,ASIC,FPGA,剪枝,權重共享,量化,二元網絡,三元網絡,Winograd變換,EIE,數據並行,模型並行,混合精度,FP16,FP32,model distillation,Dense-Sparse-Dense訓練,NVIDIA Volta,Tensor Core,Google TPU,Google Cloud TPU
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture15.pdf
Lecture 16:對抗樣本和對抗訓練
Lecture 16由客座講師Ian Goodfellow主講,討論了深度學習中的對抗樣本(Adversarial Examples)。本講討論了為什麼深度網絡和其他機器學習模型容易受到對抗樣本的影響,以及如何使用對抗樣本來攻擊機器學習係統。我們討論了針對對抗樣本的潛在防禦,以及即使在沒有明確的對手的情況下,如何用對抗樣本來改進機器學習係統,。
關鍵詞:對抗樣本,Fooling images,fast gradient sign method(FGSM),Clever Hans,對抗防禦,物理世界中的對抗樣本,對抗訓練,虛擬對抗訓練,基於模型的優化
PPT:cs231n.stanford.edu/slides/2017/cs231n_2017_lecture16.pdf
【號外】新智元正在進行新一輪招聘,飛往智能宇宙的最美飛船,還有N個座位
點擊閱讀原文可查看職位詳情,期待你的加入~
最後更新:2017-08-19 23:52:21