如果現(xiàn)在一個面試官讓你從零推導SVM的Dual、從零實現(xiàn)CRF、推導LDA、設計一個QP問題、從零編寫XLNet、編寫GCN/GNN、改造SkipGram模型、用一天時間復現(xiàn)一篇頂級會議....
這些要求一點都不過分。相反,連這些基本內容都有些吃力,就需要重新審視一下自己的核心技術壁壘了。
貪心學院(國內唯一體系化AI學院)目前推出了兩門高端的AI訓練營,分別是《機器學習高階訓練營》和《自然語言處理高階訓練營》。
訓練營全程直播授課模式,近距離接觸頂級講師,下面像大家介紹一下《機器學習高階訓練營》:
《機器學習高階訓練營》
全球前沿AI科研成果教學
添加課程顧問小姐姐,備注【機器學習】
領取課程優(yōu)惠名額
本階段主要目的是講解必要的算法理論以及凸優(yōu)化技術,為后續(xù)的課程打下基礎。凸優(yōu)化的重要性不言而喻,如果想具備改造模型的能力,對于凸優(yōu)化的理解是必不可少的!
- 正則:L1, L2, L-inifity Norm
- Duality,Strong Duality、KKT條件
- 帶條件/無條件優(yōu)化問題、Projected GD
- 平滑函數(shù)、Convergence Analysis
本階段主要目的是深入理解SVM以及核函數(shù)部分的知識點。為了理解清楚SVM的Dual轉換,需要掌握第一部分里的Duality理論。另外,重點介紹Bagging和Boosting模型,以及所涉及到的幾項有趣的理論。
- SVM的Dual、Kernelized SVM
- Kernel Functions, Mercer'定理
- Kernelized LR/KNN/K-Means/PCA
- Bagging, Boosting, Stacking
- 基于Kernal PCA和Linear SVM的人臉識別
本階段主要目的是學習無監(jiān)督算法和經(jīng)典的序列模型。重點講解EM算法以及GMM,K-means的關系,同時花幾次課程時間來仔細講解CRF的細節(jié):從無向圖模型、Potential函數(shù)、Log-Linear Model、邏輯回歸、HMM、MEMM、Label Bias、Linear CRF、Inference,最后到Non-Linear CRF。
- 層次聚類,DCSCAN,Spectral聚類算法
- 隱變量與隱變量模型、Partition函數(shù)
- 條件獨立、D-Separation、Markov性質
- HMM以及基于Viterbi的Decoding
- Log-Linear Model,邏輯回歸,特征函數(shù)
本階段主要講解深度學習理論以及常見的模型。這里包括BP算法、卷積神經(jīng)網(wǎng)絡、RNN/LSTM、BERT、XLNet、ALBERT以及各類深度學習圖模型。另外,也會涉及到深度相關的優(yōu)化以及調參技術。
- 神經(jīng)網(wǎng)絡與激活函數(shù)
- 卷積神經(jīng)網(wǎng)絡、常用的CNN結構
- Dropout與Batch Normalization
- Word2Vec, Elmo, Bert, XLNet
- 深度學習與圖嵌入(Graph Embedding)
- Translating Embedding (TransE)
- Node2Vec- Graph Convolutional Network
- Dynamic Graph Embedding
推薦系統(tǒng)一直是機器學習領域的核心,所以在本階段重點來學習推薦系統(tǒng)領域主流的算法以及在線學習的技術、包括如何使用增強學習來做推薦系統(tǒng)。 在線學習算法很深具有很漂亮的理論基礎,在本階段你都會一一體會到!
- Exploration vs Exploitation
- UCB1 algorithm,EXP3 algorithm
- Adversarial Bandit model
- Contexulalized Bandit、LinUCB
- 使用GB Tree做基于 interaction 與 content的廣告推薦
- 使用深度神經(jīng)網(wǎng)絡做基于interaction 與 content的推薦
- LinUCB做新聞推薦, 最大化rewards
本階段重點講解貝葉斯模型。貝葉斯派區(qū)別于頻率派,主要的任務是估計后驗概率的方式來做預測。我們重點講解主題模型以及不同的算法包括吉布采樣、變分法、SGLD等,以及如何把貝葉斯的框架結合在深度學習模型里使用,這就會衍生出Bayesian LSTM的模型。貝葉斯部分的學習需要一定的門檻,但我們會讓每個人聽懂所有細節(jié)!
- Dirichlet/Multinomial Distribution
- Metropolis Hasting與Gibbs Sampling
- 使用Collapsed Gibbs Sampler求解LDA
- Mean-field variational Inference
- Stochastic Optimization與貝葉斯估計
- 隨機過程與無參模型(non-parametric)
- Chinese Retarant Process
- Stochastic Block Model與MMSB
- Bayesian Deep Learning模型
- 基于貝葉斯模型實現(xiàn)小數(shù)量的圖像識別
本階段重點講解增強學習以及前沿的內容,包括增強學習在文本領域的應用,GAN, VAE,圖片和文本的Disentangling,深度學習領域可解釋性問題、Adversial Learning, Fair Learning等最前沿的主題。 這一階段的安排也會根據(jù)學員的興趣點做局部的調整。
- Policy Learning、Deep RL
- Variational Autoencoder(VAE)與求解
- Generative Adversial Network(GAN)
- Adversial Machine Learning
《機器學習高階訓練營》
全球前沿AI科研成果教學
添加課程顧問小姐姐,備注【機器學習】
領取課程優(yōu)惠名額
區(qū)別于劣質的PPT講解,導師全程現(xiàn)場推導,
讓你在學習中有清晰的思路,深刻的理解算法模型背后推導的每個細節(jié)。更重要的是可以清晰地看到各種模型之間的關系!幫助你打通六脈!
▲源自:Convex Optimization 講解
▲源自:Convergence Analysis 講解
不管你在學習過程中遇到多少阻礙,你都可以通過以下4種方式解決:
4、共同的問題在Review Session里面做講解
注:每次答疑,班主任都會進行記錄,以便學員實時查閱。
采用直播的授課方式,每周3-4次直播教學,包含核心理論課、實戰(zhàn)課、復習鞏固課以及論文講解課。教學模式上也參考了美國頂級院校的教學體系。以下為其中一周的課程安排,供參考。
《機器學習高階訓練營》
全球前沿AI科研成果教學
添加課程顧問小姐姐,備注【機器學習】
領取課程優(yōu)惠名額
通過在知乎上發(fā)表相關技術文章進行自我成果檢驗,同時也是一種思想碰撞的方式,導師會對發(fā)表的每一篇文章寫一個詳細的評語。萬一不小心成為一個大V了呢?雖然寫文章的過程萬分痛苦,學習群里半夜哀嚎遍野,但看一看抓著頭發(fā)寫出來的文章結果還是非常喜人的!看著自己收獲的點贊數(shù),大家都默默地感謝起導師們的無情!
除了文章,算法工程師的立命根本--項目代碼,
導師更是不會放過的。每次在Gitlab上布置的作業(yè),導師們都會帶領助教團隊會予以詳細的批改和反饋。并逼著你不斷的優(yōu)化!
《機器學習高階訓練營》
全球前沿AI科研成果教學
添加課程顧問小姐姐,備注【機器學習】
領取課程優(yōu)惠名額
免責聲明:本文內容由21ic獲得授權后發(fā)布,版權歸原作者所有,本平臺僅提供信息存儲服務。文章僅代表作者個人觀點,不代表本平臺立場,如有問題,請聯(lián)系我們,謝謝!