Skip to content

JiaMauJian/gradient-descent

Repository files navigation

"#Normalization (feature scaling)和Transformation是不同的東西不要搞混了

"#Normalization (feature scaling)

  1. 很重要也很容易被忽視的小技巧,如mnist dataset中的x為何要除255
  2. x = np.random.random(10000)     x = (x - np.mean(x)) / np.std(x) -> 轉成normal後就像 x = np.random.normal(0, 1, 10000)

"#李宏毅老師 demo https://www.youtube.com/watch?v=1UqCjFQiiy0&feature=youtu.be

"#code for demo http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2017/demo/GradientDescentDemo.ipynb

"# 紀錄李宏毅老師機器學習課程練習"

  • 實作gradient-desenct
  • 盡量不要寫迴圈
  • 2016/10/15 gd_test2.py 改寫不要跑迴圈
  • 2016/10/25 gd_test_theano.py 用theano寫gd
  • 2016/10/26 gd_test_theano_learning_rate.py 比較不同learning rate的影響
  • 2016/11/1 mk_batches.py 練習
  • 2016/11/2 theano進階寫法練習(all data/mini batch/sgd)
  • 2016/11/17 feature scaling (有比較滑喔)
  • 2016/11/17 adagrad 好難寫
  • 2016/11/22 xor
  • 2016/11/24 rmsprop
  • 2016/11/25 momentum
  • 2016/11/30 adam (好險有Alec Radford寫的程式可以參考)

"# 想實作看看的東西"

  • MNIST / t-SNE

"# gradient descent有趣的動畫

  • Alec Radford's animations for optimization algorithms link
  • An Interactive Tutorial on Numerical Optimization link

"# gradient descent / stochastic gradient descent"

  • 你不是已經知道Cost最小值在哪邊了嗎? 因為你每次只能看到視野範圍內的東西 (os: 那是因為窮舉法 把所有的w值都畫出來,如果有多個w參數 你還能窮舉嗎?) link

  • 迷霧 (你以為你能開圖看到global minimum嗎? XD) [link] (http://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2016/Lecture/DL%20(v2).pdf)

  • 怎麼做gd link (對b的偏微分少乘-1,因為ppt動畫關係)

  • 怎麼做sgd link

"# mini batch"

  • 怎麼做mini batch link
  • mini batch比較快? 因為batch比較快,那batch size越大越好??? link
  • mini batch比較快? 不同batch size的比較 link

"# 不同learning rate的影響"

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages