Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

機械学習におけるハイパーパラメータ最適化の理論と実践 #5

Open
Beluuuuuuga opened this issue May 21, 2020 · 0 comments
Labels

Comments

@Beluuuuuuga
Copy link
Owner

論文情報

https://logmi.jp/tech/articles/322678

一言で言うと

ハイパーパラメータ最適化の紹介

背景

ハイパーパラメータの最適化はブラックボックスな関数の最適化
この発表ではブラックボックス最適化において有力なCMA-ESとベイズ最適化が存在

ベイズ最適化によるハイパーパラメータの最適化はGP-EIという手法とTPEが存在
まずはGP-EIから紹介

image

赤い部分がGPに予測された確率分布であり、下の緑がEIで算出した結果
右端が大きいので、右端でGPを更新

image
いまいちよくわからないのでまたこの部分は勉強

次はTPE
HyperoptやOptunaがデフォルトで採用している

TPEはEIを使うという点まではGP-EIと同じ
モデル化の部分がGP-EIと異なり、具体的にはGP-EIがp(y|x)をGP-EIで直接モデル化をしていたが、その代わりにp(x|y)とp(y)でモデル化

image
l(x)/g(x)を最大とするxがEIを一番大きくする
上の図の重なりをなるべく大きくする

ハイパーパラメータの個数が少ない問題に関してはGP-EIのほうが良い性能を示す
一方で次元が高い問題に関してはTPEのほうが良い性能

進化計算手法における有名な手法CMA-ESの説明

正規分布をサンプルします。このサンプルしたそれぞれの解に対して評価
良い解だったら大きな重みに、悪い解だったら小さい重みにと重み付けを行い、この重み付けを行ったものを用いて、正規分布のパラメータを更新

image

次元数が大きい場合は、CMA-ESの方が良い
GP-EIの計算量はイテレーション数tに対して3乗に効いてくる

貢献

提案

実験・考察

補足・疑問など

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

1 participant