一言でいうと
外れ値に頑健な確率的最適化のためのメタアルゴリズムを提案.
論文リンク
ICML2019
http://proceedings.mlr.press/v97/diakonikolas19a.html
著者/所属機関
Ilias Diakonikolas (University of California), Gautam Kamath (University of California), Daniel M. Kane, Jerry Li (Microsoft Research AI), Jacob Steinhardt (University of California), Alistair Stewart (Web3 Foundation)
投稿日付(yyyy/MM/dd)
2018/03/07
概要
外れ値に頑健な確率的最適化のためのメタアルゴリズムであるSEVERを提案:
- 高次元な入力であっても任意の外れ値を扱うことが可能
- 回帰や分類,ニューラルネットワークを含む非凸最適化など一般的な学習問題に広く適用可能
- 一般的な機械学習ライブラリで容易に実装可能
新規性・差分
既存手法は高次元な場合に適用が難しかったが,提案手法は高次元な場合に適用可能.
手法


結果


コメント