Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks #2057

Open
icoxfog417 opened this issue May 8, 2021 · 0 comments
Labels

Comments

@icoxfog417
Copy link
Member

icoxfog417 commented May 8, 2021

一言でいうと

機械学習で用いられるベンチマークのデータセット内にある、誤ったラベルのデータを訂正した研究。画像はImageNetやCIFAR等、自然言語はIMDB等、音声はAudioSet等各タスクで検証している。全体として3.4%程度誤りがあり訂正すると小さいモデルの方が精度が高くなる傾向がある

image

論文リンク

https://arxiv.org/abs/2103.14749

著者/所属機関

Curtis G. Northcutt, Anish Athalye, Jonas Mueller

  • ChipBrain
  • MIT
  • Amazon

投稿日付(yyyy/MM/dd)

2021/3/26

概要

新規性・差分

手法

結果

コメント

@icoxfog417 icoxfog417 added the NLP label May 8, 2021
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
Projects
None yet
Development

No branches or pull requests

1 participant