-
Notifications
You must be signed in to change notification settings - Fork 41
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[20211205] Weekly AI ArXiv 만담 - 32회차 #32
Comments
|
Upcoming conference deadlines:
Upcoming conference attendances:
|
|
|
이번 주는 PyTorch Opacus 라이브러리 1.0 stable version이 나오면서 Privacy preserving AI에 대해 소개해드리고자 합니다. GitHub: https://github.com/pytorch/opacus
Differential privacy란 딥러닝에서 발생하는 training data memorization을 해결하고자 하는 연구 분야입니다. 오늘 소개드리는 Opacus는 페이스북(메타라고 쓰는걸 잊어버렸네요 ㅋㅋㅋ)에서 공식적으로 PyTorch에 호환되도록 만든 라이브러리로 위에 보시는 것처럼 기존 모델에 매우 단순하게 호환할 수 있습니다. Opacus에서 Differential privacy를 구현하는 방식은 각 mini-batch에서 sample마다 gradient를 clipping하거나 regularization함으로써 개별 sample의 영향력을 한정시키고자 하는데 JAX를 제외한 다른 라이브러리에서는 평균 gradient만 접속할 수 있지 sample-wise gradient를 접속하는 방법은 구현되어있지 않습니다. 이를 해결하기 위해 einsum을 사용해 sample-wise gradient를 계산하는 방식을 사용하고 differential privacy가 한정치를 넘어가는 시점에서 early stopping을 하거나 개별 gradient에 noise를 주는 방식 등을 적용해서 연산을 진행한다고 합니다. 최근 인공지능이 privacy에 어떤 영향을 미칠지에 대해 많은 논의가 진행되었는데 연구가 필요한 분야라고 생각됩니다. |
올해 RSNA 참가 국내 의료 AI 기업, 작년보다 2배 늘었다http://www.aitimes.com/news/articleView.html?idxno=141760
AI to see stricter regulatory scrutiny starting in 2022, predicts Deloitte
높아지는 AI 책임성에 대한 사례들https://www.wired.com/story/movement-hold-ai-accountable-gains-steam/
Why international cooperation matters in the development of artificial intelligence strategieshttps://www.brookings.edu/blog/techtank/2021/11/30/why-international-cooperation-matters-in-the-development-of-artificial-intelligence-strategies/
|
|
BEVT: BERT Pretraining of Video Transformers
Benchmarking Detection Transfer Learning with Vision Transformers
How much do language models copy from their training data? Evaluating linguistic novelty in text generation using RAVEN
Uni-Perceiver: Pre-training Unified Architecture for Generic Perception for Zero-shot and Few-shot Tasks
The text was updated successfully, but these errors were encountered: