Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

On the Discrepancy between the Theoretical Analysis and Practical Implementations of Compressed Communication for Distributed Deep Learning #8

Open
nocotan opened this issue May 26, 2021 · 0 comments

Comments

@nocotan
Copy link
Member

nocotan commented May 26, 2021

一言でいうと

gradient compressionの理論的な結果がおく仮定と実用上の実装とのギャップについて調べた

論文リンク

https://ojs.aaai.org/index.php/AAAI/article/view/5793

著者/所属機関

KAUST

投稿日付(yyyy/MM/dd)

AAAI2020

概要

gradient sparcification/quantizationの理論と実用にはギャップがある.
多くの理論的な結果はモデル全体の勾配が圧縮されることを仮定している一方で,実際の実装では各レイヤーごとに勾配の操作を行うことが多い.
この論文では,layer-wiseな勾配圧縮の手法の収束レートを上から抑えることができることを証明するが,一方で実際の実験においてはこうした手法群は実験設定によって良い場合と悪い場合があることを示す.

Screen Shot 2021-05-28 at 13 31 26

新規性・差分

理論解析の際においている仮定と実際の多くの実装とのギャップについて,

  • こうしたギャップがあってなお理論的な結果は成り立つのか
  • 収束に関する振る舞いはどのよう(どれだけ)に違うのか

を明らかにした.

手法

Screen Shot 2021-05-28 at 13 38 14

理論展開のための仮定は以下:

Screen Shot 2021-05-28 at 13 39 06

Screen Shot 2021-05-28 at 13 39 12

Screen Shot 2021-05-28 at 13 39 18

Screen Shot 2021-05-28 at 13 39 24

導出される結果は,layer-wiseでの勾配圧縮の収束レートはモデル全体で勾配を圧縮する際のもので上から抑えられる

Screen Shot 2021-05-28 at 13 40 36

結果

Screen Shot 2021-05-28 at 13 42 55

Screen Shot 2021-05-28 at 13 43 00

Screen Shot 2021-05-28 at 13 43 04

Screen Shot 2021-05-28 at 13 43 15

Screen Shot 2021-05-28 at 13 43 21

Screen Shot 2021-05-28 at 13 43 27

コメント

@nocotan nocotan self-assigned this May 26, 2021
@nocotan nocotan changed the title [WIP] On the Discrepancy between the Theoretical Analysis and Practical Implementations of Compressed Communication for Distributed Deep Learning On the Discrepancy between the Theoretical Analysis and Practical Implementations of Compressed Communication for Distributed Deep Learning May 28, 2021
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Projects
None yet
Development

No branches or pull requests

1 participant