ようこそ ゲスト さん
ログイン
入力補助
English
カテゴリ
インデックスツリー
ランキング
アクセスランキング
ダウンロードランキング
その他
法政大学
法政大学図書館
インデックスツリー
資料タイプ別
学内論文
大学院紀要=Bulletin of graduate studies
法政大学大学院紀要. 理工学・工学研究科編
法政大学大学院紀要. 理工学研究科編
法政大学大学院紀要. デザイン工学研究科編
法政大学大学院紀要. 情報科学研究科編
法政大学懸賞論文優秀論文集
法政大学国際文化学部国際社会演習トランスナショナル・ヒストリー研究卒業論文集
このアイテムのアクセス数:
49
件
(
2024-12-06
04:49 集計
)
Permalink : https://doi.org/10.15002/00021917
Permalink : https://hdl.handle.net/10114/00021917
閲覧可能ファイル
ファイル
フォーマット
サイズ
閲覧回数
説明
gradcis_14_16t2004
pdf
725 KB
63
論文情報
ファイル出力
アイテムタイプ
紀要論文
タイトル
Decentralized Deep Learning with Gradient Compression
著者
著者名
Cui, Xinzhe
言語
eng
ISSN
24321192
DOI
https://doi.org/10.15002/00021917
出版者
法政大学大学院情報科学研究科
雑誌名
法政大学大学院紀要. 情報科学研究科編
巻
14
開始ページ
1
終了ページ
6
発行年
2019-03-31
著者版フラグ
Version of Record
キーワード
Deep Learning
Distributed Computing
RPC
Decentralized Algorithm
Gradient Descent
TensorFlow
抄録
Training a deep neural network (DNN) with a single machine consumes much time. To accelerate the training, a popular method is distributed deep learning (DDL), that is to splits and distributes DNN training tasks on multiple machines. One of the common designs of the DDL is a centralized architecture, that contains one parameter server and several workers. In this architecture, several workers need communicate with the parameter server to get the latest parameter at every iteration. The network resource of the parameter server will be exhausted frequently, which further lead to the limitation of the total training performance. In this paper, we introduce a decentralized approach for distributed deep learning. Our proposed decentralized DDL removes the parameter server and all worker nodes are designed to communicate with each other directly to exchange the intermediate results of their own model. For good generalization, we built a customized optimizer class to compress the every iteration’s gradient that only update the gradient larger than threshold value. Compared with centralized distributed approach, our proposed model gains better accuracy during a whole test. When we limit the parameter server’s bandwidth to 300Mbps in order to simulate the network bottleneck problem, the performance of our proposed decentralized DDL improved several times faster than the existing centralized approach on the worst case execution time.
資源タイプ
Article
書誌レコードID
AA12746425
インデックス
資料タイプ別
 > 
学内論文
 > 
法政大学大学院紀要. 情報科学研究科編
501 学内論文
 > 
紀要
 > 
法政大学大学院紀要. 情報科学研究科編
 > 
14
ホームへ戻る