Referring Tweets

@DL_Hacks ニューラルネットの学習においてバッチサイズを大きくすると精度が下がる.この問題に対して入力に関するヘッセ行列の固有値を分析した論文.実装では重みに関するヘッセ行列でも同様の分析結果になることを確認した.コードはGithubにupした.t.co/PvCjmo7QDc

Related Entries

Read more [DL輪読会]Convolutional Conditional Neural Processesと Neural Processes F…
1 users, 1 mentions 2019/12/20 12:54
Read more [DL輪読会]MogrifierLSTM (ICLR2020)
0 users, 1 mentions 2020/02/14 09:51
Read more [DL輪読会]SEGAN Speech Enhancement Generative Adversarial Network
0 users, 1 mentions 2020/02/17 11:20
Read more [DL輪読会]Network Deconvolution
0 users, 1 mentions 2020/07/02 12:53
Read more [DL輪読会]Conservative Q-Learning for Offline Reinforcement Learning
0 users, 1 mentions 2020/07/07 12:58