経験再生(Experience Replay)とは



機械学習

分類(classification)

ニューラルネットワーク(NN)

クラスタリング

強化学習

敵対的生成ネットワーク

公開日:2021/5/4         

前提知識
 ・Deep Q-Network(DQN)


■経験再生(Experience Replay)とは

経験再生(Experience Replay)とは、DQNにおいて学習精度を高める手法の一つで、これまでとった行動を記憶し、一定の間隔で記憶した行動をランダムに複数個(これをバッチサイズといいます)選択し学習します。 こうして定期的にランダムに学習することで、"時刻に対し相関が高い"と誤って学習してまう事を防止することできます。

またこれまでの行動をランダムに学習するのではなく、学習に効果的と思われる行動や、頻度の少ない行動に対して優先的に選んで学習する方法を、優先度付き経験再生(Prioritized Experience Replay)といいます。 優先度をつける方法は、教師信号と学習値との差の絶対値を使用し、絶対値が大きい場合は学習の効果が高い、あるいは学習回数が少ないことを意味するので、replay時に優先的に抽出します。 絶対値が小さい場合は、学習の効果が低い、あるいは学習回数を十分重ねたということを意味しますので、replay時にあまり抽出しなくなります。









サブチャンネルあります。⇒ 何かのお役に立てればと

関連記事一覧



機械学習

分類(classification)

ニューラルネットワーク(NN)

クラスタリング

強化学習

敵対的生成ネットワーク