強化学習(DQN)で​学習した方策(Q-N​etwork)の保存​方法について

6 visualizaciones (últimos 30 días)
一馬 平田
一馬 平田 el 31 de Oct. de 2021
Comentada: 一馬 平田 el 1 de Nov. de 2021
お世話になります。
rlQValueRepresetationにて学習済みのQ-networkを呼び出したいのですが、
強化学習(DQN)で学習した方策(Q-Network)はどうように保存すればよいでしょうか。
rlTrainingOptionsでエージェントを保存できることは確認致しましたが、学習済みのQ-Networkを確認することは出来ませんでした。
私の確認不足により、もし、rlTrainingOptionsで学習済みのQ-Networkが保存可能な場合、Q-Networkの呼び出し方法を教え頂けないでしょうか。

Respuesta aceptada

Toshinobu Shintai
Toshinobu Shintai el 31 de Oct. de 2021
エージェントによって形式が変わってきますが、基本的には「agent」オブジェクトの中に学習済みの方策は格納されています。
コマンドとしては「getModel」というコマンドで取り出すことができます。Actor-Critic形式のエージェントの場合は「getActor」コマンドも必要になると思います。
  1 comentario
一馬 平田
一馬 平田 el 1 de Nov. de 2021
ご回答頂きましてありがとうございます。
「getmodel」を使って、Q-Networkの呼び出しを試してみようと思います。
追加質問となり、申し訳ございませんが、
「getmodel」で呼び出した呼び出した方策(Q-Network)を使用し、別の対象の学習を行う時、
一部の層の重みを凍結させたいのですが、どのようにすればよろしいでしょうか。

Iniciar sesión para comentar.

Más respuestas (0)

Productos


Versión

R2021b

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!