AIシステム設計・意思決定構造の設計を専門としています。
Ontology・DSL・Behavior Treeによる判断の外部化、マルチエージェント構築に取り組んでいます。
Specialized in AI system design and decision-making architecture.
Focused on externalizing decision logic using Ontology, DSL, and Behavior Trees, and building multi-agent systems.

コメント
[…] モデルフリー型の強化学習(1)– 価値反復法(モンテカルロ法、TD法、TD(λ)法) […]
[…] 次回は環境が未知であり、環境とエージェントの相互作用などによって得られたデータから方策を学習するアプローチについて述べる。 […]
[…] 前回までに履歴データからベルマン期待作用素Bπを近似して、価値関数を推定することをについて述べた。今回は主にベルマン最適作用素B*に基づく価値反復法を近似的に実行して、最適方策π*を学習することについて述べる。ただし、前述のように単純にB*を標本近似できないので、まずベルマン作用素と価値関数に行動空間を追加して、ベルマン行動作用素と行動価値関数を定義する。次にそれらを用いてベルマン行動作用素の標本近似を行い。さらにバッチ学習とオンライン学習としてQ学習法とSARSA法について述べる。 […]
[…] モデルフリー型の強化学習(1)- 価値反復法(モンテカルロ法、TD法、TD(λ)法) […]
[…] る。価値反復法はベルマン最適化方程式を使用し、状態価値関数を収束させる。詳細は”モデルフリー型の強化学習(1)- 価値反復法(モンテカルロ法、TD法、TD(λ)法)“も参照のこと。 […]