正則化

アルゴリズム:Algorithms

保護中: バッチ型確率的最適化 – 確率的分散縮小勾配降下法と確率的平均勾配法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるバッチ型確率的最適化 - 確率的分散縮小勾配降下法と確率的平均勾配法(SAGA、SAG、収束レート、正則化項、強凸条件、改良型確率的平均勾配法、不偏推定量、SVRG、アルゴリズム、正則化、ステップサイズ、メモリ効率、ネカテロフの加速法、ミニバッチ法、SDCA)
アルゴリズム:Algorithms

保護中: 統計数学理論の基本的枠組み

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論の基本的枠組み(正則化、近似誤差と推定誤差、へフディングの不等式、予測判別誤差、統計的一致性、学習アルゴリズム、性能評価、ROC曲線、AUC、ベイズ規則、ベイズ誤差、予測損失、経験損失)
アルゴリズム:Algorithms

保護中: 教師あり学習と正則化

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習最適化手法の基礎としての教師あり学習(回帰、判別)と正則化(リッジ関数、L1正則化、ブリッジ正則化、エラステックネット正則化、SCAD、グループ正則化、一般化連結正則化、トレースノルム正則化)の概要
IOT技術:IOT Technology

保護中: 劣モジュラ最適化を用いた構造正則化学習(1)正則化とp-ノルムの復習

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクのための離散情報の最適化手法である劣モジュラ最適化を用いた構造正則化学習を考えるための、スパースモデリング、正則化とp-ノルムの復習
オンライン学習

保護中: 関数近似を用いた強化学習(2)- 価値関数の関数近似(オンライン学習の場合)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される膨大な状態数での強化学習に対応する関数近似オンライン手法の理論(勾配TD学習法、最小二乗法に基づく最小二乗TD学習(LSTD)法、GTD2法)とLASSOによる正則化
最適化:Optimization

機械学習プロフェッショナルシリーズ スパース性に基づく機械学習 読書メモ

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習における正則化等に活用されるスパースモデリングの概要
微分積分:Calculus

保護中: 疎構造学習による異常検知- 変数同士の依存関係の崩れを異常と結びつけるグラフモデルと正則化

デジタルトランスフォーメーション(DX)、人工知能(AI)タスクに用いる変数同士の依存関係の崩れを異常と結びつけるグラフモデルと正則化の手法の概要(グラフィカルラッソ)
微分積分:Calculus

これならわかる深層学習入門 (機械学習スタートアップシリーズ)読書メモ

デジタルトランスフォーメーション(DX)、人工知能(AI)タスクのための深層学習の機械学習、勾配降下法、正則化、誤差逆伝播、自己符号化器、畳み込みニューラルネット、再帰型ニューラルネット、ボルツマンマシン、強化学習等の概要
機械学習:Machine Learning

保護中: スパース性とL1ノルムの導入

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)で活用されるデータ圧縮や特徴量抽出に活用されるスパースモデル機械学習とノルム
スパースモデリング

保護中: 機械学習の基礎とノルムと正則化

スパース性を利用した効率的な機械学習とノルムと正則化
タイトルとURLをコピーしました