スパースモデリング

アルゴリズム:Algorithms

保護中: プレイヤーの行動の候補が膨大あるいは連続的な場合の最適腕バンディットとベイズ最適(1)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるプレイヤーの行動の候補が膨大あるいは連続的な場合の最適腕バンディットとベイズ最適(線形カール、線形バンディット、共分散関数、マターンカーネル、ガウスカーネル、正定値カーネル関数、ブロック行列、逆行列公式、事前同時確率密度、ガウス過程、リプシッツ連続、ユークリッドノルム、単純リグレット、ブラックボックス最適化、最適腕識別、リグレット、交差確認、leave-one-out交差確認、連続腕バンディット)
アルゴリズム:Algorithms

保護中: トレースノルム正則化に基づくスパース機械学習

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるトレースノルム正則化に基づくスパース機械学習(PROPACK、ランダム射影、特異点分解、低ランク、スパース行列、近接勾配の更新式、協調フィルタリング、特異値ソルバー、トレースノルム、prox作用、正則化パラメータ、特異値、特異ベクトル、加速付き近接勾配法、トレースノルム正則化付き学習問題、半正定行列、行列の平方根、フロベニウスノルム、フロベニウスノルム二乗正則化、トーレスノルム最小化、2値分類問題、マルチタスク学習、グループL1ノルム、推薦システム)
アルゴリズム:Algorithms

保護中: 機械学習における制約付き不等式最適化問題の最適性条件

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習における制約付き不等式最適化問題の最適性条件(双対問題、強双対性、ラグランジュ関数、線形計画問題、スレイター条件、主双対内点法、弱双対性、凸最適化の1次の十分条件、2次の十分条件、KKT条件、停留条件、1次の最適性条件、有効制約式、Karush-Kuhn-Tucker、局所最適解)
アルゴリズム:Algorithms

保護中: 確率的最適化における凸解析の基本事項(1)凸関数と劣微分、双対関数

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的最適化における凸解析の基本事項での凸関数と劣微分、双対関数(凸関数、共役関数、ヤング・フェンシェルの不等式、劣微分、ルジャンドル変換、劣勾配、L1ノルム、相対的内点、アフィン包、アフィン集合、閉包、エピグラフ、凸包、平滑凸関数、狭義凸関数、真凸閉関数、閉凸閉関数、実行定義域、凸集合)
アルゴリズム:Algorithms

保護中: 説明できる機械学習(17)反事実的説明 (Counterfactual Explanations)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される反事実的説明による機械学習結果の説明(Anchor、Growing Spheresアルゴリズム、Python、Alibi、カテゴリカル特徴量、羅生門効果、LIME、全結合型ニューラルネット、反事実生成アルゴリズム、ユークリッド距離、中央絶対偏差、Nelder-Mead法、因果意味論、原因)
アルゴリズム:Algorithms

保護中: 深層強化学習の弱点と対策の概要と環境認識の改善の為の2つのアプローチ

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクにに活用される深層強化学習の弱点と対策の概要と環境認識改善のの2つのアプローチ(Mixture Density Network、RNN、Variational Auto Encoder、World Modles、表現学習、戦略ネットワーク圧縮、モデルフリー学習、Sample-Based Planning Model、Dyna、シミュレーションベース、サンプルベース、Gaussian Process、ニューラルネット、遷移関数、報酬関数、シミュレーター、学習能力、転移能力)
アルゴリズム:Algorithms

保護中: トンプソン抽出、ロジスティック回帰モデル上の線形バンディット問題

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるトンプソン抽出、ロジスティック回帰モデル上の線形バンディット問題(トンプソン抽出、最尤推定、ラプラス近似、アルゴリズム、ニュートン法、負の対数事後確率、勾配ベクトル、ヘッセ行列、ラプラス近似、ベイズ統計、一般化線形モデル、Lin-UCB方策、リグレット上界)
アルゴリズム:Algorithms

保護中: グループL1ノルム正則化に基づくスパース学習

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるグループL1ノルム正則化に基づくスパース機械学習(相対双対ギャップ、双対問題、勾配降下、拡張ラグランジュ関数、双対拡張ラグランジュ法、ヘシアン、L1ノルム正則化、グループL1ノルム正則化、双対ノルム、経験誤差最小化問題、prox作用素、Nesterovの加速法、近接勾配法、繰り返し重み付き縮小法、変分表現、非ゼログループ数、カーネル重み付き正則化項、凹共役、再生核ヒルベルト空間、サポートベクトルマシン、カーネル重み、マルチカーネル学習、基底カーネル関数、EEG信号、MEG信号、ボクセル、電気双極子、ニューロン、マルチタスク学習)
アルゴリズム:Algorithms

保護中: 機械学習における等式制約付き最適化問題の最適性条件

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される制約付き機械学習における等式制約付き最適化問題の最適性条件(不等式制約付き最適化問題、有効制約法、ラグランジュ乗数、1次独立、局所最適解、真凸関数、強双対性定理、ミニマックス定理、強双対性、大域的最適解、2次の最適性条件、ラグランジュ未定乗数法、勾配ベクトル、1次の最適性問題)
アルゴリズム:Algorithms

保護中: 統計数学理論による多値判別の判別適合的損失と各種損失関数への適用

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論による多値判別の判別適合的損失と各種損失関数への適用(識別モデル損失、判別適合的、狭義順序保存特性、ロジスティックモデル、最尤推定、非負値凸関数、1対他損失、制約付き比較損失、凸非負値関数、ヒンジ損失、ペア比較損失、多値サーポートベクトルマシン、単調非増加関数、予測判別誤差、予測ψ-損失、可測関数)
モバイルバージョンを終了
タイトルとURLをコピーしました