微分積分:Calculus

アルゴリズム:Algorithms

保護中: 統計数学理論による多値判別の判別適合的損失と各種損失関数への適用

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論による多値判別の判別適合的損失と各種損失関数への適用(識別モデル損失、判別適合的、狭義順序保存特性、ロジスティックモデル、最尤推定、非負値凸関数、1対他損失、制約付き比較損失、凸非負値関数、ヒンジ損失、ペア比較損失、多値サーポートベクトルマシン、単調非増加関数、予測判別誤差、予測ψ-損失、可測関数)
アルゴリズム:Algorithms

保護中: ガウス混合モデルの変分法と崩壊型ギブスサンプリングによるベイズ推論

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるガウス混合モデルの変分法と崩壊型ギブスサンプリングによるベイズ推論(推論アルゴリズム、解析的な積分近似、複雑なモデル、ガウス・ウィシャート分布、クラスタリング、多次元スチューデントのt分布、カテゴリ分布、ポアソン混合モデル、ディリクレ分布、近似事後分布、潜在変数)
アルゴリズム:Algorithms

保護中: 深層強化学習における価値評価と戦略と弱点

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される深層強化学習における価値評価と戦略と弱点(サンプル効率の悪さ、手法の検証も難しさ、実装の仕方による性能への影響、ライブラリの初期値、再現性の低さ、過学習、局所最適、器用貧乏、TRPO、PPO、連続値コントロール、画像コントロール、Policyベース、Valueベース)
アルゴリズム:Algorithms

保護中: 線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題(リグレット、アルゴリズム、最小二乗定量、LinUCBスコア、報酬期待値、点推定、知識活用重視の方策、探索重視の方策、ウッドベリーの公式、LinUCB方策、LinUCB policy、文脈付きバンディット、ウェブサイト最適化、売り上げ期待値最大、バンディット最適予算配分)
アルゴリズム:Algorithms

保護中: 統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差の評価

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに用いられる統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差(凸2次計画問題、数理計画法、判別機、予測判別誤差、ベイズ誤差、多値サポートベクトルマシン、表現定理、ラデマッハ複雑度、多値マージン、正則化項、経験損失、再生核ヒルベルト空間、ノルム制約、リプシッツ連続性、予測Φp-多値マージン損失、経験Φ-多値マージン損失、一様バウンド、判別関数、判別器)
アルゴリズム:Algorithms

保護中: L1ノルム正則化のための最適化手法としての双対拡張ラグランジュ法・双対交互方向乗数法

デジタルトランスフォーメーショ(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるスパース学習でのL1ノルム正則化のための最適化手法(FISTA、SpaRSA、OWLQN、DL法、L1ノルム、チューニング、アルゴリズム、DADMM、IRS、ラグランジュ乗数、近接点法、交互方向乗数法、勾配上昇法、拡張ラグランジュ法、ガウス・サイデル法、連立一次方程式、制約付きノルム最小化問題、コレスキー分解、交互方向乗数法、双対拡張ラグランジュ法、相対双対ギャップ、ソフト閾値関数、へシアン行列)
アルゴリズム:Algorithms

保護中: ベイズ推論による機械学習の例:ガウス混合モデルのギブスサンプリングによる推論

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるベイズ推論の学習例:ガウス混合モデルのギブスサンプリングでの推論(アルゴリズム、観測モデル、ポアソン混合モデル、ウィシャート分布、多次元ガウス分布、条件付き分布、ガウス・ウィシャート分布、潜在変数、カテゴリ分布)
アルゴリズム:Algorithms

保護中: 機械学習における連続最適化での信頼領域法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習における連続最適化での信頼領域法(ドッグレッグ法、ノルム制約、モデル関数最適化、部分問題の近似解、修正ニュートン法、探索方向、大域的最適解、ニュートン法、最急降下法、信頼領域半径、信頼領域、降下方向、ステップ幅)
アルゴリズム:Algorithms

推薦技術

推薦技術概要 機械学習を用いた推薦技術では、ユーザーの過去の行動履歴や嗜好データなどを分析し、そのデータに基づいて、より良い個人化された推薦を提供することができる。 これは具体的には、以下のような手順を踏む。 ...
アルゴリズム:Algorithms

保護中: 強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG(Pendulum、Actor Critic、SequentialMemory、Adam、keras-rl、TD誤差、Deep Deterministic Policy Gradient、Deterministic Policy Gradient、Advanced Actor Critic、A2C、A3C、Proximal Policy Optimization、Trust Region Policy Optimization、Python)
モバイルバージョンを終了
タイトルとURLをコピーしました