幾何学:Geometry

アルゴリズム:Algorithms

保護中: 統計数学理論によるν-サポートベクトルマシンの概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論によるν-サポートベクトルマシンの概要(カーネル関数、有界性、経験マージン判別誤差、バイアス項なしモデル、再生核ヒルベルト空間、予測判別誤差、一様バウンド、統計的一致性、C-サポートベクトルマシン、対応関係、統計モデルの自由度、双対問題、勾配降下、最小距離問題、判別境界、幾何学的解釈、2値判別、経験マージン判別誤差、経験判別誤差、正則化パラメータ、ミニマックス定理、グラム行列、ラグランジュ関数)
アルゴリズム:Algorithms

保護中: バッチ型確率的最適化の分散処理としての確率的座標降下法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるバッチ型確率的最適化の分散処理としての確率的座標降下法(COCOA、収束レート、SDCA、γf-平滑、部分問題の近似解、確率的座標降下法、並列確率的座標降下法、並列計算処理、Communication-Efficient Coordinate Ascent、双対座標降下法)
アルゴリズム:Algorithms

保護中: ベイズ推論による機械学習の例:ポアソン混合モデルの変分法による推論

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるベイズ推論による機械学習の例:ポアソン混合モデルの変分法による推論(ギブスサンプリング、変分推論、アルゴリズム、ELBO、計算、変分推論アルゴリズム、潜在変数、パラメータ、事後分布、ディリクレ分布、ガンマ分布)
アルゴリズム:Algorithms

保護中: 強化学習に対するニューラルネットワークの適用 戦略をパラメータを持った関数で実装するPolicy Gradient

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習に対するニューラルネットワークの適用 戦略をパラメータを持った関数で実装するPolicy Gradient(割引現在価値、戦略更新、tensorflow、Keras、CartPole、ACER、Actor Critoc with Experience Replay、Off-Policy Actor Critic、behaviour policy、Deterministic Policy Gradient、DPG、DDPG、Experience Replay、Bellman Equation、方策勾配法、行動履歴)
アルゴリズム:Algorithms

保護中: Exp3.P方策と敵対的多腕バンディット問題の下界の理論概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるExp3.P方策と敵対的多腕バンディット問題の下界の理論概要(累積報酬、Poly INF方策、アルゴリズム、アーベル・ルフィニの定理、Poly INF方策の擬リグレット上界、閉形式、連続微分可能関数、オーディベール、ブベック、INF方策、疑リグレット下界、乱択アルゴリズム、最適オーダーの方策、高確率リグレット上界)
アルゴリズム:Algorithms

保護中: 統計数学理論によるC-サポートベクトルマシンの概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論によるサポートベクトルマシン C-サポートベクトルマシン(サポートベクトル比、マルコフの不等式、確率不等式、予測判別誤差、1つ抜き交差確認法、LOOCV、判別器、相補性条件、主問題、双対問題、最適解、1次凸最適化問題、判別境界、判別関数、ラグランジュ関数、極限条件、スレイター制約想定、ミニマックス定理、グラム行列、ヒンジ損失、マージン損失、凸関数、ベイズ誤差、正則化パラメータ)
アルゴリズム:Algorithms

保護中: オンライン型確率的最適化の分散処理

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるオンライン型確率的最適化の分散処理(期待誤差、ステップサイズ、エポック、強凸期待誤差、SGD、リプシッツ連続、γ-平滑、α-強凸、Hogwild!、並列化、ラベル伝搬法、グラフ上での伝搬、スパースな特徴ベクトル、非同期型分散SGD、ミニバッチ法、確率的最適化手法、勾配の分散、不偏推定量、SVRG、勾配法のミニバッチ並列化、ネステロフの加速法、並列化SGD)
アルゴリズム:Algorithms

保護中: 機械学習の連続最適化としての共役勾配法と非線形共役勾配法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習の連続最適化としての共役勾配法と非線形共役勾配法(モーメント法、非線形共役勾配法、探索方向、慣性項、Polak-Ribiere法、直線探索、ウルフ条件、Dai-Yuan法、強ウルフ条件、Fletcher-Reeves法、大域的収束性、ニュートン法、急速降下法、ヘッセ行列、凸2次関数、共役勾配法、最小固有値、最大固有値、アフィン部分空間、共役方向法、座標降下法)
アルゴリズム:Algorithms

保護中: スパース性に基づく機械学習としてのノイズありL1ノルム最小化の理論(2)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるスパース性に基づく機械学習としてのノイズありL1ノルム最小化の理論(数値解析例、ヒートマップ、人工データ、制限強凸性、制限等長性、kスパースベクトル、ノルムの独立性、劣微分、凸関数、回帰係数ベクトル、直交補空間)
アルゴリズム:Algorithms

様々な強化学習技術の理論とアルゴリズムとpythonによる実装

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される様々な強化学習技術の理論とアルゴリズムとpythonによる実装(強化学習,オンライン学習,オンライン予測,深層学習,python,アルゴリズム,理論,実装)
モバイルバージョンを終了
タイトルとURLをコピーしました