凸関数

アルゴリズム:Algorithms

保護中: 確率的最適化における凸解析の基本事項(1)凸関数と劣微分、双対関数

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的最適化における凸解析の基本事項での凸関数と劣微分、双対関数(凸関数、共役関数、ヤング・フェンシェルの不等式、劣微分、ルジャンドル変換、劣勾配、L1ノルム、相対的内点、アフィン包、アフィン集合、閉包、エピグラフ、凸包、平滑凸関数、狭義凸関数、真凸閉関数、閉凸閉関数、実行定義域、凸集合)
アルゴリズム:Algorithms

保護中: 統計数学理論によるC-サポートベクトルマシンの概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論によるサポートベクトルマシン C-サポートベクトルマシン(サポートベクトル比、マルコフの不等式、確率不等式、予測判別誤差、1つ抜き交差確認法、LOOCV、判別器、相補性条件、主問題、双対問題、最適解、1次凸最適化問題、判別境界、判別関数、ラグランジュ関数、極限条件、スレイター制約想定、ミニマックス定理、グラム行列、ヒンジ損失、マージン損失、凸関数、ベイズ誤差、正則化パラメータ)
アルゴリズム:Algorithms

保護中: スパース性に基づく機械学習としてのノイズありL1ノルム最小化の理論(2)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるスパース性に基づく機械学習としてのノイズありL1ノルム最小化の理論(数値解析例、ヒートマップ、人工データ、制限強凸性、制限等長性、kスパースベクトル、ノルムの独立性、劣微分、凸関数、回帰係数ベクトル、直交補空間)
Uncategorized

保護中: 機械学習のためのオンライン型確率的最適化と確率的双対平均化法(SDA)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習のためのオンライン型確率的最適化と確率的双対平均化法(鏡像降下法、強凸関数、凸関数、収束レート、多項式減衰平均化、強凸正則化)
アルゴリズム:Algorithms

保護中: 機械学習における最適性条件とアルゴリズムの停止条件

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)に活用される機械学習における最適性条件とアルゴリズムの停止条件(スケーリング、影響、機械イプシロン、アルゴリズム停止条件、反復法、凸最適解、制約付き最適化問題、大域最適解、局所最適解、凸関数、2次の十分条件、2次の必要条件、1次の必要条件)
微分積分:Calculus

保護中: 機械学習における連続最適化の基本事項としての凸解析の基礎

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される連続最適化の基本事項としての凸解析の基礎(劣勾配、劣微分、共役関数、閉真凸関数、共役関数、強凸関数、閉真凸関数、関数値の上下界、ヘッセ行列、エピグラフ、テイラーの定理、相対的内部、アフイン包、連続性、凸包、凸関数、凸集合)
微分積分:Calculus

保護中: 劣モジュラ最適化と機械学習 – 概要

センサー配置の最適化等で利用される離散的な変数に対する機械学習である劣モジュラ最適化の概要
モバイルバージョンを終了
タイトルとURLをコピーしました