最適化:Optimization

python

自然勾配法の概要とアルゴリズム及び実装例について

自然勾配法の概要 自然勾配法(Natural Gradient Descent)は、"確率的勾配降下法(Stochastic Gradient Descent, SGD)の概要とアルゴリズム及び実装例について"で述べてい...
python

リーマン最適化のアルゴリズムと実装例について

リーマン最適化 リーマン最適化(Riemannian Optimization)は、通常の最適化手法をリーマン多様体上で行うアプローチとなる。 ここでの多様体とは「局所的には単純だが、全体的には複雑な空間」を表現す...
python

確率的勾配降下法(Stochastic Gradient Descent, SGD)の概要とアルゴリズム及び実装例について

確率的勾配降下法(Stochastic Gradient Descent, SGD)について 確率的勾配降下法(Stochastic Gradient Descent, SGD)は、機械学習や深層学習などで広く使用される最適化...
python

ヒルベルトワンド変換の概要とアルゴリズム及び実装例について

ヒルベルトワンド変換について ヒルベルト変換(Hilbert transform)は、信号処理や数学の分野で広く使用される操作であり、信号のアナリティシティ(解析的性質)を導入するために利用されている手法となる。ヒルベル...
python

準ニュートン法について

準ニュートン法について 準ニュートン法(Quasi-Newton Method)は、非線形最適化問題を解決するための反復法の一つとなる。このアルゴリズムは、ニュートン法の一般化であり、高次導関数(ヘッセ行列)を計算せずに...
python

Post-training Quantizationの概要とアルゴリズム及び実装例について

Post-training Quantizationの概要 Post-training quantization(事後量子化)は、ニューラルネットワークの訓練が終了した後にモデルを量子化する手法であり、この手法では、通常...
python

オルナシュテイン-ウーレンベック過程(Ornstein-Uhlenbeck process)の概要とアルゴリズム及び実装例について

オルナシュテイン-ウーレンベック過程(Ornstein-Uhlenbeck process)の概要 オルナシュテイン-ウーレンベック過程(Ornstein-Uhlenbeck process)は、確率過程の一種であり、特...
python

Limited-memory Broyden–Fletcher–Goldfarb–Shanno(L-BFGS)法について

Limited-memory Broyden–Fletcher–Goldfarb–Shanno(L-BFGS)法について Limited-memory Broyden–Fletcher–Goldfarb–Shanno(L...
グラフ理論

情報幾何とは何か

情報幾何の本質とは 情報幾何(Information Geometry)は、統計学や情報理論、機械学習などで使われる確率分布や統計モデルの幾何学的な構造を研究する分野であり、その本質的な考え方は、確率分布や統計モデルを幾...
アルゴリズム:Algorithms

勾配消失問題(vanishing gradient problem)とその対応について

勾配消失問題(vanishing gradient problem)について 勾配消失問題(Vanishing Gradient Problem)は、主に深層ニューラルネットワークにおいて発生する問題の一つであり、ネット...
タイトルとURLをコピーしました