線形代数:Linear Algebra

微分積分:Calculus

保護中: 機械学習における連続最適化の基本事項としての凸解析の基礎

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される連続最適化の基本事項としての凸解析の基礎(劣勾配、劣微分、共役関数、閉真凸関数、共役関数、強凸関数、閉真凸関数、関数値の上下界、ヘッセ行列、エピグラフ、テイラーの定理、相対的内部、アフイン包、連続性、凸包、凸関数、凸集合)
アルゴリズム:Algorithms

保護中: 統計数学理論の基本的枠組み

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論の基本的枠組み(正則化、近似誤差と推定誤差、へフディングの不等式、予測判別誤差、統計的一致性、学習アルゴリズム、性能評価、ROC曲線、AUC、ベイズ規則、ベイズ誤差、予測損失、経験損失)
アルゴリズム:Algorithms

保護中: ガウス過程の空間統計学、ベイズ最適化への適用

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的生成モデルの応用としてのガウス過程の空間統計学、ベイズ最適化への適用(ARD,Maternカーネル)のツール(GPyOptやGPFlowやGPyTorch)
アルゴリズム:Algorithms

保護中: モデルフリー強化学習のpythonによる実装(1) epsilon-Greedy法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用するためのモデルフリー強化学習の一つであるepsilon-Greedy法のpythonによる実装、多腕バンディット
Clojure

Hierarchical Temporal Memory (階層型時間メモリ)とClojure

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される階層型時間メモリとClojureによる疎分散表現を使った深層学習
Clojure

Clojureを用いたネットワーク解析(1) 幅優先/深さ優先探索・最短経路探索・最小スパニング木・サブグラフと連結成分

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習タスクに用いられるClojure/loomを用いたネットワーク解析、幅優先/深さ優先探索・最短経路探索・最小スパニング木・サブグラフと連結成分
アルゴリズム:Algorithms

連続最適化の基本事項 – 微積分・線形代数の基礎

連続最適化の基本事項 - 微積分・線形代数の基礎(テイラーの定理、ヘッセ行列、ランダウの記号、リプシッツ連続、リプシッツ定数、陰関数定理、ヤコビ行列、対角行列、固有値、非負定値行列、正定値行列、部分空間、射影、1ランク更新、自然勾配法、準ニュートン法、シャーマン・モリソンの公式、ノルム、ユークリッドノルム、p-ノルム、シュワルツの不等式、ヘルダーの不等式、行列空間上の関数)
アルゴリズム:Algorithms

保護中: 変分ベイズ法での周辺尤度、事後平均、事後共分散及び予測分布の計算

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習タスクに用いられる変分ベイズ法での周辺尤度、事後平均、事後共分散及び予測分布の計算手法(ジェームス-スタイン推定量、最尤推定、経験ベイズ推定量、ベイズ自由エネルギー、超パラメータ、自動関連度決定、線形回帰モデル、確率的複雑さ、対数周辺尤度経験ベイズ学習、多項分布モデル、事後平均、線形回帰モデル)
アルゴリズム:Algorithms

保護中: グラフィカルモデルの構造学習

ベイジアンネットワークやマルコフ確率場でグラフ構造をデータから学習する方法について(Max-Min Hill Climbming(MMHC)、Chow-Liuのアルゴリズム、スコア関数を最大化する方法、PC(Peter Spirtes and Clark Clymoir)アルゴリズム、GS(Grow-Shrink)アルゴリズム、SGS(Spietes Glymour and Scheines)アルゴリズム、スパース正則化、独立性条件)
アルゴリズム:Algorithms

保護中: 点過程からみるノンパラメトリックベイズ – 正規化ガンマ過程とディリクレ過程と完備ランダム測度

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される点過程から見たノンパラメトリックベイズ - 正規化ガンマ過程とディリクレ過程と完備ランダム測度(ポアソン過程、リヴィ測度、ガンマランダム測度、ベータランダム測度、レヴィ-伊藤分解)
モバイルバージョンを終了
タイトルとURLをコピーしました