python

保護中: 強化学習に対するニューラルネットワークの適用(1)概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習に対するニューラルネットワークの適用の概要(Agent、Epsilon-Greedy法、Trainer、Observer、Logger、確率的勾配降下法、Stochastic Gradient Descent、SGD、Adaptive Moment Estimation、Adam、Optimizer、誤差逆伝搬法、Backpropagation、勾配、活性化関数、バッチ法、価値関数、戦略)
IOT技術:IOT Technology

分散データ処理を可能とするApache Sparkの導入と環境設定

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される分散データ処理を可能とするApache Sparkの導入と環境設定(NodeManager、YARN、spark-master、ResourceManager、spark-worker、HDFS、NameNode、DataNode、spark-client、CDH5.4、haddop、Yum、CentOS)
アーキテクチャ

マイクロサービスのデプロイと運用-DockerとKubernetes

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるマイクロサービスのデプロイと運用-DockerとKubernetes(minikube、コンテナ、デプロイ、kube-ctl、ローリングアップグレード、自動ビンパッキング、水平スケーリング、スケールアップ、スケールダウン、自己回復、kubelet、kube-apiserver, etcd, kube-controller- manager, kube- scheduler、Pod、kube-proxy、Docker CLI、Docker Registry、cgroups、Linuxカーネル、カーネルネームスペース 、ユニオンマウントオプション、Hypervisor)
アルゴリズム:Algorithms

アンサンブル法による機械学習 -基礎とアルゴリズム 読書メモ

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるアンサンブル法による機械学習での基礎とアルゴリズム(クラス不均衡学習、コスト考慮型学習、アクティプラーニング、半教師あり学習、類似性に基づく手法、クラスタリングアンサンブル法、グラフに基づく手法、祭ラベルに基づく手法、変換に基づく手法、クラスタリング、最適化に基づく枝刈り、アンサンブル枝刈り、結合法、バギング、ブースティング)
アルゴリズム:Algorithms

保護中: 正定値行列の情報幾何(3)計算の手順と曲率

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される正定値行列の情報幾何としての計算の手順と曲率(双対ギャップ、アフィン微分幾何、ヘッセ幾何、ガウシアングラフィカルモデル、偏微分方程式論、確率論、線形計画問題、正定値対称行列、半正定値計画問題、予測子・修正子法、多項式時間アルゴリズム、幾何情報的量、ニュートン法、中心曲線、内点法、主内点法、双対内点法、主双対内点法、近似最適解、アフィン空間、ポテンシャル関数)
アルゴリズム:Algorithms

保護中: 確率的バンディッド問題の方策 尤度に基づく方策(UCBとMED方策)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的バンディッド問題の方策 尤度に基づくUCB方策とMED方策(MED方策(Indexed Mimimum Empirical Divergence policy)、KL-UCB方策、DMED方策、リグレット上界、ベルヌーイ分布、大偏差原理、Deterministic Minimum Empirical Divergence policy、ニュートン法、KLダイバージェンス、ビンスカーの不等式、ヘフディングの不等式、チェルノフ・ヘフディングの不等式、Upper Confidence Bound)
アルゴリズム:Algorithms

保護中: 統計数学理論における判別適合的損失についての概要

統計数学理論における判別適合的損失についての概要(ランプ損失、凸マージン損失、非凸なΦ-マージン損失、判別適合的、ロバスト・サポートベクトルマシン、判別適合性定理、L2-サポートベクトルマシン、2乗ヒンジ損失、ロジスティック損失、ヒンジ損失、ブースティング、指数損失、凸マージン損失の判別適合性定理、ベイズ規則、予測Φ-損失、予測判別誤差、単調非増加凸関数、経験Φ-損失、経験判別誤差)
アルゴリズム:Algorithms

保護中: 機械学習のためのオンライン型確率的最適化と確率的勾配降下法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスク活用のための機械学習のための確率的最適化と確率的勾配降下法(ネステロフの加速法、凸関数の最適化を勾配法で解く、ラグランジュの未定乗数法、ユークリッドノルム、収束レート、KLダイバージェンス、指数勾配降下法、ニュートン・ラフソン法、ブレグマンダイバージェンス、確率的鏡像降下法、狭義凸関数、リプシッツ連続、損失関数、射影勾配法、SGD、コーシー・シュワルツの不等式、ミニマックス最適、最急降下法)
アルゴリズム:Algorithms

保護中: 機械学習における最適性条件とアルゴリズムの停止条件

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)に活用される機械学習における最適性条件とアルゴリズムの停止条件(スケーリング、影響、機械イプシロン、アルゴリズム停止条件、反復法、凸最適解、制約付き最適化問題、大域最適解、局所最適解、凸関数、2次の十分条件、2次の必要条件、1次の必要条件)
アルゴリズム:Algorithms

保護中: ガウス過程による教師なし学習(2)ガウス過程潜在変数モデルの拡張

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的生成モデルの応用であるガウス過程による教師なし学習としてのガウス過程潜在変数モデルの拡張(無限ワープ混合モデル、ガウス過程力学モデル、ポアソン点過程、対数ガウスCox過程、潜在ガウス過程、楕円スライスサンプリング)
タイトルとURLをコピーしました