数学:Mathematics

アルゴリズム:Algorithms

保護中: 深層強化学習における価値評価と戦略と弱点

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される深層強化学習における価値評価と戦略と弱点(サンプル効率の悪さ、手法の検証も難しさ、実装の仕方による性能への影響、ライブラリの初期値、再現性の低さ、過学習、局所最適、器用貧乏、TRPO、PPO、連続値コントロール、画像コントロール、Policyベース、Valueベース)
推論技術:inference Technology

命題論理の充足可能性判定問題(SAT:Boolean SAtisfiability)の概要と実装

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクにに活用される命題論理の充足可能性判定問題(SAT:Boolean SAtisfiability)の概要と実装(Clojure Rollingstones、Pyhton、PySAT、z3-solver、C++、2-SAT、ゲームAI、自然言語処理の高速化、組合せ最適化問題の効率化、ハイパーパラメータの最適化、コンピュータセキュリティ、ソフトウェア仕様の自動検証、チップ設計の自動検証、zChaff、WalkSAT、GRASP、CryptoMiniSat、MapleSAT、Scavel、PicoSAT、MiniSAT、CaDiCaL、Lingeling、Glucose、P≠NP予想、論理問題)
アルゴリズム:Algorithms

保護中: 線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題(リグレット、アルゴリズム、最小二乗定量、LinUCBスコア、報酬期待値、点推定、知識活用重視の方策、探索重視の方策、ウッドベリーの公式、LinUCB方策、LinUCB policy、文脈付きバンディット、ウェブサイト最適化、売り上げ期待値最大、バンディット最適予算配分)
アルゴリズム:Algorithms

保護中: 統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差の評価

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに用いられる統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差(凸2次計画問題、数理計画法、判別機、予測判別誤差、ベイズ誤差、多値サポートベクトルマシン、表現定理、ラデマッハ複雑度、多値マージン、正則化項、経験損失、再生核ヒルベルト空間、ノルム制約、リプシッツ連続性、予測Φp-多値マージン損失、経験Φ-多値マージン損失、一様バウンド、判別関数、判別器)
アルゴリズム:Algorithms

保護中: L1ノルム正則化のための最適化手法としての双対拡張ラグランジュ法・双対交互方向乗数法

デジタルトランスフォーメーショ(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるスパース学習でのL1ノルム正則化のための最適化手法(FISTA、SpaRSA、OWLQN、DL法、L1ノルム、チューニング、アルゴリズム、DADMM、IRS、ラグランジュ乗数、近接点法、交互方向乗数法、勾配上昇法、拡張ラグランジュ法、ガウス・サイデル法、連立一次方程式、制約付きノルム最小化問題、コレスキー分解、交互方向乗数法、双対拡張ラグランジュ法、相対双対ギャップ、ソフト閾値関数、へシアン行列)
アルゴリズム:Algorithms

保護中: ベイズ推論による機械学習の例:ガウス混合モデルのギブスサンプリングによる推論

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるベイズ推論の学習例:ガウス混合モデルのギブスサンプリングでの推論(アルゴリズム、観測モデル、ポアソン混合モデル、ウィシャート分布、多次元ガウス分布、条件付き分布、ガウス・ウィシャート分布、潜在変数、カテゴリ分布)
アルゴリズム:Algorithms

保護中: 機械学習における連続最適化での信頼領域法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習における連続最適化での信頼領域法(ドッグレッグ法、ノルム制約、モデル関数最適化、部分問題の近似解、修正ニュートン法、探索方向、大域的最適解、ニュートン法、最急降下法、信頼領域半径、信頼領域、降下方向、ステップ幅)
アルゴリズム:Algorithms

推薦技術

推薦技術概要 機械学習を用いた推薦技術では、ユーザーの過去の行動履歴や嗜好データなどを分析し、そのデータに基づいて、より良い個人化された推薦を提供することができる。 これは具体的には、以下のような手順を踏む。 ...
アルゴリズム:Algorithms

保護中: 強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG(Pendulum、Actor Critic、SequentialMemory、Adam、keras-rl、TD誤差、Deep Deterministic Policy Gradient、Deterministic Policy Gradient、Advanced Actor Critic、A2C、A3C、Proximal Policy Optimization、Trust Region Policy Optimization、Python)
Clojure

保護中: Clojureでのk-meansを使ったテキスト文書間の類似性の尺度を使った推薦システム

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるClojureでのk-meansを使ったテキスト文書間の類似性の尺度を使った推薦システム(Slope One推薦、トップ・レーティング計算、加重評価、ペアアイテムの平均差、Weighted Slope One、ユーザーベース推薦、協調フィルタリング、アイテムベース推薦、映画推薦データ)
タイトルとURLをコピーしました