hummingbird

アルゴリズム:Algorithms

保護中: 線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される線形バンディット、文脈付きバンディット、LinUCB方策での線形バンディッド問題(リグレット、アルゴリズム、最小二乗定量、LinUCBスコア、報酬期待値、点推定、知識活用重視の方策、探索重視の方策、ウッドベリーの公式、LinUCB方策、LinUCB policy、文脈付きバンディット、ウェブサイト最適化、売り上げ期待値最大、バンディット最適予算配分)
アルゴリズム:Algorithms

保護中: 統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差の評価

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに用いられる統計数学理論による多値判別でのラデマッハ複雑度と予測判別誤差(凸2次計画問題、数理計画法、判別機、予測判別誤差、ベイズ誤差、多値サポートベクトルマシン、表現定理、ラデマッハ複雑度、多値マージン、正則化項、経験損失、再生核ヒルベルト空間、ノルム制約、リプシッツ連続性、予測Φp-多値マージン損失、経験Φ-多値マージン損失、一様バウンド、判別関数、判別器)
アルゴリズム:Algorithms

保護中: L1ノルム正則化のための最適化手法としての双対拡張ラグランジュ法・双対交互方向乗数法

デジタルトランスフォーメーショ(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるスパース学習でのL1ノルム正則化のための最適化手法(FISTA、SpaRSA、OWLQN、DL法、L1ノルム、チューニング、アルゴリズム、DADMM、IRS、ラグランジュ乗数、近接点法、交互方向乗数法、勾配上昇法、拡張ラグランジュ法、ガウス・サイデル法、連立一次方程式、制約付きノルム最小化問題、コレスキー分解、交互方向乗数法、双対拡張ラグランジュ法、相対双対ギャップ、ソフト閾値関数、へシアン行列)
アルゴリズム:Algorithms

保護中: ベイズ推論による機械学習の例:ガウス混合モデルのギブスサンプリングによる推論

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるベイズ推論の学習例:ガウス混合モデルのギブスサンプリングでの推論(アルゴリズム、観測モデル、ポアソン混合モデル、ウィシャート分布、多次元ガウス分布、条件付き分布、ガウス・ウィシャート分布、潜在変数、カテゴリ分布)
アルゴリズム:Algorithms

保護中: 機械学習における連続最適化での信頼領域法

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習における連続最適化での信頼領域法(ドッグレッグ法、ノルム制約、モデル関数最適化、部分問題の近似解、修正ニュートン法、探索方向、大域的最適解、ニュートン法、最急降下法、信頼領域半径、信頼領域、降下方向、ステップ幅)
ビジネス:Business

論文/報告書の書き方

  論文/報告書の書き方 論文や報告書の書き方には以下に示すような多くのステップがある。 テーマの選択 まずは、自分が書きたいテーマを決める。その際には、自分が興...
アルゴリズム:Algorithms

推薦技術

推薦技術概要 機械学習を用いた推薦技術では、ユーザーの過去の行動履歴や嗜好データなどを分析し、そのデータに基づいて、より良い個人化された推薦を提供することができる。 これは具体的には、以下のような手順を踏む。 ...
コンピューター

半導体製造技術の概要とAI技術の適用について

半導体製造技術の概要とAI技術の適用について(前工程、ウエハ製造、洗浄工程、成膜工程、リソグラフィ工程、エッチング工程、不純物拡散工程等、後工程、ダイシング、マウント、ボンディング、モールド、マーキング、バンプ加工、パッケージング、拡散、イオン注入、アニーリング、ウェットエッチング、ドライエッチング、液浸露光装置、EUV、ARエキシマレーザ、ムーアの法則、2nm、感光剤、写真製版技術、ステッパー、熱酸化、CVD、スパッタ、チョクラルスキー法、インゴット、Siウェハ)
Uncategorized

保護中: 説明できる人工知能(15)モデル非依存の解釈(シャープレイ値(sharpley value))

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される説明できる人工知能としてのシャープレイ値を用いたモデル非依存解釈(breakDown、fastshap、R言語、対称性の公理、LIME、SHAP、スパースな説明、効率性、対称性、ダミー、加法性の原理、シャープレイ値、協力ゲーム理論)
アルゴリズム:Algorithms

保護中: 強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習のPolicy Gradient手法の改善であるTRPO/PPOとDPG/DDPG(Pendulum、Actor Critic、SequentialMemory、Adam、keras-rl、TD誤差、Deep Deterministic Policy Gradient、Deterministic Policy Gradient、Advanced Actor Critic、A2C、A3C、Proximal Policy Optimization、Trust Region Policy Optimization、Python)
タイトルとURLをコピーしました