hummingbird

アルゴリズム:Algorithms

保護中: 確率的バンディッド問題の方策 確率一致法とトンプソン抽出

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される確率的バンディッド問題の方策 確率一致法とトンプソン抽出(最悪時リグレット最小化、問題依存リグレット最小化、最悪時リグレット上界、問題依存リグレット、最悪時リグレット、MOSS方策、標本平均、補正項、UCBのリグレット上界、敵対的バンディット問題、トンプソン抽出、ベルヌーイ分布、UCB方策、確率的一致法、確率的バンディット、ベイズ統計、KL-UCCB方策、ソフトマックス方策、チェルノフ・ヘフディングの不等式)
アルゴリズム:Algorithms

保護中: 統計数学理論におけるカーネル法の基礎としてのカーネル関数

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される統計数学理論におけるカーネル法の基礎としてのカーネル関数(ガウシアンカーネル、多項式カーネル、線形カーネル、カーネル関数、回帰関数、線形モデル、回帰問題、判別問題)
Uncategorized

保護中: 機械学習のためのオンライン型確率的最適化と確率的双対平均化法(SDA)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される機械学習のためのオンライン型確率的最適化と確率的双対平均化法(鏡像降下法、強凸関数、凸関数、収束レート、多項式減衰平均化、強凸正則化)
アルゴリズム:Algorithms

保護中: 勾配法の基礎(直線探索法、座標降下法、最急降下法と誤差逆伝搬法)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される勾配法の基礎(直線探索法、座標降下法、最急降下法と誤差逆伝搬法、確率的最適化、多層パーセプトロン、アダブースト、ブースティング、ウルフ条件、ゾーテンダイク条件、アルミホ条件、バックトラッキング法、ゴールドシュタイン条件、強ウルフ条件)
アルゴリズム:Algorithms

保護中: ベイズ推論による機械学習 – 混合モデルとデータ生成過程と事後分布

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)に活用されるベイズ推論による機械学習での混合モデルとデータ生成過程と事後分布(グラフィカルモデル、ポアソン分布、ガウス分布、ディリクレ分布、カテゴリ分布)

街道をゆく 白河・会津の道

司馬遼太郎の街道をゆく 白河・会津の道(保科正之、会津文化、蒲生氏郷、会津若松、戊辰戦争、奥羽越列藩同盟、徳川慶喜、山下りん、ロシア正教、イコノスタス、聖像画、白河基督(ハリストス)正教会聖堂、ニコライ聖堂、復活大聖堂、永平半灼水、曹洞宗、道元、関川寺、金、八溝山、堺の明神、玉津島明神、住吉明神、松平貞信、白河関、古関蹟、新白河駅、東北新幹線、源融、松雄芭蕉、奥の細道、古今和歌集、名取川、枳殻邸、信夫もぢずり)
中国古典:classics

水のように生きる-老子思想の根本にある道

水のように生きる-老子思想の根本にある道(道、変化、自然、あるがままの状態、地は天に法り、天は道に法り、道は自然に法る、混沌の運動、キリスト教、天地の創造主、改まらず、哲学、道家思想、儒家思想、隠君子、実践道徳、司馬遷、思想書、河上公、注釈、老耼、老萊子、太史儋、史記、老子伝、老子道徳経、道徳経、道徳真経、帛書、楚簡)
推論技術:inference Technology

保護中: 説明できる人工知能(9)モデル非依存の解釈(ALE plot)

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)に活用可能な説明できる機械学習での後付け解釈モデル、モデル非依存解釈手法のうちの一つALE plotについて
Clojure

保護中: Apache SparkとMLlibによる大規模な機械学習

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用されるApache SparkとMLlibによる大規模な機械学習(予測値、RMSE、因子行列、ランク、潜在的特徴、近傍領域、二乗和誤差、Mahout、ALS、Scala、RDD、交互最小二乗法、alternating least squares、確率的勾配降下法、永続化、キャッシュ、Flambo、Clojure、Java)
python

保護中: 強化学習に対するニューラルネットワークの適用(1)概要

デジタルトランスフォーメーション(DX)、人工知能(AI)、機械学習(ML)タスクに活用される強化学習に対するニューラルネットワークの適用の概要(Agent、Epsilon-Greedy法、Trainer、Observer、Logger、確率的勾配降下法、Stochastic Gradient Descent、SGD、Adaptive Moment Estimation、Adam、Optimizer、誤差逆伝搬法、Backpropagation、勾配、活性化関数、バッチ法、価値関数、戦略)
タイトルとURLをコピーしました