本ページは機械学習技術の理解と応用に向けた以下に示したような領域のカテゴリに関する包括的なページとなっている。目次の項目をクリックすると該当するサマリーページにジャンプする。
基礎理論と数学
機械学習技術について
機械学習技術について。機械学習は、訓練データからパターンやルールを抽象化してモデル化し、新しいデータにも対応する汎化を行う技術である。ここでは、機械学習の基本概念とその仕組みについて解説している。
課題設定と定量化
問題解決手法と思考法及び実験計画。機械学習では、PDCAやKPIなどのフレームワークを用いて目標を定量化することが重要である。問題が不明確な場合は、演繹法やアブダクション法などで仮説を立て、確証バイアスを避けつつ検証し、フェルミ推定で定量化する。ここでは、問題解決手法や思考法、実験計画について解説している。
実装と応用
機械学習の実装と応用に関しては、プログラミング技術の中のClojureと関数プログラミング、Pyhtonと機械学習、R言語と機械学習、C/C++と各種機械学習アルゴリズム等で述べている。
さらに、ハードウェア技術、自然言語処理技術、知識データとその活用、semantic web技術、オントロジー技術、チャットボット技術、エージェント技術、ユーザーインターフェース技術等の機械学習のベースとなる人工知能技術の中に述べられている。
またそれらを活用するPFに関してはICT技術の中のITインフラストラクチャー技術、Web技術、マイクロサービスとマルチエージェントシステム、データベース技術、検索技術等が活用されている。
機械学習における数学
機械学習における数学について。機械学習は数学的理論に基づき、データを解析してパターンを発見する技術である。数学は、算術、代数、幾何、解析といった基本分野に加え、確率論、統計学、数理最適化などの応用分野を含む。ここでは、これら数学のトピックについて解説している。
アルゴリズムとデータ構造
アルゴリズムとデータ構造。アルゴリズムは問題解決の手順、データ構造はデータの効率的な格納や操作方法を指す。ソート、検索、暗号化、マルコフ連鎖モンテカルロ法などが含まれ、適切なアルゴリズムの選択が重要である。ここでは、その理論、アルゴリズム、実装について解説している。
データ処理と前処理
一般的な機械学習とデータ分析
一般的な機械学習とデータ分析。機械学習の基本的なタスクには、連続値を予測する回帰、カテゴリを分類する分類、データをグループ化するクラスタリング、高次元データを処理する次元削減、シーケンスパターンを学習する手法などがある。ここでは、これらの理論、具体的なアルゴリズム、および実装について解説している。
ノイズ除去とデータクレンジング、欠損値補間
機械学習におけるノイズ除去とデータクレンジング、欠損値補間。機械学習におけるノイズ除去、データクレンジング、欠損値補間は、データの品質向上とモデルの性能向上に不可欠なプロセスである。ノイズ除去はセンサーノイズや測定誤差などの不要な情報を取り除き、データクレンジングと欠損値補間は、不正確さや欠損を修正してデータを整える。ここでは、これらの手法とその実装例について解説している。
機械学習における並列分散処理
機械学習における並列分散処理。機械学習の学習処理は、大量のデータを扱うため、高速で並列分散処理が必要とされている。並列分散処理は、複数のコンピューターで処理を分散し、同時に複数の処理を行うことで、高速で処理を行うことができまる。ここでは、これら並列分散処理技術の具体的な実装について述べている。
スモールデータでの機械学習
スモールデータ学習、論理と機械学習との融合、局所/集団学習。スモールデータはサンプル数が限られたデータセットを指し、機械学習ではデータ不足が課題となる。これに対処するために、データ拡張、転移学習、モデルのシンプル化、クロスバリデーションなどの手法を活用し、少ないデータでも高い精度を目指す。ここでは、スモールデータを用いた機械学習のアプローチについてまとめている。
モデルとアルゴリズム
深層学習
深層学習について。深層学習は、脳の神経細胞の構造を模したニューラルネットワークを用いる機械学習技術で、画像認識、音声認識、自然言語処理などの複雑な問題を高精度で解決する。大量のデータから自動的に特徴量を抽出できるため、従来の機械学習より汎用性が高い。さらに、TensorFlow/KerasやPyTorchなどのPythonツールを使うことで、モデルの構築や学習を簡易に行える。ここでは、深層学習の理論と各分野への応用、ツールの活用法についてまとめている。
機械学習による自動生成
機械学習による自動生成。機械学習による自動生成は、コンピュータがデータのパターンや規則性を学習し、それに基づいて新しいデータを生成するものとなる。自動生成の手法には、深層学習によるアプローチ、確率的アプローチ、シミュレーションによるアプローチ等様々なものがある。ここでは、この機械学習による自動生成技術に関して、様々なアプローチと具体的な実装について述べている。
強化学習
様々な強化学習技術の理論とアルゴリズムとpythonによる実装。強化学習は、エージェントが環境内で行動を選択し、報酬を最大化する方策を学習する機械学習の一種である。環境はマルコフ決定過程としてモデル化され、TD学習やQ学習が代表的な手法となる。ここでは、強化学習の理論、アルゴリズム、Pythonによる実装について解説している。
オンライン学習/オンライン予測
オンライン学習とオンライン予測について。オンライン学習は、データが逐次的に与えられるたびにモデルを更新する学習手法であり、大規模データ解析や継続的に生成されるデータに適している。オンライン予測は、この学習を活用して意思決定問題を扱うフレームワークである。ここでは、その理論、実装、応用について解説している。
機械学習における確率的アプローチ
機械学習における確率的アプローチ。確率的生成モデルは、データの分布をモデル化し、新しいデータを生成する手法で、教師あり学習および教師なし学習に利用される。モデル化にはガウス分布やベータ分布などを仮定し、最尤推定やベイズ推定を使用して学習する。代表的なモデルにはLDA、HMM、BM、AE、VAE、GANがあり、自然言語処理や音声認識、統計解析などに適用される。本稿では、確率的生成モデルの理論、実装、および応用について解説している。
ベイズ推論とグラフィカルモデルによる機械学習
ベイズ推論とグラフィカルモデルによる機械学習。ベイズ推論を用いた機械学習は、確率の基本法則であるベイズの定理に従って観測データが与えられたときの未知変数に関する事後確率分布を計算し、得られた事後確率分布に基づいて、未知変数の推定量やこれから観測されるであろう新しいデータに対する予測分布などを計算する統計的学習手法となる。ここでは、このベイズ推論による機械学習技術について、基本的な理論と実装とグラフィカルモデルによるアプローチについて述べる。
ノンパラメトリックベイズとガウス過程
ノンパラメトリックベイズとガウス過程について。ノンパラメトリックベイズモデルは、無限次元空間での確率モデルで、マルコフ連鎖モンテカルロ法などの効率的な探索アルゴリズムを用いて計算される。主な応用として、クラスタリング、構造変化推定、因子分析、スパースモデリングがある。ガウス過程は、関数のパラメータの確率分布をベイズ推定で求め、滑らかな関数を柔軟に扱う手法であり、実データとのフィッティングにより事後関数を得る。ここでは、これらの理論と実装について解説している。
トピックモデルの理論と実装
トピックモデルの理論と実装。トピックモデルは、文書集合から潜在的なトピックを抽出する確率的生成モデルであり、文書の内容を理解するために使用される。これにより、どのトピックが文書で扱われているかを推定でき、大規模なテキストデータ解析において有用となる。代表的なモデルにはLDAやPLSAがあり、単語の出現頻度からトピック分布と単語分布を推定する。トピックモデルはテキスト分析だけでなく、音楽、画像、動画分野にも応用されている。様々な応用例として、ニュース記事分析やソーシャルメディア分析、レコメンデーション、画像分類、音楽ジャンル分類がある。
特殊データへの応用
グラフデータアルゴリズムと機械学習
グラフデータ処理アルゴリズムと機械学習/人工知能タスクへの応用。グラフは対象同士の結びつきを表現する方法で、多くの問題をグラフの問題に変換できる。これに関連するアルゴリズムには、探索アルゴリズム、最短経路アルゴリズム、最小全域木アルゴリズム、データフローアルゴリズム、強連結成分分解などがある。また、DAG、SAT、LCA、決定木などのアルゴリズムや、グラフ構造を基盤とした知識データ処理やベイズ処理などの応用についても説明されている。
グラフニューラルネットワーク
グラフニューラルネットワーク。グラフニューラルネットワーク(GNN)は、グラフデータに深層学習を適用し、データから特徴を抽出し、その特徴表現を基にニューラルネットワークを構成する手法である。これにより、複雑なデータパターンを捉え、非線形性を持つモデルを構築する。従来の深層学習が画像データやテキストデータのグリッド構造に基づいて行列演算を行うのに対し、GNNはグラフ構造に特化してノードとエッジを組み合わせたデータを処理する点が異なる。ここでは、GNNのアルゴリズム、実装例、適用事例について述べている。
シミュレーションとデータサイエンスと人工知能
シミュレーションとデータサイエンスと人工知能。天文、気象、物性、生物など、さまざまな分野で大規模な計算機シミュレーションが有効な手段となっている。しかし、純粋に基本法則だけで行えるシミュレーションは限られており、計算の前提となるパラメータや初期値の設定にはデータサイエンスの力が必要となる。現代のデータサイエンスは、シミュレーションと密接に関連しており、人工知能との絡みも深い。ここでは、シミュレーションとデータサイエンス、人工知能について述べている。
時系列データ解析
時系列データ解析。時系列データは、時間の経過に伴い変化するデータであり、株価や気温、トラフィック量などが例として挙げられる。機械学習を適用することで、過去のデータを学習し、未知のデータの予測が可能になり、ビジネスの意思決定やリスク管理に役立てられる。代表的な手法には、ARIMA、LSTM、Prophet、状態空間モデルなどがあり、これらは過去のデータを学習して未来を予測するための手法である。ここでは、時系列データ解析の理論、アルゴリズム、応用について述べている。
異常検知と変化検知
異常検知と変化検知技術。機械学習による異常検知は、通常の状況から逸脱した異常を検出する技術であり、変化検知は状況の変化を検出する技術である。これらは、製造ラインの故障やネットワーク攻撃、金融取引の不正など、異常な振る舞いを検出するために使用される。異常検知・変化検知の技術には、ホテリングのT2法、ベイズ法、近傍法、混合分布モデル、サポートベクトルマシン、ガウス過程回帰、疎構造学習などがあり、これらのアプローチが述べられている。
構造学習
構造学習。データの構造を学習することは、そのデータの解釈において重要である。構造学習には、階層的クラスタリングや決定木などの基本的な手法のほか、関係データ学習、グラフ構造学習、疎構造学習などがある。
説明性と最適化
説明できる機械学習
説明できる機械学習。説明できる機械学習(Explainable machine learning)とは、機械学習アルゴリズムが出力する結果の理由や根拠を説明できる形式で提示する技術である。現在の主なアプローチは、(A) 解釈可能な機械学習モデルによる解釈と、(B) モデル非依存の後付け解釈モデルの2つである。
推薦技術
推薦技術。機械学習を用いた推薦技術では、ユーザーの過去の行動履歴や嗜好データなどを分析し、そのデータに基づいて、より良い個人化された推薦を提供することができる。推薦技術は以下のようなフローで構成される。①ユーザーのプロファイルを作成、②アイテムの特徴量を抽出、③機械学習モデルのトレーニング、④作成されたモデルより推薦を生成する。ここではこの推薦技術に対して、具体的な実装や理論について述べる。
スパース性に基づく機械学習
スパース性を用いた機械学習。スパース性に基づく機械学習は、高次元データの特徴選択や次元削減に利用される手法であり、データの多くの要素がゼロに近く、少数の非ゼロ要素を持つ性質を活用する。L1正則化を使った線形回帰やロジスティック回帰などを用いて特徴選択や次元削減を行い、解釈性を向上させる。この手法は、センサーデータ処理や画像処理、自然言語処理などで広く利用されている。
カーネル法の概要とサポートベクトルマシンについて
カーネル法の概要とサポートベクトルマシンについて。カーネル法とは、機械学習において非線形な関係性を扱うために用いられる手法で、カーネル関数と呼ばれる関数を用いて、データ間の類似性を測定し、入力データの特徴量同士の内積を計算することで、2つのデータ間の類似性を評価するものとなる。カーネル法は、主にサポートベクトルマシン(SVM)やカーネル主成分分析(KPCA)、あるいはガウス過程(GP)などのアルゴリズムで利用されている。ここでは、このカーネル法の概要と主にサポートベクトルマシン関する理論、具体的な実装、さまざまなアプリケーションに関して述べる。
関係データ学習
関係データ学習。関係データは、N個のオブジェクト間の「関係」を表すデータで、行列形式で関係性が表現される。関係データ学習は、この行列データのパターンを抽出する学習方法であり、主に「予測」と「知識抽出」の2つのタスクに適用される。予測は未観測データの値を推定する問題で、知識抽出はデータの特性解析や有用な知見・ルールを抽出するタスクとなる。この学習法に関して、理論的な概要、アルゴリズム、応用について述べている。
因果推論と因果探索技術
統計的因果推論と因果探索。膨大なデータから「相関」を導く機械学習のアプローチが存在するが、「因果関係」を導き出すことは医療や製造業などで応用が期待される。因果関係を分析するには、一般的な機械学習とは異なる統計的アプローチが必要である。具体的には、「因果推論」は因果関係を特定・検証する手法であり、「因果探索」は因果関係を発見する手法であり、目的とアプローチに違いがある。この因果推論/探索技術について、理論、実装、応用が述べられている。
劣モジュラ最適化と機械学習
劣モジュラ最適化と機械学習。劣モジュラ関数は、離散変数に関する凸関数の概念で、組合せ最適化問題において重要な役割を果たす。組み合わせとは、選択可能な集まりから一部を選択する手続きであり、劣モジュラ関数を活用することで、最適化問題の効率的な解法を導ける。これにより、情報理論や機械学習、経済学、社会科学などの分野で広く応用され、ソーシャルネットワーク分析や画像セグメンテーション、広告配置などに利用される。ここでは、劣モジュラ最適化の機械学習的アプローチに関する理論と実装について述べている。
バンディット問題の理論とアルゴリズム
バンディット問題の理論とアルゴリズム。バンディット問題は、強化学習の一種であり、複数の選択肢(アーム)から最も報酬が高いアームを選ぶ問題である。エージェントは各アームの報酬が未知である中で、何度もアームを引いて報酬を得ながら、最適なアームを見つけ出す。解決にあたっては以下の仮定が成り立つ:①エージェントは独立してアームを選択、②各アームは確率分布に従い報酬を生成、③アームの報酬は観測可能だが、確率分布は未知、④エージェントはアームを何度も引いて報酬を得る。この問題を解くために用いられるアルゴリズムには、①ε-greedy法(ランダム選択と最適選択を組み合わせる)、②UCBアルゴリズム(不確かなアームを優先的に選択)、③トンプソン抽出法(事後分布から次に選択するアームをサンプリングする)などがある。バンディット問題は、広告配信や治療法選択など、実世界の問題にも応用されている。
その他のアプローチ
今回は位相的データ解析(Topological Data Analysis)についてのべる。
位相的データ解析とはデータの集合をトポロジーと呼ばれる「柔らかい」幾何を用いて解析する手法となる。幾何学を使ったデータ解析としては情報幾何学と呼ばれるものがあるが、こちらは機械学習を幾何的に説明しようというもので、機械学習とは,データが与えられた とき,そのデータにうまくあてはまるモデルを見つけると いう操作であり、モデルとは何らかのパラメータで表される空間であると考えると、データ点からモデルの空間への射影(関数)を見つけることが機械学習の本質となる。
それに対してトポロジーはというと、よく使われているコーヒーカップとドーナッツの例で言うと。コーヒーカップが切れない粘土のようなものでできているとした時、それを少しずつ変形していくと、最終的にドーナッツに変形することができる。
- Semantic ML for Manufacturing Monitoring at Bosch
- Type-Constrained Representation Learning in Knowledge Graphs
- WebBrain: Joint Neural Learning of Large-Scale Commonsense Knowledge
- Learning Commonalities in SPARQL
- DWRank: Learning Concept Ranking for Ontology Search
- Completeness-aware Rule Learning from Knowledge Graphs
- Knowledge Graph Refinement: A Survey of Approaches and Evaluation Methods
- Rule Learning from Knowledge Graphs Guided by Embedding Models