推薦技術

機械学習技術 確率的生成モデル サポートベクトルマシン スパースモデリング 人工知能技術 Clojure デジタルトランスフォーメーション技術 一般的な機械学習とデータ分析 DXの事例 本ブログのナビ

推薦技術概要

機械学習を用いた推薦技術では、ユーザーの過去の行動履歴や嗜好データなどを分析し、そのデータに基づいて、より良い個人化された推薦を提供することができる。

これは具体的には、以下のような手順を踏む。

    1. ユーザーのプロファイルを作成する:ユーザーが過去にどのような商品やコンテンツを好んでいたのかを分析することで、ユーザーの嗜好や興味に関する情報を収集する。
    2. アイテムの特徴量を抽出する:商品やコンテンツに関するデータから、アイテムの特徴量を抽出する。たとえば、映画ならば、ジャンル、監督、出演者、評価点数などがある。
    3. 機械学習モデルをトレーニングする:ユーザーとアイテムの関係性を学習するために、機械学習アルゴリズムを使用してモデルをトレーニングする。主に使われるアルゴリズムには、協調フィルタリング、内容ベースフィルタリング、混合フィルタリングなどがある。
    4. 推薦を生成する:トレーニングされたモデルを使用して、ユーザーに適した推薦を生成する。これには、各アイテムがユーザーにとってどの程度興味深いかを予測するために、モデルがユーザーのプロファイルとアイテムの特徴量を組み合わせる必要がある。

機械学習を用いた推薦技術は、ユーザーにとってより良い体験を提供し、ビジネスにとっても収益を増加させる重要な技術となる。

以下のこの推薦技術の具体的な実装や理論について述べる。

理論と実装

ランキングアルゴリズムは、与えられたアイテムの集合を、ユーザーにとって最も関連性の高い順に並べ替えるための手法であり、検索エンジン、オンラインショッピング、推薦システムなど、さまざまな分野で広く使用されているものとなる。ここでは、一般的なランキングアルゴリズムの概要について述べる。

  • ランダムフォレストランキングの概要とアルゴリズム及び実装例

ランダムフォレスト(Random Forest)は、機械学習の分野で非常に人気のあるアンサンブル学習法(複数の機械学習モデルを組み合わせることで、個々のモデルよりも優れた性能を得る手法)の一つであり、複数の決定木(Decision Tree)を組み合わせて、より強力なモデルを構築するアプローチとなる。ランダムフォレストを利用して特徴量のランキングを行う際、さまざまなバリエーションが存在している。

  • 多様性促進ランキングの概要とアルゴリズム及び実装例

多様性促進ランキング(Diversity-Promoting Ranking)は、情報検索や推薦システムなどで重要な役割を果たす手法の一つであり、この手法は、ユーザーが情報検索結果や推薦されるアイテムのリストをより多様でバランスの取れたものにすることを目的としたものとなる。通常、ランキングの目的は、ユーザーの関心に合ったものを上位に表示するが、このときに同じような内容や特徴を持つアイテムが上位に複数表示されることがある。例えば、商品の推薦システムであれば、似たような商品や同じカテゴリの商品が上位に並ぶことがよくある。しかし、これらのアイテムが類似しているため、ユーザーの興味を十分にカバーすることができず、情報の偏りや選択肢の制約をもたらす可能性があり、このような問題に対処するために、多様性促進ランキングが使用されている。

探索的ランキング(Exploratory Ranking)は、情報検索や推薦システムなどの順位付けタスクにおいて、ユーザーが関心を持つ可能性の高いアイテムを特定するための手法となる。この手法は、ユーザーが与えたフィードバックに基づいて、順位付けされたアイテムの中からユーザーが最も関心を持つアイテムを見つけることを目的としている。

  • Maximum Marginal Relevance (MMR)の概要とアルゴリズム及び実装例について

Maximum Marginal Relevance(MMR)は、情報検索や情報フィルタリングのためのランキング手法の1つで、情報検索システムがユーザーに提供する文書のランキングを最適化することを目的としたものとなる。MMRは、複数の文書の中からユーザーの関心に関連する文書を選択するための方法として開発された。この手法では、各文書の関連性と多様性の両方を考慮してランキングを行い、具体的には、文書の関連性が高いが他の選択肢との類似性が低い文書を選択することを重視したものとなる。

  • パーソナライズドランキングの概要とアルゴリズム及び実装例

パーソナライズドランキングは、ユーザーごとに最適な順位でアイテムを提供するランキングの手法で、一般的なランキングシステムでは、全ユーザーに対して同じ順位でアイテムを提示するが、パーソナライズドランキングは、ユーザーの個別の嗜好や行動を考慮して、そのユーザーにとって最適な順位でアイテムをランク付けするものとなる。パーソナライズドランキングの目的は、ユーザーが興味を持つ可能性の高いアイテムを上位に表示することで、ユーザーエンゲージメントを向上させるユーザーエンゲージメントの向上、ユーザーの購買、クリック、その他のアクションを増やし、コンバージョン率を向上させるコンバージョン率の増加、ユーザーが求める情報や商品を素早く見つけられることで、ユーザー満足度を高めるユーザー満足度の向上などになる。

    LightGBMは、Microsoftが開発したGradient Boosting Machine(GBM)のフレームワークであり、大規模なデータセットに対して高速かつ高精度なモデルを構築できるように設計されている機械学習のツールとなる。ここではpyhton、R、Clojureでの実装について述べる。

    ツイッター社がTwitterのレコメンドの仕組みを公開して話題になっている。ここでは、公開されている技術ブログとgitの情報から、これらの技術の概要について述べる。

    時間と共に変化するグラフデータを解析する手法は、ソーシャルネットワーク分析、ウェブトラフィック分析、バイオインフォマティクス、金融ネットワークモデリング、交通システム解析など、さまざまなアプリケーションに適用されている。ここではこの技術の概要とアルゴリズム及び実装例について述べている。

    スナップショット解析(Snapshot Analysis)は、データの異なる時間点でのスナップショット(瞬間のデータスナップショット)を使用して、時間的な変化を考慮に入れたデータ解析の手法となる。この手法は、時間に関する情報を持つデータセットを分析し、そのデータの時間的なパターン、トレンド、および変化を理解するのに役立ち、グラフデータ解析と組み合わせることで、ネットワークや関係性データの時間的な変化をより深く理解することができるようになる。ここでは、このアプローチの概要とアルゴリズム及び実装例について述べている。

    SNAPは、Stanford大学のコンピュータサイエンス研究室で開発されたオープンソースのソフトウェアライブラリであり、ソーシャルネットワーク分析、グラフ理論、コンピュータネットワーク分析など、さまざまなネットワーク関連の研究に使用されるツールとリソースを提供しているものとなる。

    CDLib(Community Discovery Library)は、コミュニティ検出アルゴリズムを提供するPythonライブラリであり、グラフデータにおけるコミュニティ構造を特定するためのさまざまなアルゴリズムを提供し、研究者やデータサイエンティストが異なるコミュニティ検出タスクに対処できるようサポートするものとなる。

    MODULARは、複雑なネットワークの多目的最適化問題を解決するための計算機科学およびネットワーク科学の研究領域で使用される手法やツールの1つであり、このアプローチは、ネットワークの構造とダイナミクスを同時に最適化するために設計されており、異なる目的関数(多目的最適化)を考慮に入れたものとなっている。

    Louvain法(またはLouvainアルゴリズム)は、ネットワーク内のコミュニティ(クラスター)を特定するための効果的なグラフクラスタリングアルゴリズムの一つであり、このアルゴリズムは、ネットワークのノードとエッジを基に、ノードをコミュニティに分割するものとなる。Louvain法は、コミュニティの構造を特定するためにモジュラリティと呼ばれる尺度を最大化するアプローチを採用している。

    Infomap(Information-Theoretic Modularity)は、コミュニティ検出アルゴリズムの一つで、ネットワーク内のコミュニティ(モジュール)を特定するために使用されるものとなる。Infomapは情報理論に基づいており、ネットワーク内の情報のフローと構造を最適化することに焦点を当てている。

    Copra(Community Detection using Partial Memberships)は、コミュニティ検出のためのアルゴリズムおよびツールの1つであり、複雑なネットワーク内でのコミュニティの検出と特定のノードが複数のコミュニティに属することを考慮に入れたアルゴリズムとなる。Copraは、部分的なコミュニティメンバーシップ情報を使用して、各ノードが複数のコミュニティに所属することができるという現実的なシナリオに適している。

    ダイナミックコミュニティ分析(Dynamic Community Detection)は、時間に関連する情報を持つネットワーク(ダイナミックネットワーク)内で、コミュニティ(モジュールまたはクラスタ)の時間的な変化を追跡および解析するための手法となる。通常、ノードとエッジが時間に関連した情報を持つグラフデータ(ダイナミックグラフ)を対象としており、この手法は、さまざまな分野で応用され、例えばソーシャルネットワーク分析、バイオインフォマティクス、インターネットトラフィックモニタリング、金融ネットワーク分析などで利用されている。

    ダイナミック中心性指標(Dynamic Centrality Metrics)は、時間的な変化を考慮に入れたグラフデータ解析の一種であり、通常の中心性指標(例: 次数中心性、媒介中心性、固有ベクトル中心性など)は、静的なネットワークに適しており、ネットワーク内のノードの重要性を単一のスナップショットで評価するものとなる。しかし、実際のネットワークは時間に関連する要素を持つことが多いため、ネットワークの時間的な変化を考慮することが重要となる。

    ダイナミックモジュール検出は、時間的な変化を考慮に入れたグラフデータ解析の手法の一つであり、この手法は、ダイナミックネットワーク内でコミュニティ(モジュール)の変化を追跡し、異なる時間スナップショットでのコミュニティ構造を特定するものとなる。ここではダイナミックモジュール検出に関する詳細とその実装例についての情報を示す。

    ダイナミックグラフ埋め込み(Dynamic Graph Embedding)は、時間的な変化を考慮に入れるグラフデータ解析のための強力な手法となる。このアプローチでは、グラフデータが時間に沿って変化する場合、ノードやエッジの表現を時間軸上で持つことを目的としている。

    ネットワークアライメントは、異なるネットワークやグラフ間で類似性を見つけ、それらをマッピングし合わせる技術であり、時間的な変化を考慮に入れるグラフデータ解析にネットワークアライメントを適用することで、異なる時間スナップショットのグラフを対応付け、その変化を理解することが可能とするものとなる。

    時間予測モデルを用いた時間的な変化を考慮に入れるグラフデータ解析は、グラフデータ内の時間的なパターン、トレンド、予測を理解するために使用される。ここではこのアプローチについての詳細について述べる。

    大規模グラフデータのサブサンプリングは、グラフの一部をランダムに選択することで、データのサイズを削減し、計算およびメモリの使用量を制御するもので、大規模なグラフデータセットを扱う際に、計算効率を向上させるためのテクニックの一つとなる。ここでは、大規模グラフデータのサブサンプリングに関するいくつかのポイントとテクニックについて述べる。

    タイムライン上でグラフスナップショットを表示したり、アニメーション化することは、時間的な変化を視覚化し、グラフデータの動的な特性を理解するのに役立ち、グラフデータを解析する上で重要な手法となる。ここではこれらに用いられるライブラリ及び実装例について述べている。

    Pythonでネットワークの動的な変化を視覚的に表現するための手法であるNetworkXとMatplotlibを組み合わせたグラフのアニメーションの作成について述べる。

    高次元のデータを次元削減技術を使用して低次元にプロットし、可視化を容易にする手法は、データの理解、クラスタリング、異常検出、特徴量選択など多くのデータ分析タスクで有用となる。ここでは主要な次元削減技術とその手法について述べる。

    Gephiは、オープンソースのグラフ可視化ソフトウェアで、ネットワーク分析や複雑なデータセットの可視化に特に適したツールとなる。ここではGephiを使用してデータを可視化する基本的なステップと機能について述べる。

    Cytoscape.jsは、JavaScriptで書かれたグラフ理論ライブラリであり、ネットワークやグラフデータの可視化を行うために広く使用されているものとなる。Cytoscape.jsを使用することで、ウェブアプリケーションやデスクトップアプリケーションに対してグラフやネットワークデータの可視化を追加することが可能となる。ここではCytoscape.jsを用いたデータの可視化に関する基本的なステップとコードの例を示す。

    • Sigma.jsを用いたグラフデータの可視化について

    Sigma.jsは、Webベースのグラフ可視化ライブラリで、対話的なネットワーク図を作成するのに役立つツールとなる。ここではSigma.jsを使用してグラフデータを可視化するための基本的な手順と機能について述べる。

    ナレッジグラフは、情報を関連性のあるノード(頂点)とエッジ(つながり)の集合として表現するグラフ構造であり、異なる主題やドメインの情報を結び付け、その関連性を可視化するために使用されるデータ構造となる。ここではこのナレッジグラフの様々な活用事例とpythonによる具体的な実装例について述べる。

    スパースモデリングは、信号やデータの表現においてスパース性(疎な性質)を利用する手法となる。スパース性とは、データや信号において非ゼロの要素がごく一部に限られている性質を指す。スパースモデリングでは、スパース性を活用してデータを効率的に表現し、ノイズの除去、特徴選択、圧縮などのタスクを行うことが目的となる。

    ここではこのスパースモデリングに関して、Lasso、コンプレッション推定、Ridge正則化、エラスティックネット、Fused Lasso、グループ正則化、メッセージ伝搬アルゴリズム、辞書学習等の各種アルゴリズムの概要と、画像処理、自然言語処理、推薦、シグナル処理、機械学習、信号処理、脳科学等の様々な適用事例に対する実装について述べている。

    バンディット問題(Bandit problem)は、強化学習の一種であり、意思決定を行うエージェントが未知の環境において、どの行動を選択するかを学習する問題となる。この問題は、複数の行動の中から最適な行動を選択するための手法を見つけることを目的としている。

    ここではこのバンディット問題に関して、ε-グリーディ法、UCBアルゴリズム、トンプソンサンプリング、softmax 選択、置換則法、Exp3アルゴリズム等の主要なアルゴリズムの概要と実装および、適用事例としてオンライン広告配信、医薬品の創薬、株式投資、クリニカルトライアルの最適化等とそれらの実装手順について述べている。

    ε-グリーディ法(ε-greedy)は、強化学習などの探索と活用(exploitationとexploration)のトレードオフを取り扱うためのシンプルで効果的な戦略であり、このアルゴリズムは、最適な行動を選択する確率と、ランダムな行動を選択する確率を調整する方法となる。

    ボルツマン分布(Boltzmann distribution)は、統計力学や物理学において重要な確率分布の一つであり、この分布は、系の状態がどのようにエネルギーに分布するかを記述するものとなる。ボルツマン分布は、機械学習や最適化アルゴリズムにおいて重要な役割を果たす確率分布の一つであり、特に、確率的なアプローチやモンテカルロ法に基づく手法で以下のような広い範囲で利用されている。ソフトマックスアルゴリズムは、前述のボルツマン分布の一般化と見なすことができ、前述のようにボルツマン分布が適用されいた機械学習のアプローチにソフトマックスアルゴリズムを適用することがてできる。ここでは、バンディット問題への適用について以下に詳しく述べる。

    UCB(Upper Confidence Bound)アルゴリズムは、多腕バンディット問題(Multi-Armed Bandit Problem)において、異なるアクション(または腕)の間で最適な選択を行うためのアルゴリズムであり、アクションの価値の不確実性を考慮し、探索と利用のトレードオフを適切に調整することで、最適なアクションの選択を目指す手法となる。

    Thompson Sampling(トンプソン・サンプリング)は、強化学習や多腕バンディット問題などの確率的意思決定問題に使用されるアルゴリズムであり、このアルゴリズムは、複数の選択肢(アクションまたはアームと呼ばれることが多い)の中から最適なものを選択する際に、不確実性を考慮するために設計されたものとなる。特に、各アクションの報酬が確率的に変動する場合に有用となる。

    Contextual banditは、強化学習の一種であり、複数の選択肢の中から最適な選択をする問題を解決するための枠組みとなる。この問題は、現在の状況(コンテキスト)に基づいて最適な選択をする必要がある場合に適用されるものとなる。Contextual bandit問題は以下の要素から構成される。ここではこのContextual banditに関して様々なアルゴリズムとpythonによる実装例について述べている。

    • EXP3 (Exponential-weight algorithm for Exploration and Exploitation)アルゴリズムの概要と実装例について

    EXP3(Exponential-weight algorithm for Exploration and Exploitation)は、多腕バンディット問題(Multi-Armed Bandit Problem)におけるアルゴリズムの一つであり、複数の選択肢(アーム)からなるスロットマシンを操作し、各アームの報酬を最大化するという問題設定のアプローチとなる。EXP3はこのような状況で、探索(Exploration)と活用(Exploitation)のトレードオフをうまくバランスさせながら、最適なアームを見つけることを目指すものとなる。

    関係データ学習(Relational Data Learning)は、関係データ(例:グラフ、ネットワーク、表形式のデータなど)を対象とした機械学習の手法となる。従来の機械学習は通常、個々のインスタンス(例:ベクトルや行列)に対してのみ適用されていたが、関係データ学習は複数のインスタンスとその間の関係性を考慮するものとなる。

    ここではこの関係データ学習に対して、様々な適用事例と、スペクトラルクラスタリング、行列分解、テンソル分解、確率的ブロックモデル、グラフニューラルネットワーク、グラフ畳み込みネットワーク、グラフ埋め込み、メタパスウォーク等のアルゴリズムでの具体的な実装について述べている。

    説明可能な機械学習(Explainable Machine Learning)は、機械学習モデルの予測や意思決定の結果を理解可能な形で説明する手法やアプローチのことを指す。実世界の多くのタスクでは、モデルの説明性が重要となることが多い。これは例えば、金融向けのソリューションでは、モデルがどの要素に基づいて信用スコアを判断しているのかを説明する必要があったり、医療診断向けのソリューションでは、患者に対する予測の根拠や理由を説明することが重要であることなどからもわかる。

    ここでは、この説明可能な機械学習に対して、様々なアルゴリズムとpythonを用いた実装例について述べている。

    EMアルゴリズム(Expectation-Maximization Algorithm)は、統計的推定や機械学習の分野で広く用いられる反復最適化アルゴリズムとなる。特に、未観測の潜在変数(latent variable)が存在する確率モデルのパラメータ推定によく用いられている。

    ここではこのEMアルゴリズムの概要と、混合モデル、HMM、欠損値推定、レーティング予測にそれぞれEMアルゴリズムを適用した時のフローとpythonによる実装例について述べる。

    オンライン学習(Online Learning)は、データが逐次的に到着する状況下で、モデルを逐次的に更新して学習する手法であり、通常の機械学習で行われるバッチ学習とは異なり、新しいデータが到着するたびにモデルが更新されるアルゴリズムであることが特徴となる。ここでは、このオンラン学習に関して様々なアルゴリズムと適用事例およびpythonによる実装例について述べている。

    Elasticsearchは、検索、分析、およびデータ可視化のためのオープンソースの分散型検索エンジンであり、機械学習(Machine Learning, ML)技術も統合されており、データ駆動型のインサイトや予測を実現するために活用することができるプラットフォームとなっている。ここではこのElasticsearchでの機械学習技術の様々な活用と具体的な実装について述べている。

    AI(人工知能)は教育分野において大きな影響力を持ち、教育方法や学習プロセスを変革する潜在能力を秘めている。以下に、AIと教育に関するいくつかの重要な側面について述べる。

    推薦システムは、あるアイテムに対するユーザーの好みや嗜好を予測しようとする情報システムとなる。推薦システムは、ユーザーに有用な情報を提供することを目的とした情報フィルタリングシステムでとなる。推薦システムは、ユーザーの行動履歴を利用したり、他のユーザーが気に入ったものを推薦したりする。この2つのアプローチが、推薦システムで用いられる2種類のアルゴリズム(コンテンツベースフィルタリングと協調フィルタリング)の基礎となっている。

    今回は、k-meansアルゴリズムを用いたテキスト文書のクラスタリングに用いられる、テキスト文書間の類似性の尺度を使った推薦システムについて述べる。それらの中では、類似性の概念を使って、ユーザーが好きそうなアイテムを提案する形となる。

    ここではまず基本的な推薦システムの種類を説明し、最も単純なものの一つをClojureで実装する。そして、次回でMahoutを使った、様々な種類の推薦を作成する方法について述べる。

    “Clojureを用いたシンプルな推薦アルゴリズムの実装(2)”で述べた全項目のペアワイズド・ディファレンスはコンパイルすることに時間のかかる作業となる。アイテムベースの推薦技術の利点のひとつは、項目間の一対の差分が時間の経過とともに比較的安定することである。差分行列は定期的に計算されればよい。これは、これまで見てきたように10個のアイテムを評価したユーザが、さらに1個のアイテムを評価した場合、そのユーザが評価した11個のアイテムの差分を調整するだけでよいこととなる。
    しかし、アイテムベースレコメンダーの実行時間は、保存するアイテムの数によって変化し、アイテム数に比例して実行時間が長くなる。
    ユーザ数がアイテム数に比べて少ない場合、ユーザベースのレコメンダーを実装する方が効率的な場合がある。例えば、コンテンツアグリゲーションサイトでは、アイテム数がユーザー数を桁違いに上回る可能性があり、ユーザーベース・レコメンダーの良い候補になる。
    ClojureとMahoutを用いたラージスケールのクラスタリング“で述べたMahoutライブラリには、ユーザーベースレコメンダーを含む様々なレコメンダーを作成するためのツールが含まれている。今回はこれらについて述べてみる。

    シーケンシャルパターンマイニングは、値がシーケンスで配信されるデータ例間で統計的に関連するパターンを見つけるデータマイニングで構造データマイニングの特殊な例となる。

    これらの中で行われるタスクとしては「シーケンス情報の効率的なデータベース化とインデックスの構築」「頻繁に発生するパターンの抽出」「シーケンスの類似性の比較」「欠落しているシーケンスデータの補完」等がある。

    具体的な応用例としては、遺伝子やタンパク質の配列情報の分析(例:ヌクレオチド塩基A、G、C、Tの配列)とそれらの機能の発現解析、また株式売買やECでの大規模なトランザクション(ひとまとめの取引)で生じる、購買アイテムのパターン抽出(例:顧客が玉ねぎとじゃがいもを購入すると同じトランザクションでひき肉を購入する可能性が高い)、またワークフロー等のプロセスマイニングにも用いられる。ここで代表的なアルゴリズムであるaprioriについて述べる。

    非負値行列因子分解(nonnegative matrix factorization,NMF)は線形次元削減と同様、データを低次元部分空間に写像する手法となる。名前が示す通り、このモデルでは観測データとその未観測変数全てに対して非負性を仮定する。非負値行列因子分解は負の値をもたないあらゆるデータに適用が可能で、線形次元削減で行ったような画像データの圧縮や補間も同様に実現できる。

    また音声データを高速フーリエ変換して周波数で取り扱う場合は、このような非負性を仮定できるモデルを使ったほうがよい表現が得られることが多い。そのほかにも推薦アルゴリズムや自然言語処理に関しても負の値をもたないと仮定できるデータが多い為、幅広い応用が試みられている。非負値行列因子分解には様々な確率モデルによる表現が提案されているが、ここではポアソン分布とガンマ分布を使ってモデルを構築する。

    ここでは、主にアイテム(本や映画、レストランなど)の推薦システム(recommender system)などの応用でよく使われるインソル分解(tensor factorization)について述べる。機械学習の分野では、テンソル分解は単純にRn,m,kのような多次元配列のことを指す場合が多く、2次元配列である行列の多次元番として扱われる。ここでははじめに、行列分解を使った場合の協調フィルタリング(collaborative filtering)のアイデアについて述べ、さらにそれをテンソルの場合に拡張し、推薦アルゴリズムを導出する。ここで述べるアイデアは遷移行列削減のモデルとも関連が深い。

    今回は最適な推薦解を求めるためにバンディット問題の手法を適用したケースについて述べる。

    pythonを使った基本的な協調フィルタリングシステムの構築についての記事。python環境構築に関しては”Pythonと機械学習“を参照のこと。

    Pythonによる推薦システムの演習問題。評価履歴や評価値行列の扱いから、内容ベース推薦システム、近傍ベース協調フィルタリング、推薦システムの評価などに関する問題がある。13章構成で全163問準備されている。

    Rのライブラリrecommenderlabを使った映画の推薦システムの実装。Rの環境構築に関しては”R言語と機械学習“を参照のこと。

    A list of R libraries for Recommender systems. Most of the libraries are good for quick prototyping

    関連理論(関係データ学習)

    関係データとは、最も単純な場合、N個のオブジェクトがあったときに、その中の任意のペアに対してどのような「関係」が存在するかを表すデータとなる。ここで「何か」と「何か」の関係を表す形として行列を考えると、関係性を表すデータは行列の中の要素そのものとなる。

    関係データ学習とはこの行列の中のパターンを抽出するものとなり、適用されるタスクとしては大きく分けて、「予測(prediction)」と「知識抽出(knowledge xtraction)」の2つがある。

    予測問題とは、観測データから学習、設計された統計モデルを用いて未観測のデータの値を推定する問題で、典型的な予測問題として、関係ネットワーク内に存在するリンクの有無の推定(リンク予測(link prediction)問題)や、購買データを用いユーザーごとのアイテム購入(adoption)確率推定等がある。これらは関係データ行列の欠損値を予測する問題として実現が可能となる。また、ネットワーク内の情報伝搬(information dissemination)あるいは情報拡散(information diffusion)の推定も予測問題の重要な例となる。

    知識抽出問題とは、グラフ特徴を計算することで関係データ自体の特性を解析することや、与えられた観測データを適切にモデリングすることによって何らかの有用な知見や知識につながる情報を抽出することを目的に行われるもので、具体的なタスクとしてはネットワーク内のコミュニティ抽出や、広義のクラスタリング等がある。

    本ブログでは、 以下のページにてこの関係データ学習に対して、理論的概要、具体的なアルゴリズムとさまざまな応用に関して述べている。

    関連理論(バンディット問題)

    バンディット問題は、機械学習の分野における強化学習の一種で、複数の選択肢(アーム)のうち、どのアームを選ぶかを決定する問題となる。各アームは、ある確率分布に従って報酬を生成するが、その確率分布はエージェントには未知であり、エージェントは、何度かアームを引いて報酬を受け取りながら、どのアームが最も報酬が高いかを見つける。このようなバンディット問題は以下のような様々な仮定のもとで問題を解くことになる。①エージェントは、独立に各アームを選択する、②各アームは、ある確率分布に従って報酬を生成する、③アームの報酬は、エージェントには観測可能だが、確率分布は未知となる、④エージェントは、何度かアームを引いて報酬を受け取る。

    またバンディット問題では、エージェントはどのアームを選択するかを決定するため、以下に示すようなアルゴリズムを使って報酬が最大となるアームを選択するための戦略を学習する。①ε-greedy法(一定の確率εでランダムにアームを選択し、残りの確率1-εで最も報酬が高いアームを選択する)、②UCBアルゴリズム(最も不確かなアームを優先的に選択することで、報酬の上限を増やすことを目指す)、③トンプソン抽出法(アームの確率分布の事後分布から、次に選択するアームをサンプリングする)。

    バンディット問題は、実世界の問題にも応用され、例えば、ウェブサイトの広告配信や医療の治療法選択などに使用される。本ブログでは 以下のページにて、このバンディッド問題での理論と様々なアルゴリズムつにいて述べている。

      コメント

      1. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 python […]

      2. […] セマンティックウェブ技術 グラフデータアルゴリズム 構造学習 推薦技術 […]

      3. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      4. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      5. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      6. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      7. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      8. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      9. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      10. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      11. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      12. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      13. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      14. […] 広告を選択するためにThompson Samplingを活用できる。これにより、広告主はクリック率を最大化し、広告予算を最適に配分することが可能となる。詳細は”推薦技術“も参照のこと。 […]

      15. […] センサーデータ/IOT技術 バンディット問題 強化学習技術  推薦技術 python 物理・数学 […]

      16. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      17. […] 深層学習技術 確率生成モデル 推薦技術 […]

      18. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      19. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      20. […] 一般的な機械学習とデータ分析 Clojure 推薦技術 […]

      21. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      22. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      23. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      24. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      25. […] 推薦技術の詳細に関しては”推薦技術“を参照のこと。 […]

      26. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      27. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      28. […] 推薦技術 | Deus Ex Machina より: 2023年6月22日 5:05 PM […]

      29. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      30. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      31. […] IOT スパース性を用いた機械学習 画像処理 自然言語処理 音声認識 推薦技術 SVM グラフデータ 一般的な機械学習 Python […]

      32. […] 推薦技術 | Deus Ex Machina より: […]

      33. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      34. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      35. […] を用いて顧客間の関係性や興味を推定している。これにより、顧客に対してより適切な商品やサービスを推薦することが可能になる。推薦技術の詳細は”推薦技術“を参照のこと。 […]

      36. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      37. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      38. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      39. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      40. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      41. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      42. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      43. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      44. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      45. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      46. […] 知識情報処理 グラフデータアルゴリズム 関係データ学習 推薦技術 異常検知・変化検知技術 時系列データ解析 python […]

      タイトルとURLをコピーしました