機械学習技術 人工知能技術 自然言語処理技術 セマンティックウェブ技術 オントロジー技術 デジタルトランスフォーメーション技術 AI学会論文 知識情報処理技術 AI学会論文を集めて 推論技術
前回はReasoning Web2018について述べた。今回は2019年9月にイタリアBolzanoで開催された第15回Reasoning Webについて述べる。
今回はExplainable AIの話題を中心に、記述論理を使ったオントロジーに対する主な推論・説明手法であるタブロー手続きと公理ピンポイントアルゴリズムについて、詳細な説明と分析、知識ベースに対する意味的問合せ応答、データ・プロベナンシング、エンティティ中心の知識ベース応用、格子理論によってデータを説明するアプローチである形式的概念分析、データから解釈の可能なモデルの学習、命題の充足可能性のような論理問題、制約充足のような離散問題、そして、本格的な数学的最適化課題の学習、分散コンピューティングシステム、説明可能なAIプランニングについて述べる。
以下に詳細なトピックについて述べる。
記述論理(DL)は、概念的な知識をオントロジー公理の集合として形式的に表現するために設計された言語群である。DLは、Webアプリケーションで情報を表現するためのW3C標準の言語であるオントロジー言語OWLの正式な基盤を提供するものである。DLにおける主な計算問題は、ユーザーの問い合わせに答えるためなどに、オントロジーに格納された情報の関連する結果を見つけることである。キーワード検索や機械学習に基づく関連技術とは異なり、帰結の概念は形式論理に基づくセマンティクスを用いて明確に定義される。本講座では、オントロジーに対する主な推論・説明手法であるタブロー手続きと公理ピンポイントアルゴリズムについて、詳細な説明と分析を行う。
多くの場合、何らかの知能を必要とするタスクは、意味的に豊かな知識ベースに対する問合せ応答の例と見なすことができる。この文脈では、2つの主要な問題が発生する。(i)不確実性:内在する不確実性(天候に関する事象など)と、十分な知識がないために生じる不確実性の両方が含まれる。このような実世界の知識の不可避な性質から、複雑な推論モデルが生み出されることが多い。これらのモデルは、主に人間の意思決定支援システムとして利用されることを想定すると、その結果の意味のある説明可能性が重要な特徴である。このレクチャーノートは、これらの基本的な問題ごとに2つのパートに分けられている。第1部では、基本的な確率的グラフィカルモデルを紹介し、それらをどのように強力なオントロジー言語に組み込むことができるかを議論する。第2部では、修復の概念に基づくオントロジー問答のための古典的な不整合耐性セマンティクスと、より柔軟かつ原理的な不整合の処理方法を目指した他のセマンティクスを議論する。最後に、両部門とも、問い合わせ結果に付加できる様々な種類の説明を導き出す問題について考察している。
データ・プルーバンスは、データベースに対するクエリ評価時に計算される追加情報であり、クエリ結果に関する追加コンテキストを提供する。データ・プロベナンシングのための正式なフレームワークがいくつか提案されており、特にプロベナンス・セミリングに基づいている。これらのフレームワークでは、様々なクエリ言語に対してクエリの出自を計算することができる。実証性は確率的データベース、ビューメンテナンス、クエリ結果の説明など、様々な場面で応用されている。プロベナンス・セミリングの理論は主にリレーショナル・データベースを対象として開発されてきたが、XML、グラフ、トリプルストア・データベースなど、他のデータ表現にも適用可能である。
エンティティ中心の知識ベースは、国、政治家、映画などの公共性の高いエンティティに関する事実の大規模なコレクションである。検索エンジン、チャットボット、セマンティックデータマイニングシステムなどに応用されている。本論文では、まず、実体中心知識ベースという研究コミュニティで実用的なコンセンサスとして浮上している知識表現について議論する。次に、これらの知識ベースがどのように論理的ルールをマイニングすることができるかを説明する。最後に、実体をベクトル空間におけるベクトルとして表現する方法について、ニューラルネットワークの助けを借りて説明する。
格子理論によってデータを説明するアプローチである形式的概念分析について簡単に紹介する。
データから解釈可能なモデルを学習することは、AIの主要な課題の1つであると言われている。論理ベース学習の目標は、与えられた背景知識のコンテキストでラベル付けされた例を説明する解釈可能な(論理)プログラムを計算することである。このチュートリアルでは、論理ベース学習の最近の進歩、特に、回答集合セマンティクスの下での非単調論理プログラムの学習について紹介する。非決定性、選択、例外、制約、嗜好を表現するルールを含む、表現力の高いプログラムを学習するための、いくつかの学習フレームワークとアルゴリズムを紹介します。本チュートリアルでは、学習システムとフレームワークの表現力に重点を置き、あるシステムが特定のクラスのプログラムを学習できない理由を説明する。
人工知能やオペレーションズ・リサーチにおいて、制約はいたるところに存在する。命題の充足可能性のような論理問題、制約充足のような離散問題、そして、本格的な数学的最適化課題にも登場する。制約充足問題や最適化問題の構造やパラメータが(部分的に)未知であり、データから推測しなければならない場合に、制約学習が登場する。必要な監視は、オフラインのソースから来るかもしれないし、人間の領域専門家や意思決定者との対話によって集められるかもしれない。この講義ノートでは、制約学習の中核となる概念について、簡単ではあるが自己完結的な紹介を行うとともに、制約学習の多様な手法の中から、古典的な戦略や最近の進歩を取り上げる。また、概念学習、クエリからの学習、構造化出力予測、(統計的)関係学習、嗜好抽出、逆最適化など、AIや機械学習の他の領域との関連についても議論する予定である。
分散コンピューティングシステムは、多くの重要なサービスを提供している。なぜ、どのようにうまく機能するのかを説明し理解するために、システムの動作のモデルを構築し、維持し、分析することが一般的である。マルコフモデルは、このようなシステムの動作現象を研究するために頻繁に使用されます。マルコフモデルは、離散的な状態空間で表現されることが多く、マルコフオートマトンなど様々な種類がある。このように、マルコフオートマトンは、リスク、コスト、パフォーマンス、および戦略に関連する幅広い定量的特性を研究するための材料を提供します。このチュートリアルでは、マルコフオートマトンの形式、MODEST言語によるマルコフオートマトンの実用的なモデリング、およびMODESTツールセットによる解析について紹介します。ケーススタディとして、Bitcoinに対する攻撃を最適化し、小さいが複雑なリソース共有コンピューティングシステムの性能を評価します。
AIに対するモデルベースのアプローチは、その世界知識と決定を下すために実行される推論の明示的な性質を考えると、原理的に説明可能性によく適している。特にAIプランニングは、行動決定問題に対する一般的なアプローチとして、この文脈に関連している。実際、説明可能なAIプランニング(XAIP)は10年以上前から関心を集めており、説明可能なAIへの一般的なトレンドとともに、最近になって加速度的に増加してきている。本講演では、AIプランニングに関連する様々な種類の説明を分類して説明し、XAIPの一種である対比的説明に関する最近の研究を概説する。この拡張アブストラクトは、講演の簡単な要約と、いくつかの文献の紹介である。我々は、完全性を主張するものでも、意図するものでもないことを強調する。この要旨は、文献の入口を示す簡単な入門書として役立つであろう。
次回はReasoning Web2020について述べる。
コメント
[…] 次回はReasoning Web2019について述べる。 […]