知識グラフの質問応答システムへの応用

人工知能技術 セマンティックウェブ技術 知識情報処理技術 推論技術 機械学習技術 ウェブ技術 デジタルトランスフォーメーション技術 オントロジー技術 ワークフロー&サービス グラフデータアルゴリズム 自然言語処理技術 深層学習技術 オンライン学習 ユーザーインターフェース技術 チャットボットと質疑応答 本ブログのナビ

知識グラフの質問応答システムへの応用

知識グラフとは、「エンティティとその間の関係を記述して作成したグラフ」と定義することができる。ここでの「エンティティ」とは物理的または非物理的に「存在する」もので必ずしも物質的な存在ではなく、抽象化されて事物(数学や法律、学問分野などの事象)を表す。

 知識グラフの例としては、「テーブルの上に鉛筆がある」「富士山は静岡県と山梨県の境にある」というような単純で具体的なものから、「a=b なら、a+c = b+cである」「消費税とは、物品やサービスの「消費」に着目し課税する間接税である」「電子制御式燃料噴射装置において、吸気マニホールドのコレクターに取り付けられ、吸入空気量を制御するスロットルバルブを内蔵した吸気絞り装置をスロットルチャンバーと呼ぶ」のような抽象的なルールや知識を表したものまで多種多様にある。

  これらの知識グラフを用いることで、AIの観点からは知識グラフというデータを通じて機械が人間世界のルールや知識、常識等へのアクセスできるようになるという利点が生じる。AIが処理したデータを知識グラフと繋げることで、近年の深層学習をはじめとしたブラックボックス的なアプローチでの、「何を根拠に判断しているのか分からない」といった問題や、学習の精度を得るために大量の教師データが必要になるといった問題に対して、AIが処理した結果を人間にとって解釈しやすい表現にしたり、知識データを元にAIがデータを生成することでスモールデータでの機械学習が可能となる。

この知識グラフを質問応答システムに適用することで、単純なFAQの質問・回答ペアではなく、主要なタームの階層構造を作成し、更にコンテキストに応じた質問及びその代替語、同義語、機械学習応答のクラスなどと関連づけことができ、インテリジェントなFAQ体験を提供することが可能となる。

このナレッジグラフの質問応答システムへの応用に関しては近年活発に論文で発表されている。以下に、ISWCでのナレッジグラフの質問応答システムへの応用に関する論文発表をまとめる。

  • A Survey on Complex Question Answering over Knowledge Base: Recent Advances and Challenges

    知識ベース上の質問応答(QA)は、知識ベースに格納されたエンティティ間の構造化された関係情報によって、自然言語による質問に自動的に答えることを目的としている。KBQAをより実際のシナリオに適用できるようにするため、研究者は単純な質問から、より多くのKBトリプルと制約推論を必要とする複雑な質問へと関心を移してきた。本論文では、複雑な質問に対するQAの最近の進歩について紹介する。テンプレートやルールに依存する伝統的な手法の他に、この研究は、情報検索ベースと神経意味解析ベースの2つの主要なブランチを含む分類学に分類される。これらのブランチの手法を説明した後これらのブランチの手法を説明した後、将来の研究の方向性を分析し、Alimeチームが提案するモデルを紹介する。

  • EARL:joint entity and relation linking for question answering

知識グラフ上の多くの質問応答システムは、自然言語入力を基礎となる知識グラフに接続するために、実体と関係をリンクするコンポーネントに依存している。従来、エンティティリンクとリレーションリンクは、依存した逐次タスクとして、あるいは、独立した並列タスクとして実行されてきた。本論文では、EARLと呼ばれるフレームワークを提案し、エンティティリンクとリレーションリンクをジョイントタスクとして実行する。EARLは2つの異なる解決策を実装しており、本論文ではその比較分析を行う。1つ目の解法は、エンティティリンクとリレーションリンクのジョイントタスクを一般化巡回セールスマン問題(GTSP)のインスタンスとして定式化するものである。第一の戦略は、エンティティリンクとリレーションリンクのタスクをGTSP(Generalised Travelling Salesman Problem)のインスタンスとして定式化したものである。第二の戦略は、知識グラフのノード間の接続密度を利用するために、機械学習を用いる。これは、実体と関係を予測するために、3つの基本特徴と再順位付けのステップに依存する。我々はこれらの戦略を比較し、5000の質問からなるデータセットで評価した。両手法とも、実体と関係の紐付けにおいて、現在の最先端アプローチを大幅に上回る性能を示した。

視覚的質問応答(Visual Question Answering: VQA)に外部知識を取り入れることは、実用上極めて重要なニーズとなっている。しかし、このようなパイプラインアプローチは、一部のコンポーネントがうまく機能しない場合、エラーが伝播し、全体的な性能が低下するという問題がある。さらに、既存のアプローチの大部分は、回答の偏りの問題(実世界のアプリケーションでは、多くの回答が学習中に一度も出現していない可能性がある(すなわち、未見の回答))を無視している。これらのギャップを埋めるため、本論文では、知識グラフとマスクベースの学習メカニズムを用いて、外部知識をより適切に取り込むゼロショットVQAアルゴリズムを提案し、F-VQAデータセットに対する新しい答えベースのゼロショットVQA分割を提示する。実験によれば、我々の手法は、未閲覧の回答を用いたゼロショットVQAにおいて最先端の性能を達成し、一方で、通常のF-VQAタスクにおける既存のエンドツーエンドモデルを劇的に補強することができることが示された。

ここ数年、知識グラフ(KG)ベースの質問応答(QA)システムが多数開発されてきた。その結果、Question Answering Over Linked Data (QALD1-QALD9) challengeやその他のデータセットが、これらのシステムを評価するために提案されています。しかし、これらのQAデータセットには固定数の自然言語質問が含まれており、ユーザが特定のユースケースに合わせた質問のマイクロベンチマークサンプルを選択することはできない。我々は、既存のQAデータセットからカスタマイズされた質問サンプルを選択することができる、KG上のQAシステムのマイクロベンチマークのためのフレームワークであるQaldGenを提案する。このフレームワークは、様々なサイズの質問サンプルを、QAベンチマークで考慮すべき最も重要な特徴に関するユーザ定義の基準に従って選択できる柔軟性を有している。これは、異なるクラスタリングアルゴリズムを用いて実現されている。我々は、様々なQAベンチマークサンプルを用いて、知識グラフ上の最先端のQAシステムを比較する。その結果、様々なQAシステムとそのコンポーネントの限界を特定するために、特別なマイクロベンチマークが重要であることが示された。

知識グラフを探索し、自然言語による質問に答える機能を機械に持たせることは、過去10年にわたる活発な研究分野である。この方向性では、自然言語の質問を正式なクエリに変換することが重要なアプローチの1つとなっています。この研究分野を発展させるために、WebQuestions、QALD、LCQuADなどのデータセットが過去に発表されています。知識グラフを用いた複雑な質問に関する最大のデータセット(LCQuAD)は5千の質問を含んでいます。今回、我々はLC-QuAD 2.0 (Large-Scale Complex Question Answering Dataset) を提供します。これは3万件の質問とその言い換え、それに対応するSPARQLクエリを含んでいます。LC-QuAD 2.0はWikidataとDBpedia 2018の両方の知識グラフと互換性があります。この記事では、データセットの作成方法と、利用可能な質問の種類を例示して説明します。さらに、データセットの統計的な分析も行う。

2018年の新Googleニュースのローンチでは、その全文掲載ページでニュース記事を構造的に要約するFrequently asked questions機能が導入されました。ニュースの要約は数十年来の研究テーマでしたが、この新機能はニュースの要約技術に新たな流れをもたらすものとなっています。基本的なアプローチとして、ニュース記事に関連するデータから質問をマイニングする方法と、記事の内容から直接質問を学習する方法の2つがある。本論文は、ニュース記事の顕著で興味深い側面を捉えるために、質問と回答のペアを用いてニュース記事の構造化要約を生成する、我々の知る限り初の学習ベースのアプローチの研究を提供するものである。具体的には、この学習ベースのアプローチは、ニュース記事を読み、そのアテンションマップ(すなわち、記事中の重要な断片)を予測し、各断片に対応する複数の自然言語質問を生成する。さらに、学習ベースのアプローチを学習させるための弱い監視データを生成する仕組みとして、マイニングベースのアプローチについて説明する。我々は、既存のSQuADデータセット2および我々が構築した91Kのニュース記事を含む大規模データセットで本アプローチを評価した。その結果、提案システムは、文書アテンションマップ予測において0:734のAUC、自然な質問生成において12:46のBLEU-4スコア、質問要約において24:4のBLEU-4スコアを達成し、最新のベースラインを上回ることができることを示した。

本論文では、知識グラフ上の複雑な質問応答のタスクに対するニューラル・クエリグラフ・ランキング・アプローチの実証的な調査を実施する。我々は6種類のランキングモデルを実験し、我々の論理的選択であるクエリグラフの固有の構造を利用した、新しい自己注意に基づくスロットマッチングモデルを提案する。提案モデルは、DBpedia知識グラフに対する2つのQAデータセットにおいて、異なる設定で評価した結果、他のモデルよりも一般的に優れていた。さらに、これらのQAデータセットのうち、大きい方のデータセットから小さい方のデータセットへの転送学習により、学習データの不足を効果的に補い、大幅な改善をもたらすことを示す。

関係リンクは、知識グラフに基づく質問応答にとって重要な問題である。自然言語による質問と知識グラフが与えられたとき、タスクは与えられた知識グラフから関連する関係を特定することである。既存のエンティティ抽出とリンクのための技術は関係リンクに比べて安定しているため、我々のアイデアは関係リンクをサポートするために質問から抽出されたエンティティを利用することである。本論文では、DBpediaのエンティティに基づく、関係候補を計算するための新しいアプローチを提案する。我々は、本アプローチを様々な標準的なベンチマークを用いて経験的に評価した。その結果、本アプローチは、再現率、精度、実行時間のいずれにおいても、既存のベースラインシステムを大幅に上回ることがわかった。

知識グラフ上の単純な質問に答えることは、質問応答においてよく研究されている問題である。このタスクのための以前のアプローチは、事前に学習された単語埋め込みを使用するリカレントおよび畳み込みニューラルネットワークに基づくアーキテクチャを構築した。最近、事前学習された変換ネットワーク(例えば、BERT)を微調整することで、様々な自然言語処理タスクにおいて以前のアプローチを凌駕できることが示された。この研究では、BERTがSimpleQuestionsでどの程度のパフォーマンスを発揮するかを調査し、データパースシナリオにおけるBERTとBiLSTMベースのモデルの両方の評価を提供する。

知識グラフはユビキタスなデータソースとなり、その有用性は知識グラフ上で慎重に作られた質問に答える能力に関する研究によって増幅されてきた。我々は、質問の難易度を制御できる知識グラフ上での質問生成の問題を研究している。我々は、知識グラフ上の複雑なマルチホップ質問を自動生成するためのエンドツーエンドニューラルネットワークに基づく方法を提示する。サブグラフと答えを入力として、我々の変換器ベースのモデルは自然言語の質問を生成する。このモデルは、名前付きエンティティの人気度に基づく難易度推定を取り入れ、この推定を利用して難易度制御可能な質問を生成する。我々は、2つの最新のマルチホップQAデータセットで我々のモデルを評価する。その結果、我々のモデルが高品質で流暢かつ適切な質問を生成できることが分かった。私たちはQGデータセットとコードをhttps://github.com/liyuanfang/mhqg で公開しています。

知識グラフは、実体を中心とした膨大な情報を提供し、様々な知的アプリケーションにとって不可欠な構成要素となっている。実際、Wikidataのような最新の知識グラフはすでに数十億のRDFトリプルを捉えているが、ほとんどの関係についてはまだ十分なカバー率を有していない。一方、最近の自然言語処理研究の進展により、神経言語モデルは膨大な学習データを必要とせず、簡単に関係知識を問い合わせることができることが分かっている。本研究では、このアイデアを活用し、知識グラフの上にハイブリッドなクエリ応答システムを構築し、マスク言語モデルBERTと組み合わせてクエリ結果を完成させる。このように、知識グラフから得られる貴重な構造的・意味的情報と、言語モデルから得られるテキスト的知識を組み合わせて、高精度なクエリ結果を実現するのである。不完全な知識グラフを扱う標準的な技術は、(1)膨大な学習データを必要とする関係抽出、(2)単純なベースラインデータセットを超えて成功することに問題のある知識グラフ埋め込み、のいずれかです。我々のハイブリッドシステムKnowlyBERTは少量の学習データで動作し、大規模なWikidata実験では30%以上精度を向上させるなど、最先端技術を凌駕しています。

一般に、質問応答システムは、一連のステップからなるパイプラインとしてモデル化される。このようなパイプラインでは、エンティティリンキング(EL)が最初のステップとなることが多い。いくつかのELモデルでは、まずスパン検出を行い、次にエンティティの曖昧さ解消を行う。このようなモデルでは、スパン検出段階でのエラーが後続のステップに連鎖し、全体的な精度が低下する結果となる。さらに、学習データ中に金色のエンティティスパンがないことが、スパン検出器の学習を制限する要因となっている。そのため、スパン検出を行わないエンドツーエンドのELモデルへの移行が始まりました。本研究では、一般的なポインタネットワークモデルを応用したエンドツーエンドELの新しいアプローチを提示し、競争力のある性能を達成します。Wikidata知識グラフの3つのデータセットに対する評価で、このことを実証する。

本論文では、”台本なし会話”-ドメイン知識グラフ上の自由形式ダイアログ-を紹介する。ここでは、民間航空会社の手荷物取り扱いに関するユースケースを説明し、手荷物のサイズ、機内持ち込み品の制限、旅行ルートなど、様々なポリシーに関するユーザーの問い合わせに答えるものである。我々は、ドメインエンティティ、関係、プロセス、およびポリシーを知識グラフに符号化し、ユーザの問い合わせを処理し、知識グラフから正しい結果を取り出すための汎用セマンティック自然言語処理エンジンを作成した。

知識ベースの質問応答システムは、関係抽出とリンクのモジュールに大きく依存している。しかし、テキストから知識ベースへの関係抽出とリンクのタスクは、自然言語の曖昧さと学習データの不足という二つの主要な課題に直面している。これらの課題を克服するために、我々は、抽象的意味表現(AMR)を用いた意味解析と遠隔監視を活用した関係リンクフレームワークであるSLINGを発表します。SLINGは、言語的手がかり、豊富な意味表現、知識ベースからの情報などの相補的な信号を捕らえる複数の関係リンクアプローチを統合している。QALD-7, QALD-9, LC-QuAD 1.0の3つのKBQAデータセットを用いて関係リンクに関する実験を行った結果、提案手法は全てのベンチマークにおいて最先端の性能を達成することが実証された。

知識ベースは、検索、質問応答、対話などのアプリケーションで重要な資産である。知識表現における長い伝統に根ざし、すべての一般的なKBは肯定的な情報のみを格納し、そこに含まれない記述に対してはいかなる姿勢も取らない。本論文では、事実とは異なる興味深い記述を明示的に記述することを主張する。否定的な記述は、現在の質問応答の限界を克服するために重要であるが、その潜在的な豊富さのために、それらをコンパイルするための努力はランキングと緊密に結合する必要がある。我々は、否定的な発言を自動的にコンパイルするための2つのアプローチを紹介する。(i) ピアベースの統計的推論では、潜在的な否定的発言を導き出すために、関連性の高いエンティティと比較し、教師あり、教師なしの特徴を用いてランク付けを行う。(ii) パターンベースのクエリログ抽出では、検索エンジンのクエリログを採取するために、パターンベースのアプローチを用いる。実験結果は、両アプローチが有望かつ相補的な可能性を持っていることを示している。本論文と同時に、130Kの人気Wikidataエンティティに関する140万以上の記述を含む、興味深いネガティブ情報に関する最初のデータセットを発表する。

DIY(Do-It-Yourself)には、道具の使い方、材料の特性、作業の手順など幅広い知識が必要です。しかし、DIY初心者が検索結果を理解し、個々のDIYタスクに適用するのは時間がかかり、困難である。本論文では、DIYerの特定のニーズに対応できる質問応答(QA)システムを紹介する。このシステムの中核となるのは、膨大な量のドメイン知識を知識グラフとして格納した知識ベース(KB)である。このシステムは、回答がどのように導かれるかを推論によって説明することができる。私たちのユーザー調査では、QAシステムはウェブ検索よりも効果的にDIYerのニーズに応えることができることがわかりました。

AnuQAは、検索インデックスと企業内知識グラフの上に構築された質問応答システムである。この作品では、このシステムを展開する上で現実的な課題に対処するのに役立った5つのセマンティック技術について説明する。これらの課題には、知識ベース集団の偏り、ストリーミングデータ上のエンティティの再解決、データソース間のオントロジー整合、関係の説明、ビジネス分析のための単一の統一されたクエリーインターフェースの提供などが含まれる。

ISWCの論文より。「数十年にわたる努力にもかかわらず、インテリジェントな物体検索はまだ実現されていない。検索エンジンやセマンティックウェブ技術だけでは、「スーパーマーケットの近くにある、庭付きで寝室が2つ以上の物件を教えてください」というような単純な質問に対して、使えるシステムを提供することができないのである。本論文では、最先端の意味技術と効果的なデータ抽出を組み合わせることで、このような難しい目標を達成する概念的枠組みであるdeqaを紹介する。deqaは、自然言語による質問をSparqlのパターンにマッピングすることで実現される。そして、これらのパターンを、現在の不動産の売出に関するRDFデータベース上で評価する。オファーは、最先端のデータ抽出システムであるOXPathを用いて、オックスフォード地域の主要な不動産会社から取得され、Limesを介して背景とリンクしています。スーパーマーケットの位置などの知識を提供する。」

近年、質問応答システムは、多くのスマートデバイスや検索エンジンに組み込まれています。質問応答システムにおいて、回答タイプの予測は、無関係な結果をフィルタリングし、全体的な検索・取得性能を向上させることができるため、重要な役割を担っている。ここでは、国際セマンティックWeb会議(ISWC 2020)のSMARTタスクチャレンジで提供されたデータセットを用いた、我々の回答タイプ予測のアプローチを紹介する。大きな知識グラフから質問に対する粒度の高い回答タイプを予測することは、可能なクラスの数が多いため、より大きな挑戦となる。そこで、我々は3ステップのアプローチでこの課題に取り組むことを提案する。まず、タイプのカテゴリを予測する分類器を構築し、リソースタイプのためだけの別の分類器を構築することから始める。後者のモデルは、タイプの階層を無視して、各質問に対して最も一般的な(頻度の高い)タイプを予測する。これらの2つのモデルには、多クラステキスト分類アルゴリズム組み込みのfastaiライブラリを使用します。DBPediaデータセットの検証セット(ランダムに選ばれた20%のサンプル)において、モデルの精度はカテゴリ分類で0.95、一般タイプ分類で0.73であった。次に、先に予測された一般的なタイプに基づいて、各質問に対してより具体的なタイプ(サブクラス)を見つけるために、3番目の分類器を学習させる。NDCG@5とNDCG@10を用いて、それぞれ0.62と0.61を達成することができた。

SMART(SeMantic AnsweR Type prediction)チャレンジは、自然言語による質問に対して、どのような回答が返ってくるかを予測するタスクを提案しました。答えのタイプを理解することは、質問応答において重要な役割を果たす。本論文では、SAMRTタスクのための階層的文脈に基づくモデル、すなわちHiCoReを紹介する。HiCoReは、最先端の文脈ベースモデルと階層的な回答タイプを扱うための階層的な戦略の上に構築されている。SMARTの結果、HiCoReはDBpediaとWikidataのデータセットにおいて、回答タイプ予測に有望な性能を発揮することが示された。

DBpediaとWikidataのQuestion Answer Typeデータセットに対するSeMantic AnsweR (SMART) Type予測タスク2020に対する我々のシステムを説明する。SMARTタスクは、DBpediaとWikidataのクラスを用いた質問分類のための2つのデータセットを公開することにより、質問応答へのきめ細かい超微細なエンティティタイピングを導入するものである。我々は、段落ベクトルと単語埋め込みを用いた柔軟なアプローチを提案し、文脈に応じた高品質な質問表現を得ることができる。段落ベクトルによって提供される文書の類似性を、単語埋め込みを用いた意味モデルや文のアライメントによって補強する。回答カテゴリ予測では、Wikidataで85%、DBpediaで88.5%の最大精度を達成した。また、回答タイプ予測では、Wikidataで最大40%のMRR、DBpediaで最大54.8%のnDCG@5を達成することができた。

本論文では、自然言語の質問集合に対する回答タイプとカテゴリ予測の課題を考察し、単語とDBpedia知識グラフの埋め込みに基づく質問回答分類システムを提案する。質問はキーワード、名詞、名詞句について構文解析された後、単語と知識グラフの埋め込みが質問の部分に適用される。生成されたベクトルは、複数の多層パーセプトロンモデルを学習するために使用され、各回答タイプごとに1つずつ、回答カテゴリ予測と回答タイプ予測のためのマルチクラス1対全分類システムが構築されています。最適な分類システムを見つけるために、様々なベクトルの組み合わせや、正と負の学習サンプルを追加する効果が評価されます。最も高い精度で回答カテゴリを予測する分類器は、元の学習データから知識グラフに埋め込まれた名詞句のベクトルを用いて学習した分類器であり、その精度は0.793であった。また、最も高いNDCG値を示したのは、質問キーワードと名詞を解析したベクトルの組み合わせであり、上位5位までのNDCG@5とNDCG@10の値はそれぞれ0.471と0.440であった(回答カテゴリ精度は0.793)。5種類、10種類の回答が予測された。

ファクトイド質問応答(QA)のタスクは、スマートフォンなど、コンテキスト情報が急速に変化するシナリオに適用すると、新しい課題に直面します。ベルリンの「ホロコースト記念館」の建築家を尋ねる代わりに、同じ質問を「目の前にある多くの石碑の建築家は誰でしたか」と表現することができます。ユーザーがその前に立っていると仮定します。従来のQAシステムは、知識ベースからの静的情報と、入力内の名前付きエンティティと述語の分析に依存していますが、時間的および空間的な質問に対する質問応答は、基礎となる方法に新たな課題を課します。これらの課題に取り組むために、ontext – ware S patial QA D ataset(CASQAD )を紹介します。 )適切なクエリを作成するためにユーザーの位置と移動方向に関する情報を必要とする視覚的および空間的参照を含む5,000を超える注釈付きの質問があります。これらの質問は、大規模なユーザー調査で収集され、品質を確保するための適切な手段を使用して、半自動的に注釈が付けられました。

このペーパーでは、ロシアの最初の知識ベースの質問応答(KBQA)データセットであるRuBQを紹介します。高品質のデータセットは、さまざまな複雑さの1,500のロシア語の質問、英語の機械翻訳、WikidataへのSPARQLクエリ、参照回答、およびロシア語のラベルを持つエンティティを含むトリプルのWikidataサンプルで構成されています。データセットの作成は、オンラインクイズからの質問と回答のペアの大規模なコレクションから始まりました。データは、自動フィルタリング、クラウド支援エンティティリンク、SPARQLクエリの自動生成、およびその後の社内検証を受けました。

実際の質問応答や高度なデータクエリでは答えられない自然言語の質問を処理するための教師なしアプローチを提示します。代わりに、アドホックコード生成が必要です。
この困難なタスクに対処するために、私たちのシステムであるAskCOは、自然言語の質問を解釈し、Javaコード構造を表す数百万のトリプルを含む大規模なRDFリポジトリであるCodeOntologyに対して実行されるSPARQLクエリを生成することにより、言語からコードへの変換を実行します。SPARQLクエリは、構文機能とセマンティック機能の両方でAskCOによってランク付けされた多数の候補Javaソースコードスニペットとメソッドを生成し、最適な候補を見つけて、それを実行して正しい答えを取得します。システムの評価はStackOverflowから抽出されたデータセットに基づいており、実験結果は、私たちのアプローチがクローズドソースのWolframAlpha計算知識エンジンなどの他の最先端の独自システムと同等であることを示しています。

情報抽出(IE)は、非構造化テキストから構造化関係タプルを自動的に抽出することを指します。Relation Extraction(RE)やオープンIEシステムなどの一般的なIEソリューションは、クロスセンテンスタプルをほとんど処理できず、限定されたリレーションタイプと非公式のリレーション仕様(フリーテキストベースのリレーションタプルなど)によって厳しく制限されます。これらの弱点を克服するために、QA4IEという名前の新しいIEフレームワークを提案します。これは、柔軟な質問応答(QA)アプローチを活用して、文全体で高品質のリレーショントリプルを生成します。フレームワークに基づいて、高品質の人間による評価を備えた大規模なIEベンチマークを開発します。このベンチマークには、293Kのドキュメント、2Mのゴールデンリレーショントリプル、および636のリレーションタイプが含まれています。

最近の調査によると、AIを活用したダイアログシステムはますます普及しており、2017年には米国で4,000万台を超えるAmazonAlexaとGoogleHomeが単独でインストールされています。この採用により、AIベースのシステムが前例のない規模でエンドユーザーのダイアログに参加できるようになりますが、AIが人間のダイアログパートナーから学習する機能は依然として大幅に制限されており、ほとんどの場合、事前定義されたフィードバックオプションと、最終的には基本的なデータラベリングに制限されます。 。この論文では、エンドユーザーとAIシステムがエンドユーザーから直接知識を得るのを容易にする、エンドユーザーとAIダイアログシステム間のより表現力豊かなダイアログに向けた知識表現とヒューマンコンピューターインタラクションのインターフェースに関する機会と課題について説明します。

RDFデータに関する自然言語の質問に答えるタスクは、特に一連のQALDベンチマークのコンテキストで、近年大きな関心を集めています。このタスクは、自然言語の質問を実行可能形式(SPARQLなど)にマッピングすることで構成されているため、特定のKBから回答を抽出できます。これまでに提案されたほとんどのシステムは、i)単一言語であり、ii)質問を解釈し、それらをSPARQLクエリにマップするためにハードコードされたルールのセットに依存しています。自然言語の質問を確率的推論として論理形式にマッピングするためのトレーニングデータからモデルを誘導する最初の多言語QALDパイプラインを紹介します。特に、私たちのアプローチは、ユニバーサル構文依存関係表現を、決定論的な2番目のステップとしてSPARQLクエリにマップされるDUDES(依存関係ベースの指定不足の談話表現構造)に基づく言語に依存しない論理形式にマップすることを学習します。私たちのモデルは、依存関係グラフから抽出された特徴と対応する意味表現に依存する因子グラフに基づいています。ランク付けの目的を使用してパラメーターを更新するには、近似推論手法、特にマルコフ連鎖モンテカルロ法、およびサンプルランクに依存します。私たちの焦点は、語彙のギャップを克服し、この目的のために機械翻訳と単語埋め込みアプローチの新しい組み合わせを提示する方法の開発にあります。私たちのアプローチの概念実証として、英語、ドイツ語、およびQALD-6データセットでのアプローチを評価します。

直感的な方法でナレッジベースにアクセスできることは、過去数年にわたって活発な研究分野でした。特に、RDFデータセットを自然言語でクエリできるいくつかの質問応答(QA)アプローチが開発されました。これにより、エンドユーザーは、知識ベースのスキーマを学習したり、正式なクエリ言語を学習したりすることなく、知識にアクセスできます。この研究分野を促進するために、いくつかのトレーニングデータセットが作成されました。たとえば、QALD(リンクトデータを介した質問応答)イニシアチブなどです。ただし、既存のデータセットは、複雑なSPARQLクエリを学習するためのさまざまな機械学習ベースのQAアプローチを適用および評価するには、サイズ、多様性、または複雑さの点で不十分です。大規模で複雑な質問応答データセット(LC-QuAD)の提供により、5000の質問を含むデータセットと、DBpediaデータセットに対する対応するSPARQLクエリを提供することで、このギャップを埋めます。この記事では、データセットの作成プロセスと、知識グラフ用の次世代QAシステムの堅牢性と精度を評価できるようにするためのさまざまな質問を確実にする方法について説明します。

選言的スコーレム追跡は、DLオントロジーおよび選言的実存的ルールを使用したプログラムに対する連接クエリ応答を解決するために使用できる、健全で完全な(終了しないものの)アルゴリズムです。非周期性の概念を使用して、実世界の知識ベースの大規模なサブセットの追跡を確実に終了させることができますが、非周期的理論に対する推論の複雑さは依然として高いままです。したがって、追跡の終了を保証するだけでなく、多項性を保証するいくつかの制限を研究します。ほとんどすべての非周期的DLオントロジーが実際にこれらの一般的な制限を満たしていることを示す評価を含めます。

コンテキストアウェアシステムのように、さまざまなソースから発生し、時間の経過とともに受信されるデータを処理するオントロジーベースのシステムでは、推論は時間的次元に対処する必要があり、データの不整合に対して回復力がある必要があります。このような設定に動機付けられて、このペーパーは、オントロジーベースのクエリ応答の時間バージョンで一貫性のないデータを処理する問題に対処します。結合クエリと提案線形時相論理の演算子を組み合わせた最近提案された時相クエリ言語を検討し、この設定に、一貫性のない記述論理知識ベースをクエリするために導入された3つの矛盾耐性のあるセマンティクスを拡張します。DL-Lite Rの時間的知識ベースの複雑さを調査し、さらに一貫性のあるケースの全体像を完成させます。

表現力豊かなホーン記述論理オントロジーに対する結合クエリの回答は、関連性のある困難な問題であり、場合によっては、追跡アルゴリズムを適用することで対処できます。この論文では、ホーンに対する制限された追跡を終了するための十分な条件を提供する、新しい非周期性の概念を定義します。 \(\ mathcal {SRIQ} \)TBoxes。この概念が、既存の非周期性条件のほとんどを(理論的および経験的に)一般化することを示します。さらに、この新しい非周期性の概念は、非常に効率的な推論手順を生み出します。他の最先端のシステムよりも優れた非周期的オントロジーの具体化ベースの推論を提供することにより、これの証拠を提供します。

近年のディープラーニングの進歩により、AIの研究者や開発者は最小限の努力で最先端の結果を得ることができるようになりました。特に、テキスト分類のようなタスクでは、BERTやその他の関連するモデルのおかげで、テキストの前処理や特徴量の生成はもはや重要な役割を担っていない。本論文では、意味的回答タイプ予測タスク(SMARTタスク)に対する我々の解決策を紹介する。このソリューションは、一般的な言語への機械翻訳、往復翻訳、リンクデータによる名前付きエンティティのアノテーションなど、いくつかのデータ拡張技術の適用に基づいている。最終的な提出物は、いくつかの成功したシステム出力から重み付けされた結果として生成されました。

このペーパーは、ISWC2020チャレンジのSMARTタスクへの参加をまとめたものです。私たちが答えることに興味を持っている特定の質問は、ニューラルメソッド、特にBERTなどのトランスフォーマーモデルが、従来のアプローチと比較して、回答タイプの予測タスクでどれだけうまく機能するかです。私たちの主な発見は、粗粒度の回答タイプは標準のテキスト分類方法で95%以上の精度で効果的に識別でき、BERTはわずかな改善しかもたらさないということです。一方、きめ細かいタイプ検出の場合、BERTは以前の検索ベースのアプローチよりも明らかに優れています。

回答タイプ予測はQA(Question Answering)の重要なタスクであり、自然言語で表現されたユーザークエリに対して期待される回答のタイプを予測することを目的としている。本論文では、回答タイプの候補が汎用オントロジーのクラス階層に由来する、意味的な回答タイプ予測に焦点を当てる。この問題を、一連の分類タスク(回答カテゴリ予測、回答リテラル/リソースタイプ予測)の2段階パイプラインとしてモデル化し、各々が微調整されたBERT分類器を利用する。回答リソースタイプ予測という難しい問題に対処するため、クラス階層の低い、より具体的なオントロジークラスを優先する報酬メカニズムでBERT分類器を強化します。DBpediaのクラス階層(約760クラス)を用いた実験評価の結果、回答カテゴリ予測(約96%の精度)とリテラルタイプ予測(約99%の精度)に優れ、リソースタイプ予測では十分な性能を発揮することが示された。NDCG@5の甘さ(∼78%)がある。

質問に正しく答えるためには、事前に答えの種類を検出することが不可欠である。特に知識ベースに対する質問応答(QA)の分野では、自然言語は曖昧であり、一つの質問が異なる関連する問い合わせにつながる可能性があるため、回答は多くの異なるタイプになる可能性がある。セマンティック知識ベースでは、データ型(日付、文字列、数値など)だけでなく、すべてのオントロジークラス(スポーツ選手、選手権、テレビ番組など)を考慮する必要がある。したがって、回答タイプの事前検出は、QAシステムにとって有用なサブタスクであるが、複雑な分類問題でもある。我々は、ルールベースのアプローチであるCOALA(COntext Aware anaLysis of Answer types)を紹介する。我々のアプローチは、質問の特徴を抽出し、文脈を考慮した曖昧さ回避により、正しい回答タイプを取得することに基づいている。COALAはSMARTタスクチャレンジの過程で開発され、我々は21,000以上の質問に基づいて我々のアプローチを評価した。

コメント

  1. […] 知識グラフの質問応答システムへの応用 […]

  2. […] 質問応答と意思決定支援: ナレッジグラフは、”知識グラフの質問応答システムへの応用“で述べているように質問応答システムに応用されたり、意思決定支援システムに応用され […]

タイトルとURLをコピーしました