AIは意味に近づけるのか — 「連続近似のAI」と「意味の断絶」の間にある技術 GNN —

前回の記事では、AIの判断を記述するための構造として

  • Ontology

  • DSL

  • Behavior Tree

という三層構造を説明した。

この構造によって、AIシステムの判断は

  • 意味(Ontology)

  • 条件(DSL)

  • 実行構造(Behavior Tree)

として明示的に表現できるようになる。

そしてその結果として

Event
Signal
Decision
Boundary
Human

という Decision Trace を記録することが可能になる。


しかしここで、多くの人が次の疑問を持つ。

それらは全部、人間が作るのか?

Ontology や DSL や Behavior Tree をすべて人手で設計するとすれば、
AIシステムの構築は非常に重いものになる。

確かにその通りである。

しかし同時に、もう一つの問題がある。

AIにすべてを任せることもできない。

ここに、AI設計の本質的な難しさがある。

その理由を理解するためには、
まず AI が何をしているのかをもう少し深く見る必要がある。


AIは世界を近似する

AIは世界を非常によく近似する。

驚くほど精密に、
なめらかに、
現実の構造を写し取る。

それでも私たちは、ときどき強い違和感を覚える。

「言っていることは正しい。
でも、意味が分かっていない。」

この違和感の原因は、
単なる性能不足ではない。

もっと根本的な問題がある。

それは

近似できるものと、原理的に近似できないものの違い

である。


AIが扱うのは連続世界

現在のAIの中心にあるのは

  • 分布の推定

  • 関数の近似

  • 勾配に沿った更新

である。

つまりAIは

連続的な世界の近似

を行っている。

似ていれば近い。
少し違えば少し変わる。

例えば

0.49
0.50
0.51
この差は基本的に

なめらかに扱われる。

この性質があるからこそ、
AIは自然な振る舞いを生み出せる。

LLM
CNN
Transformer

といった現在のAI技術は、

ベクトル空間の中での近似

として動いている。


しかし意味は連続ではない

ここに一つの問題がある。

意味は連続ではない。

意味が生まれるのは、

連続的な変化の中ではない。

意味が生まれるのは

断絶

である。

例えば

0.49
0.51
この差は、ある瞬間に
合格 / 不合格
許可 / 拒否
安全 / 危険
合法 / 違法

に変わる。

ここには

飛躍

がある。

この飛躍は

連続近似の外側

に存在している。


なぜAIは「正しいけど違う」のか

AIが滑らかに近似すればするほど

  • 境界はぼやけ

  • 禁忌は薄まり

  • 文脈の緊張は消える

その結果、

意味が生まれていた断絶点が埋め戻される。

だから私たちは

「正しいけど違う」

と感じるのである。


連続世界と意味世界

ここまでの話を整理すると、

AI技術には大きく二つの世界がある。


1 連続近似の世界

ここでは

LLM
CNN
Transformer

などが動いている。

これは

ベクトル空間

の世界である。

ここでは

似ている
近い
確率が高い
という形で情報が扱われる。

2 意味の世界

もう一つは

意味の世界

である。

ここでは

  • Ontology

  • Semantic Web

  • Rule

  • DSL

といった

論理構造

が使われる。

ここでは

合法 / 違法
許可 / 拒否
安全 / 危険
といった

境界による判断

が行われる。


二つの世界の間にあるもの

つまりAIの世界には

連続世界

意味世界

という二つの層が存在する。

AI設計の本質的な問題は、

この二つの世界を

どう接続するか

という問題である。

そしてこの二つの世界の間に位置する重要な技術がある。

それが

GNN(Graph Neural Network)

である。

GNNは

ベクトル空間による学習と

グラフ構造による意味表現

の両方を扱うことができる。

つまり

  • 連続近似(Neural Network)

  • 関係構造(Graph)

を同時に扱う技術である。

この性質によって、

GNNは

連続世界と意味世界の橋渡し

として機能する可能性を持っている。

このようにして見ると、GNNは単なる機械学習アルゴリズムではない。

それは

連続世界と意味世界の接点

に位置する技術である。

ベクトル空間の中で学習しながら、
同時に

関係構造

を扱うことができるからである。


GNNは関係構造を学習する

通常の深層学習は、

ベクトルの近さ

を学習する。

例えば

画像認識
自然言語処理

では、

似ている特徴を持つデータを
近い位置に配置する。

つまり学習されるのは

特徴の近さ

である。

一方、GNNは

関係構造

を扱う。

グラフには

ノード(対象)

エッジ(関係)

がある。

例えば、不正検知のシステムを考えてみよう。

ノードには

顧客
取引
端末
地域
口座

などが存在する。

そしてそれらは

エッジによって結ばれる。

例えば

同一端末からのアクセス
不自然な地域移動
過去の不正口座との接続
異常な送金経路

といった関係である。

GNNはこのネットワークの中で
情報を伝播させながら、

どこに異常な構造があるか
どの関係が重要か
どのパターンが典型的か

を学習する。

つまりGNNは

データの近さではなく

関係の構造

を学習する。

この意味で、GNNは

意味に近い構造

を抽出できるAIである。


しかしGNNでも意味は決められない

ただしここで、非常に重要な点がある。

GNNは

意味を決めるわけではない。

GNNができるのは

関係構造の発見
パターンの抽出
異常の検出

である。

しかし

どこからを不正とするのか
どこから manual review にするのか
どこでアカウントを停止するのか

といった

断絶点

は決められない。

なぜならそこには

リスク
制度
責任
運用

といった

社会的判断

が関わるからである。

つまり

意味の断絶は

モデルの中には存在しない。

それは

設計された境界

として存在する。


AIと専門家の役割

ここで最初の問いに戻る。

Ontology
DSL
Behavior Tree

はすべて人手で作るのか。

答えは

半分Yes、半分No

である。

AIは

関係構造
パターン
異常
クラスタ

を発見できる。

特にGNNは

意味に近い構造

を抽出する能力を持つ。

しかし

どこで線を引くか

は設計である。

最終的に

何を不正と呼ぶのか
どこで自動判断を止めるのか
どこで人間に戻すのか

を決めるのは、

責任主体としての専門家

である。

つまり構図はこうなる。

AIが構造を発見し、
専門家が断絶を書く。

AIは判断を代替するのではなく、

判断構造の設計を支援する存在

になる。


Decision Trace Modelとの関係

この構造は

Decision Trace Model

とも密接に関係している。

Decision Trace Modelが記録するのは

単なる結果ではない。

それは

どの概念定義を使ったのか
どの判断条件を使ったのか
どの順序で評価したのか
どこで停止したのか

という

判断構造そのもの

である。

もし

AIが構造を提案し、
専門家が断絶を確定するなら、

その過程そのものも

Decision Trace

の重要な一部になる。

つまりDecision Traceは

「AIの判断履歴」

ではない。

それは

判断がどのように設計されたか

という履歴でもある。


まとめ

AIは

世界を連続的に近似する。

GNNは

関係構造を学習する。

しかし意味が生まれるのは

断絶

である。

その断絶は

モデルの中には生まれない。

それは

設計された境界

として存在する。

AIが構造を発見し、
専門家が断絶を書く。

これが、

Decision Trace Model の時代における

AIと人間の協働のかたち

なのである。


GNNに関連する技術的詳細はグラフニューラルネットワークの記事で解説している。

また、意味を扱うAI技術としては
Semantic Web 技術Ontology 技術がある。

興味のある方は、そちらも参照してほしい。

コメント

タイトルとURLをコピーしました