以前、バウハウスの設計思想とAIについて考えたとき、
重要なのは、
「出力を作ること」ではなく、
“人の営みの流れをどう形づくるか”
なのではないか、
ということを書きました。
AIによって、
情報そのものは、いくらでも生成できるようになりました。
しかし、
人がどう受け取り、
どう解釈し、
どう動き、
どう次の判断へつなげるのか
は、自動では決まりません。
だからこそ本当に必要なのは、
「人の行動や選択が、自然につながっていく構造」
を設計することなのではないか、
と感じていました。
AGIという「最終ゴール」
これまで私は、
AI開発の最終目標とは、
Sam Altman も語るような、
AGI(Artificial General Intelligence)
を作ることなのだろう、
と考えていました。
そこでは、
- 人間を超える汎用推論能力
- あらゆる問題を解く知能
- 自律的学習
- 世界モデル
- 長期計画
- 自己改善
などが理想として語られます。
しかしある時、
この構造そのものが、
非常に強い哲学的前提を持っていることに気づきました。
AGIは「統一主体」を前提にしている
現在のAGI論では、
暗黙的に:
- 統一された主体
- 一貫した自己
- 中央的な知性
- 世界全体を理解する存在
が想定されています。
つまり、
「一つの知能が、
世界を統一的に理解する」
という構造です。
しかしこれは、
実はかなり西洋哲学的です。
西洋思想にある「中心的主体」
西洋思想では長く、
- 神
- デカルト的自我
- 普遍真理
- 統一理性
のような、
「中心的主体」
が重視されてきました。
AGIもまた、
ある意味では:
「世界を統一的に理解する知性」
を目指しており、
その構造は、
どこか西洋の神学的世界観にも近いように思えます。
しかしそれは、「人の営みの流れ」とは少し違う
一方で、
私たちの現実社会は、
必ずしも:
「単一の完全知性」
によって動いているわけではありません。
むしろ社会は:
- 人
- 組織
- 文化
- 市場
- 法律
- コミュニティ
などの相互作用によって成立しています。
そこでは知能とは、
「一つの脳の中に閉じたもの」
ではなく、
“関係そのものから立ち上がる現象”
のようにも見えます。
東洋思想との接続
これは、
仏教などの東洋思想とも、
どこか近いものがあります。
仏教では、
- 無我
- 縁起
- 空
によって、
「固定的な主体」
そのものを相対化します。
存在とは、
単独で存在するものではなく、
“関係性の中で生起するもの”
として捉えられます。
もし知能も同じだとしたら、
知能とは:
- 一つの脳
- 一つの主体
- 一つの意識
に閉じたものではなく、
- 多数のAIエージェント
- 人間
- 組織
- 社会
- 経済
- ツール
- ネットワーク
の相互作用の中から生成されるもの、
と考えることができます。
関係性知能(Relational Intelligence)
つまり知能とは、
単独で存在する能力ではなく、
“関係そのものから立ち上がる現象”
なのではないか。
私はこれを、
「関係性知能(Relational Intelligence)」
あるいは、
「知能場(Intelligence Field)」
と呼べるのではないか、
と感じています。
そしてこれは、
以前考えていた:
「人の行動や選択が自然につながっていく構造」
にもつながっているように思えます。
知能場とは「賢いAIの集合」ではない
ここで重要なのは、
知能場とは、
単に:
「賢いAIがたくさんある状態」
ではない、
ということです。
本当に重要なのは、
それらの知能が、
“社会として壊れずに、
共存・判断・修正できる構造”
を持っていることです。
つまり知能場とは:
知能の集合体
ではなく、
“社会を成立させる関係構造を持った知能ネットワーク”
です。
人間社会も「賢い人」だけでは成立しない
例えば人間社会でも、
「優秀な人が多い」
だけでは、
社会は成立しません。
そこには必ず:
- 信頼
- ルール
- 境界
- 責任
- 合意
- 記録
- 修正
- 役割分担
があります。
会社でも同じです。
どれだけ優秀な人が集まっても、
- 誰が決めるのか
- どこまで任せるのか
- 失敗したらどう戻すのか
- 意見が割れたらどう調整するのか
- 判断理由をどう残すのか
がなければ、
組織は壊れてしまいます。
AIではさらに重要になる
これはAIでも同じです。
むしろAIでは、
- 無数のAI
- 無数のSignal
- 無数の推論
が高速に飛び交うため、
人間社会以上に、
“社会を成立させる構造”
が必要になります。
社会を成立させる構造とは何か
社会を成立させる関係構造として例えば、以下の様なものが考えられます。
Trust
誰の情報・判断・Signalを、
どこまで信頼するか。
Boundary
どこまでAIに任せ、
どこから人間へ渡すか。
Responsibility
最終責任を誰が持つか。
Traceability
なぜその判断になったかを、
後から追跡できるか。
Consensus
複数の価値観や意見を、
どう調整するか。
Correctability
間違ったときに、
止め、戻し、修正できるか。
Diversity
一つの価値観へ偏らず、
異なる視点を維持できるか。
これらは単なる「機能」ではありません。
むしろ、
社会が社会として成立するための、
基盤的な関係ルール
に近いものです。
もしこれらが失われると、
社会は単に「非効率になる」のではなく、
- 信頼が崩れ
- 判断責任が曖昧になり
- 修正不能な暴走が起こり
- 単一価値観へ収束し
- 合意形成が困難になり
- 社会全体が不安定化していく
可能性があります。
つまり問題は、
「AIが間違えること」
そのものではありません。
本当に危険なのは、
“間違いを修正できなくなること”
であり、
“社会が自律的に安定を回復できなくなること”
です。
これはある意味で、
社会構造そのものの劣化
とも言えます。
だから未来の知能場では、
単に高性能なAIを作るだけでは不十分です。
本当に必要なのは、
AI・人間・組織・制度が接続されたときに、
その関係全体が:
- 信頼可能で
- 修正可能で
- 説明可能で
- 多様性を維持でき
- 持続的に安定できる
構造を持つことです。
つまり知能場とは、
単なる知能ネットワークではなく、
“社会が壊れずに進化し続けるための構造”
そのものを設計する試みなのかもしれません。
知能場で重要なのは「正解」ではない
つまり知能場で重要なのは、
「AIが正解を出すこと」
だけではありません。
むしろ重要なのは、
AI・人間・組織・制度が接続されたとき、
その関係全体が:
- 信頼可能で
- 修正可能で
- 説明可能で
- 責任を持てる
構造になっていることです。
AGIとの本質的違い
AGIはしばしば、
「一つの知能が、
どこまで賢くなれるか」
を問います。
一方、知能場は、
“複数の知能が接続された社会全体が、
どうすれば壊れずに賢くなれるか”
を問います。
つまり知能場の本質は、
「知能」
そのものより、
“知能を社会化する構造”
にあります。
Decision Trace Modelは何を取り戻そうとしているのか
そして、
その再設計の一つの試みが、
Decision Trace Model
なのかもしれません。
現代AIでは、
- 推論
- 生成
- 最適化
は急速に進化しています。
しかし一方で、
- なぜそう判断したのか
- どこで人間が介入したのか
- どのBoundaryで止めたのか
- 誰が承認したのか
といった、
“社会的意思決定の構造”
は失われつつあります。
Decision Trace Model は、
単にAIを強くするものではなく、
AI時代のシステムの中に、
- 判断の文脈
- 責任
- 境界
- 修正可能性
- 社会性
を取り戻そうとする試みなのかもしれません。
おわりに
未来のAIで本当に重要なのは、
「最強の単一知能」
ではないのかもしれません。
本当に必要なのは、
AI・人間・組織・社会が、
どう接続し、
どう信頼し、
どう判断し、
どう修正しながら、
持続的に共存できるか。
つまり:
“AI時代の社会の成立条件”
そのものなのなのではないでしょうか。
そして知能場とは、
その新しい関係性のルールを設計するための、
一つの世界観なのだと思います。
AIシステム設計・意思決定構造の設計を専門としています。
Ontology・DSL・Behavior Treeによる判断の外部化、マルチエージェント構築に取り組んでいます。
Specialized in AI system design and decision-making architecture.
Focused on externalizing decision logic using Ontology, DSL, and Behavior Trees, and building multi-agent systems.
