ICT技術:ICT Technology

合意しないマルチエージェントは失敗か? ―合意不成立を成果として扱う設計と、「衝突ログ」の価値

マルチエージェントと聞くと、多くの人はこう期待する。 エージェント同士が話し合い 意見をすり合わせ 最終的に合意に至る そして、その合意が最適な判断であるはずだ、と。 だが、ここに重...
ICT技術:ICT Technology

Cold-startを「契約」として扱え — データ不足を設計問題に変換する —

Cold-start問題は、技術的な問題だと思われている。 データが足りない モデルが学習できない 精度が出ない だから人は言う。 「データを集めよう」 だが本当にそれだけだろうか...
ICT技術:ICT Technology

判断を止める条件は、どこに書くべきか ―停止条件の外在化と、「人間に戻す」設計の重要性

AIは、止まらない。 最適化は続く 確率は更新される スコアは改善される これは欠陥ではない。計算とは、そういうものだからだ。 だからこそ問わなければならない。 判断を「止める」条...
ICT技術:ICT Technology

オントロジー・DSL・BTはどうやって効率的かつ正確に作るのか ― 判断構造を設計する実践的方法 ―

これまでの記事では、 なぜ判断を外在化する必要があるのかを説明してきました。 その中核となる三つの構造要素は: オントロジー DSL(判断契約) ビヘイビアツリー しかし、当然次の問いが生まれます。 ...
ICT技術:ICT Technology

判断を外に出すAI基盤 — Ontology / DSL / Behavior Tree による Decision-Oriented Signal Platform —

多くのAI基盤は、「モデルをどれだけ賢くするか」に焦点を当てて設計されている。 精度を上げる。推論を高速化する。自動化率を高める。 しかし、現実の意思決定環境で本当に重要なのは、別の問いである。 判断はどこにあるのか。 モデルの中か...
ICT技術:ICT Technology

段階的信用スコアを「契約」として設計する — 信用を学習結果ではなく、解除可能な境界として扱う —

信用スコアは便利だ。数字があると、人は安心する。 だが信用スコアには致命的な誤解がある。 信用は“推定値”ではない。信用は 「許可範囲」 である。 だから、信用スコアをモデル出力として扱うのではなく、契約として扱わなければならない。 ...
Uncategorized

判断を外に出す機械学習基盤 — Decision-Oriented Signal Platformという設計思想 —

多くのAI基盤は、「より賢いモデル」を中心に設計されます。 精度を上げる。 推論を高速化する。 自動化率を高める。 それ自体は間違っていません。 しかし、現実の意思決定環境では、ある問いが決定的に重要になります。 判...
ICT技術:ICT Technology

例外は失敗ではない ―例外処理をどう設計に組み込むか、例外が多いほど健全なシステムという視点

例外が多いシステムは、「未完成」「不安定」「設計が甘い」と思われがちだ。 だから多くのAI・業務システムでは、例外を減らそうとする。 ルールを増やす 条件を網羅する ケースを潰す だ...
ICT技術:ICT Technology

評価関数は誰の価値観か? ―スコアに埋め込まれる暗黙の判断と、人間が「書かなかった価値」の扱い

AIは公平だと思われがちだ。数値で評価し、感情に左右されず、一貫した判断を下す。 だがその前提には、ひとつ決定的な見落としがある。 評価関数は、誰かの価値観で書かれている。 しかも多くの場合、それは明示されていない。 ...
ICT技術:ICT Technology

なぜAIは「常識」を持てないのか ―常識=断絶の集合体、オントロジーとしての常識

AIは、非常に多くのことを知っている。百科事典より広く、専門家より速い。 それでも私たちは、ある瞬間にこう感じる。 「このAI、常識がないな」 これは能力不足ではない。構造の問題だ。 「常識がない」と感じる瞬間に何が...
タイトルとURLをコピーしました