0|実験ログ:評価をAIに任せてみた 前回は、「判断が止まる状態」を扱った。 今回は、その一歩手前で起きていたことのログである。
AI実務ログ:AIでリサーチを進めたら、情報を絞っていたのに決められなくなった
0|実験ログ:情報を絞れば判断できるはずだった
前回は、複数のAIに評価を任せた結果、判断が止まる状態を扱った。
今回は、その一歩手前で起きていたことのログである。
競合企業の在庫調査を行っていた。
公開情報ベースで、直接的な答えは存在しない。
IR資料には断片的な記述しかない。
公的機関の業界統計や貿易統計もあるが、粒度や対象が一致しない。
複数の情報をつなぎ合わせて、
仮説を組み立てるしかない調査だった。
もともと難易度が高いことは分かっていた。
そのため今回は、あらかじめ対策を取っていた。
無駄な情報が増えすぎないよう、広くディープリサーチは使わなかった。
情報量を絞る前提で進めた。
確認コストが膨らまないよう意識していた。
つまり、情報が増えすぎて迷う状態は避けるつもりだった。
しかし、AIを使ってリサーチを進めると
複数の在庫仮説が出てくる。
それぞれに理由がついている。
比較も整理されている。
一見すると、精度の高いリサーチができているように見えた。
しかし実際には、どの仮説も検証する術がない。
100%正しいと言い切れる根拠がない。
主観では判断できても、客観的に評価できない。
結果として、判断が止まった。
1|視点を増やしても、判断材料は増えなかった
もう少し判断に使える材料があるのではないかと思った。
別の視点から見れば何か見えるかもしれない。
切り口を変えれば仮説を補強できるのではないか。
しかし、視点を変えるほど、仮説は補強されるどころか分岐していった。
増えていたのは、仮説を裏付ける材料ではなく、
前提条件の異なる別の仮説だった。
視点を変えればそういう見方もできる。
そういう考え方もある。
そういった情報ばかりが増えていく。
仮説が強化されるのではなく、分岐が増えていく。
ここで違和感が生まれた。
情報を増やさないようにしていたのに、状況は変わらない。
むしろ判断に使えない仮説だけが増えている。
進んでいるはずなのに、何も確定しない。
ここで気づいた。
視点を変えたところで、判断材料が見つかるわけではなかった。
問題は情報量ではなかった。
判断に使える材料が成立していなかった。

2|リサーチが成立しないプロセス
今回起きていたのは、ひとつの崩壊プロセスだった。
まず、AIにより仮説が生成される。
断片情報をもとに、不足部分が補完され、
文脈がつながり、筋の通った説明が作られる。
仮説が自然に生まれる。
次に、整形された出力によって検証がスキップされる。
整理されている。
理由が添えられている。
一貫して見える。
そのため、そのまま使えてしまう。
さらに、検証されないまま仮説が増える。
検証できる材料は限られている。
確定できる情報はほとんどない。
仮説だけが積み上がる。
最後に、優先順位が崩れ、収束しなくなる。
どれも確定できない。
どれも捨てきれない。
判断に入ることができない。
つまり、判断が止まったのではなかった。
判断に入る前の段階で、すでに崩れていた。
3|止められないリサーチ
今回のログから見えたのはこれだった。
リサーチは、仮説生成 → 検証 → 収束という流れが成立して初めて機能する。
しかし今回は、仮説はいくらでも増やせる。
一方で、検証は限られている。
このバランスが崩れていた。
その結果、仮説だけが増え、何も確定しない状態になる。
そしてもう一つ、問題が残った。
検証できない状況で、何をもって十分とするのか。
どこでリサーチを終えるのか。
この判断ができない。
つまり、停止条件そのものが設計できていなかった。
今回見えたのは、リサーチが止まらない理由だった。
しかし、どう止めるかはまだ見えていない。
ここで無理に答えを出すと、また仮説を増やすだけになる。
そのため今回は、止められない構造に気づいたところで止める。