「問い直し回路」がAI経営を精密にする——MBA授業が教えた、問いの力
[結論] AIの精度は、AIの性能ではなく「人間の問い方の構造化精度」で決まる。MBA式ケース思考を通じて無意識に形成される「問い直し回路」が、AI時代の経営判断の差を生む。
総務省の令和7年版情報通信白書によれば、従業員300人未満の中小企業でのAI全社導入率はわずか5.1%。さらに注目すべきは、導入しない理由の筆頭が「利用用途やシーンがない」で41.9%を占めることだ。
つまり、AI導入が進まない本当の理由は「AIの性能不足」ではなく、「AIに何を問うか、その力の欠如」 にある。
前号では「知っている」と「分かっている」の差を論じた。その差を生み出す正体が、実は「問いを構造化する力」の有無だったことに気づく——それが、MBA授業でのケース思考訓練を通じて見えてきたのだ。
プロンプト精度の壁——正答率0%と90%を分けるもの
Google Researchの2025年の研究報告は衝撃的だ。同一のAIモデル、同一の質問内容でも、プロンプトの構造化方法によって、正答率が0%から90%に跳ね上がる という結果が示されている。
| 問い方のタイプ | 正答率 | 特徴 |
| 漠然とした依頼型「売上を上げるには?」 | 0〜20% | 背景・制約が不明。AIが勝手に前提を埋める |
| 部分的に構造化「売上が低迷している。原因は?」 | 30〜60% | 事実は示したが、検証可能な仮説がない |
| 完全構造化「顧客層・商品・チャネルの3軸のうち、低迷の主因は何か、各仮説を列挙せよ」 | 80〜90% | AIが前提を共有。出力が実行可能 |
つまり、AIの限界はAI側の問題ではなく、人間側の「問い方」の精度が全てを決める のだ。
後者は、ケース思考の訓練によって自然と形成される問い方である。
ケース思考とは、データを眺めるだけではなく、その背景にある複数の要因を構造的に分解し、「もしAならば、Bである」という条件付き仮説を並立させることである。この訓練がないと、人間の提示する問いは自然と「いい答えをくれ」という漠然とした依頼になる。
「問い直し回路」とは、この構造化された問いの形成プロセスを、繰り返し自分に問い直すことで、無意識のうちに実行できるようにした回路のこと を指す。
まとめ: AIの精度を決めるのは、AIの性能ではなく、問いの構造化精度だ。同じ質問でも構造化の程度で正答率が0%〜90%に変わる。「問い直し回路」は、ケース思考訓練によって形成される。
ケース思考の三層構造——AIと組み合わせる意思決定プロセス
ケース思考には、一貫した三層がある。
第一層:事実抽出
数字・日付・固有の事象を切り出す。「売上が20%低下した」「顧客単価は変わっていない」「新規顧客数が30%減少している」。感情的解釈を排除し、素データの解像度を上げる。
第二層:仮説構築
事実から複数の原因仮説を立てる。「既存顧客のLTV低下」「新規獲得チャネルの効率化」「競合参入による顧客流出」——複数の仮説を同時に保ち、どれが最有力か、データでテストできるまで判断を留保する。
第三層:選択肢の並立
「もし新規獲得がボトルネックなら、施策はチャネル多角化」「もし既存顧客流出なら、サービス改善」——仮説ごとに異なる選択肢を列挙する。これが、構造化プロンプトの原形となる。
このプロセス全体が、AIへの問い方に直結する。実際、ケース思考の訓練を受けた人間がAIに問いを投げるとき、自動的に第一層〜第三層が内包された、構造の高いプロンプトになるのだ。
しかし、University of Virginia Darden School of Businessの2025年研究では、興味深い警告が示されている。AI多用頻度が高い学生ほど、独立したcritical thinking能力が低下する傾向が見られた という。つまり、AIに頼ることで、問い直し回路の形成自体がスキップされる危険性がある。
ケース思考は、AIを使うために必須の前処理 なのだ。
まとめ: ケース思考の三層(事実抽出→仮説構築→選択肢並立)が、構造化プロンプトの原形となる。AI多用でcritical thinking能力が低下する傾向があるからこそ、ケース思考を前処理として持つことが重要だ。
誠実な限界認識——完璧さより「問い直す姿勢」が本質
ここで率直に認めておく必要がある。ケース思考は必要条件だが、充分条件ではない。
| 局面 | ケース思考の有効性 | 補足 |
| 規制産業・安定業種 | 高い | データ蓄積があり、構造化で精度向上 |
| スタートアップ・高速試行錯誤 | 限定的 | 「データ不足のまま動く」ことが競争力 |
| クリエイティブ産業 | 限定的 | 定量化できない要因が主要 |
| 戦略・中期計画 | 高い | 複数シナリオの並立が有効 |
ケース思考の訓練を受けた経営者がよりよい経営判断をするのか——それは相関関係であって、因果関係ではない可能性がある。MBA教育自体を受けた者が、その教育の有効性を強調しやすい著者バイアスも存在する。
また、現実はケース思考の前提を揺るがす速度で動く。MBAのケースライブラリは、往々にして時代遅れだ。高速試行錯誤型のスタートアップ経営とケース思考は、相性の悪い局面が多い。
※以下は、筆者の経営支援の現場で観察してきたパターンです。クライアント保護のため、具体的な企業名・人物名は記載していません。
しかし、実務レベルで注目すべき観察がある。
京大MBA授業でのグループディスカッションに参加していて気づく現象がある。制限時間が迫り、議論をまとめなければならない瞬間、「AならX、BならY」という条件分岐思考が自動化されている 。この訓練がない人間は、その瞬間「全ての可能性を保とう」と迷い、決定が曖昧になる。
現場でも見てきたパターンがある。AI導入の意思決定プロセスで、導入前に経営課題をケース型で再構造化したチームとそうでないチームでは、その後のAI出力の質が、明らかに異なっていた。前者は「AIの回答の前提は、うちの事業で成り立つか」を問い返すことができ、後者は「AIが言ったから、その通りにしよう」になりやすかった。
つまり、限界を知っている人間こそが、問い直し回路を正しく使える のだ。
まとめ: ケース思考は必要条件だが充分条件ではない。著者バイアスを認めた上で、「限界を知りながら誠実に使う」姿勢が「問い直し回路」を実装する唯一の方法だ。
実装の3ステップ——明日から試す「問い直し回路」
抽象論ではなく、実行可能な形に落とし込もう。
ステップ1:月次数字の異常値を見たら「なぜ?」を三層に掘る
売上が低下した。顧客数は?単価は?リピート率は?——ここまでが事実抽出。次に、「新規営業効率の低下が主因か、既存顧客の単価低下が主因か、競合参入か」と複数仮説を立てる。そして各仮説ごとに「もし新規効率なら営業体制の見直し、既存単価なら商品戦略の見直し」と選択肢を並立させる。
この時点で、AIに問いを投げる準備ができている。
ステップ2:AIに投げる前に「この質問、事実ベース&選択肢明確か」を自問する
ChatGPTやClaudeに渡す前に、自分の問いを眺め直す。「結局、この質問で何が返ってきたら意思決定できるのか」を問う。答えられないなら、問い自体が曖昧だ。修正してから、AIに投げる。
ステップ3:AIの回答を受けたら「このAIの前提は、うちの事業で成り立つか」を問い返す
AIは、学習データの平均値に基づいて答える。だが、自分の事業が平均値の中にあるとは限らない。業界構造、競争環境、顧客属性——AIの前提が、実務の文脈で成り立つか、必ず問い返す。その問い直しが、AIの出力を使える形に鍛える。
この三ステップは、一度実行すると、自然と繰り返される。「問い直し回路」は、使うたびに磨かれる再利用可能な資産 だ。
まとめ: 問い直し回路を実装する3ステップは、異常値の三層掘り→事前セルフチェック→AI前提の問い返し。習慣化することで再利用可能な経営判断資産となる。
結論:分かっているとは、AIに正しく問える状態のことだ
「分かっている」という状態の本質を、改めて定義し直したい。
それは、表面的には「知識を持っている」ことではなく、「AIに正しく問える状態にある」ことだ。
万能ではない。データ不足の局面では、問い直し回路すら役に立たない。試行錯誤の速度が競争力の産業では、完璧な構造化は必ずしも求められない。
しかし、誠実に問い直し回路を使う人間こそが、AI時代の経営で差をつける。なぜなら、AIの精度は人間の問いの精度と、ほぼ同義だからだ。
京大MBAでの授業を通じて、あらためて気づかせられる。「知る」から「分かる」へ進むプロセスは、自分が何を知らないかに気づくプロセスだ。
その気づきが「問い直し回路」を形成する。
山本高資(やまもと たかし)
合同会社才有る者の楽園 代表社員。志あるほんまもん企業のAI経営パートナー。
31体のAI参謀団を運営しながら京都大学経営管理大学院MBA課程に在籍。
AI活用×経営の実践知を発信している。
