
AI依存症——考えることをやめた社員が増えていく
報告書の文章が、妙に整っている。
売上8億円規模の食品加工メーカー。製造部門の課長が提出した月次報告書を読んだ工場長が、違和感を覚えた。文章の構成が論理的で、表現も洗練されている。いつもの、現場のにおいがする不格好だけど的確な報告とは、明らかに違った。
試しに、報告書の中の数値をいくつか確認した。
生産効率の改善率——書いてある。ただし、先月との比較ではなく、一般的な業界平均との比較だった。不良品率の分析——もっともらしいが、自社の設備特性を踏まえた考察がない。改善提案に至っては、どの食品メーカーにも当てはまるような汎用的な内容だった。
工場長は課長を呼んだ。「これ、自分で書いたか?」
課長は少し間を置いて、こう答えた。
「ChatGPTに下書きを作ってもらって、数字を入れ替えました」
第4の落とし穴——「AIが言ったから」という新しい思考停止
第1回で「AIモンスター」を、第2回で「AI理想論者」を、第3回で「AI離職」を取り上げた。
今回は、最も静かに、最も広範囲に進行している第4の落とし穴について書く。
AI依存症。 AIの回答をそのまま自分の成果物として提出し、自分の頭で考えることをやめてしまう状態だ。
AIモンスターは自己評価が膨れ上がり、AI理想論者はAIを権威として振りかざし、AI離職は優秀な人材が去っていった。いずれも、目に見える問題行動があった。
AI依存症は違う。表面的には、むしろ「仕事が速くなった」「報告書の質が上がった」ように見える。問題が可視化されるのは、その社員に「なぜそう考えたのか」を問うたときだ。
答えられない。自分で考えていないからだ。
AI依存症の4つのステージ
経営支援やAI研修の現場で見てきた限り、AI依存症は段階的に進行する。
ステージ1:効率化(健全な段階)
AIを使って定型業務を効率化する。議事録の下書き、メールの文面作成、情報の要約。ここまでは正しい使い方だ。AIの得意領域に任せ、自分は判断や創造に集中する。
この段階では、AIの出力を必ず自分の目で確認し、修正している。「AIが作った下書き」と「自分の成果物」の区別が明確にある。
ステージ2:依存(グレーゾーン)
AIに聞く範囲が徐々に広がる。「この案件、どうアプローチすべきか」「この顧客への提案内容は」「この問題の原因は何か」——本来、自分の経験と知識で判断すべき領域まで、AIに答えを求めるようになる。
まだ、AIの回答を自分なりに咀嚼している。ただ、咀嚼の深さが浅くなっていく。「AIが言っていることは筋が通っている。まあ、これでいいか」という判断が増える。
ステージ3:代替(危険な段階)
AIの出力をほぼそのまま使い始める。報告書、提案書、分析レポート。自分が加えるのは固有名詞と数字の差し替えだけになる。
この段階で起きる最大の変化は、思考のプロセスが省略されることだ。
冒頭の課長がここにいた。報告書を書く過程で、生産現場の問題点を自分の目で見て、自分の言葉で整理し、自分の経験に照らして改善案を考える——このプロセスが丸ごと消えていた。代わりに、AIに「月次報告書を書いて」と入力し、出力された文章に数字を当てはめる作業に置き換わっていた。
ステージ4:思考力の減退(深刻な段階)
ステージ3が常態化すると、AIなしで考えること自体が困難になる。
突然の設備トラブル。顧客からの想定外のクレーム。AIに聞く時間がない場面で、自分の頭だけで対処しなければならないとき、判断が遅くなる。あるいは止まる。
経験や知識がないわけではない。それらを自分の中で統合して判断を組み立てる「思考の筋力」が衰えているのだ。
筋肉と同じで、使わなければ落ちる。
なぜAI依存症に気づけないのか
AI依存症が厄介なのは、本人も、周囲も、長い間気づかないことにある。
本人が気づかない理由: 仕事は回っている。むしろ効率は上がっている。成果物の見た目は良くなっている。「AIを活用している自分」に対する自己評価はむしろ高い。ステージ1の健全な活用と、ステージ3の丸投げの間に明確な境界線がないため、自分がどこにいるのか認識できない。
上司が気づかない理由: 提出物の質が一定以上に保たれているため、表面的には問題が見えない。むしろ「最近、良い報告書を書くようになったな」と評価する。AIが一定水準の出力を保証してくれるため、部下の思考力が低下していることが成果物からは判別しにくい。
組織が気づかない理由: AI活用を推進している企業ほど、「AIを使って効率化する社員」を評価する仕組みになっている。AI依存症の社員は、その評価基準の中では「優秀」に見える。
つまり、AI依存症は組織の評価システムの死角に潜む。
AI依存症チェックリスト——あなたの組織は大丈夫か
以下の項目に心当たりがあれば、AI依存症が進行している可能性がある。
個人レベル:
– [ ] メール1通を書くのにもAIを開くようになった
– [ ] AIの回答に「まあ、これでいいか」と思うことが増えた
– [ ] 自分の意見を求められたとき、まずAIに聞いてから答えている
– [ ] AIなしで報告書を書けと言われたら、正直不安がある
– [ ] 最近、自分のオリジナルな発想で仕事をした記憶がない
組織レベル:
– [ ] 複数の社員の報告書が、なぜか似たような文体・構成になっている
– [ ] 会議で「自分はこう思う」という発言が減り、「調べたところ」という発言が増えた
– [ ] 提案書の質が均一化し、良くも悪くも「外れ」がなくなった
– [ ] 突発的なトラブル対応で、判断の遅い社員が増えた気がする
– [ ] 「それ、AIに聞いてみて」が口癖になっている管理職がいる
3個以上当てはまるなら、一度立ち止まって考える価値がある。
「道具に使われる」は今に始まった話ではない
少し視野を広げたい。
AI依存症は、新しいようで新しくない。
電卓が普及したとき、暗算力が落ちた。カーナビが普及したとき、道を覚えなくなった。スマートフォンが普及したとき、電話番号を記憶しなくなった。道具が能力を代替するたびに、人間はその能力を少しずつ手放してきた。
しかし、AIが代替しようとしているのは「思考」そのものだ。
電卓は計算を、カーナビは記憶を、スマホは情報管理を代替した。これらは認知機能の一部だ。AIは、それらを統合して「判断する」というプロセス全体を代替しようとしている。
ここに、過去の道具とは本質的に異なるリスクがある。計算力が落ちても電卓があればいい。道を忘れてもカーナビがあればいい。しかし、思考力が落ちたとき、AIがあればいい——と本当に言えるだろうか。
AIが常に正しいならそれでもいい。しかし、AIは間違える。文脈を読み違え、前提を取り違え、もっともらしい嘘をつく。そのとき、自分の頭で「これはおかしい」と気づける力がなければ、間違いに気づかないまま走り続けることになる。
経営者がやるべき3つのこと
AI依存症への対策は、「AIを使うな」ではない。それはカーナビを捨てて地図に戻れと言うようなものだ。
必要なのは、AIとの適切な距離感を組織として設計することだ。
1. 「AIに聞く前に、自分で考える」ルールを作る
最も単純で、最も効果的な対策だ。
報告書や提案書を書く際、「まず自分の考えを30分でまとめてから、AIに壁打ちさせる」というルールを設ける。順序が重要だ。AIに聞いてから考えるのと、考えてからAIに聞くのでは、思考の質がまったく違う。
自分の仮説を持ったうえでAIと対話すれば、AIは「思考の拡張ツール」になる。仮説なしにAIに丸投げすれば、AIは「思考の代替ツール」になる。
2. 「なぜそう考えたか」を問う文化を作る
成果物だけを見て評価する仕組みでは、AI依存症は検知できない。
上司が部下に「この結論に至った過程を説明してほしい」と聞く。会議で「その提案の根拠を、AIの出力ではなく、あなた自身の言葉で」と求める。最初は面倒に思えるかもしれないが、これが思考停止の最大の抑止力になる。
コンサルティングの現場で、この問いかけひとつで空気が変わるのを何度も見てきた。「AIが言っているから」で済ませていた社員が、自分の言葉を探し始める。
3. AI活用のガイドラインに「使わない領域」を明記する
AI活用を推進する企業は「どこにAIを使うか」を定義する。しかし、「どこに使わないか」を定義している企業は少ない。
たとえば、顧客への初回提案の骨子は自分で考える。現場のトラブル対応の第一判断は自分で下す。部下への評価コメントは自分の言葉で書く——このように、「ここだけは自分の頭で」という領域を明確にする。
使う領域と使わない領域を意識的に線引きすることで、思考のトレーニング機会が確保される。
考える力を手放した組織に、AIは何を与えてくれるのか
ここまで読んで、「うちの社員は大丈夫だろう」と思っただろうか。
研修の場でこの話をすると、経営者は大抵うなずく。「たしかに最近、報告書が似通ってきた気がする」「突発対応で動ける社員が減った」と。しかし、それを「AI依存」と結びつけて考えていた人はほとんどいない。
AIは素晴らしい道具だ。その点について、私は一切の留保なく賛成する。しかし、道具が優秀であればあるほど、使う人間の側に「手放してはいけないもの」が生まれる。
電卓の時代なら暗算力を失っても大きな問題にはならなかった。AIの時代に思考力を失うことは、それとは次元が異なる。なぜなら、AIの出力が正しいかどうかを判断するのは、最終的に人間の思考力だからだ。
チェック機能を失った道具は、もはや道具ではない。
あなたの会社の社員は、最後にAIの助けなしで何かを考えたのは、いつだっただろうか。
AI活用と思考力の両立、組織としてどう設計するか。
※本記事の事例は、筆者の支援・研修経験および調査・取材に基づいています。プライバシー保護のため、企業名・人物・状況等は架空の設定を含み、再構成しています。
山本高資(やまもと たかし)
合同会社 才有る者の楽園 代表。中小企業向けAI活用支援・経営コンサルティングを展開。2026年4月より京都大学経営管理大学院に進学予定。
