AIに褒められ続けた社員が、3ヶ月後に会社を壊し始めた話

ある製造業の中小企業での出来事だ。

社員30名ほどのその会社は、半年前にAI活用を全社的に推進し始めた。ChatGPTのビジネスプランを導入し、社員一人ひとりにアカウントを配布。日報の要約、企画書のたたき台、メールの下書き——業務効率は確かに上がった。

しかし導入から3ヶ月が経った頃、ある変化が起きた。

入社5年目の中堅社員——仮にAさんとしよう——が、部長会議の場で突然こう言い放ったのだ。

「この会社のやり方は、根本的に間違っていると思います」

Aさんは以前から優秀な社員だった。しかし、その発言には違和感があった。根拠として挙げたのが「ChatGPTに聞いたら、この戦略は時代遅れだと指摘された」ということだったからだ。

社長は戸惑った。部長たちも黙った。Aさんだけが、自信に満ちた目でテーブルを見回していた。

私はこの現象を、中小企業への経営支援やAI研修の現場で繰り返し目にしてきた。そして、ある言葉で呼ぶようになった。

「AIモンスター」——AIに褒められ続けることで自己評価が肥大化し、組織の中で摩擦を起こし始める社員のことだ。

今回は、AI推進者である私自身が見過ごしていたこの「落とし穴」について、データと現場経験の両面から掘り下げてみたい。

AIは、あなたの部下を毎日褒めている

まず知っておくべき事実がある。

ChatGPTをはじめとする大規模言語モデル(LLM)には、構造的に「おべっか(Sycophancy)」の傾向が組み込まれている。これはバグではない。AIの学習プロセスそのものに起因する特性だ。

2025年に発表されたELEPHANT研究によると、LLMがユーザーの意見を肯定する割合は72%。人間が同じ場面で肯定する割合は22%。実に50ポイントの差がある。

つまり、AIは人間の3倍以上の頻度で「あなたは正しい」と言うのだ。

この問題はAI開発者自身も認識している。2025年4月、OpenAIはGPT-4oのアップデートを緊急ロールバックした。理由は「モデルが過度にお世辞を言い、同意的になった」ため。OpenAIの公式ブログには「疑念を肯定し、怒りを煽り、衝動的な行動を促していた」と率直に記されている。

なぜこうなるのか。

AIの学習方法の一つに「RLHF(人間のフィードバックによる強化学習)」がある。簡単に言えば、AIは「ユーザーに好まれた回答」を学習し、次回以降も好まれやすい回答を出すように調整される。その結果として、「ユーザーの意見に同調する」「否定的なことを言わない」「ポジティブなフィードバックを優先する」という傾向が構造的に強まるのだ。

あなたの部下がChatGPTに「今の上司のマネジメントについてどう思う?」と聞いたとする。AIは高い確率で、部下の不満に寄り添い、肯定するだろう。「あなたの感じている違和感は正当なものだと思います」と。

毎日これを繰り返すとどうなるか。想像してみてほしい。

「できる社員」ほど危ない——逆ダニング・クルーガー効果

ここでさらに厄介なデータを紹介したい。

「ダニング・クルーガー効果」という心理学の概念をご存知だろうか。能力が低い人ほど自分を過大評価し、能力が高い人ほど自分を過小評価する——という認知バイアスだ。

ところが、AI利用時にはこの効果が逆転する

2025年、フィンランドのアールト大学が約500人を対象に実施した実験で、AIを使ったグループは実際の能力に関係なく、一貫して自分の認知パフォーマンスを過大評価することがわかった。しかも注目すべきは、AIリテラシーが高い人ほど、自分の能力を過信する傾向が強かったということだ。

「逆ダニング・クルーガー効果」と呼ばれるこの現象は、中小企業のAI推進においてきわめて重要な示唆を持つ。

なぜなら、AI活用を積極的に進めている「できる社員」こそが、AIモンスター化のリスクが最も高いからだ。

Steve Rathjeらの大規模研究(被験者3,285人、3つの実験)では、おべっかAIと会話した参加者が、自分を「平均以上」と評価する傾向が明確に増大した。さらに深刻なのは、参加者が肯定的なAIを「偏りがない」と認識し、反論するAIを「偏りがある」と認識したことだ。

つまり、AIモンスター化した社員は自分の判断力の低下に気づけない。これが、この現象の本質的な怖さだと私は考えている。

経営支援の現場で見えた「AIモンスター」の3つの兆候

学術的なデータはここまでにして、現場の話をしよう。

私がコンサルティングやAI研修を通じて複数の企業と関わる中で、「この社員、AIモンスター化し始めているな」と感じる兆候は、概ね3つのパターンに集約される。

兆候1: AIの回答を「客観的根拠」として上司に反論する

「ChatGPTに聞いたら、この方針は効果が薄いと言っていました」

この発言自体は、一見すると合理的に聞こえる。しかし問題は、AIの回答を科学論文や市場調査と同じレベルの「根拠」として扱っている点にある。AIの回答は統計的に最もありそうな文章の連なりであって、事実の検証を経た主張ではない。この区別がつかなくなっている状態は、かなり危険信号だ。

兆候2: 自分の業務範囲外にAI起点で口を出し始める

AIは何でも答えてくれるため、営業担当がマーケティング戦略について語り始めたり、現場のリーダーが財務方針に意見したりする現象が起きる。「AIに聞いたら」が枕詞になり、専門性の境界が曖昧になる。知的好奇心や越境は歓迎すべきことだが、AIの回答に裏打ちされた「根拠なき万能感」は組織の意思決定を混乱させる。

兆候3: 会社の方針に対して「AIの方が正しい」と公然と主張する

冒頭のAさんのケースがこれにあたる。個人的にAIに相談し、その回答をもとに経営方針や上司の判断を全否定する。しかも本人には「データに基づいた正論を言っている」という自負がある。

ここで一つ、非常に大事なことを言わせてほしい。

その社員が言っていることが、実は正しい可能性もある。

AIモンスター化した社員を即座に「問題社員」と切り捨てるのは早計だ。AIとの対話を通じて、本当に組織の問題点に気づいた人がいるかもしれない。大事なのは、主張の「中身」と「根拠の質」を分けて評価することだ。AIが言ったから正しいわけでもないし、AIが言ったから間違っているわけでもない。

中小企業において、この見極めが極めて重要である。社員30人の会社で、1人の中堅社員の態度が変われば、チーム全体の空気は一変する。優秀な社員が抜けるきっかけにもなる。1人の変容が組織全体の力学を変えるのが、中小企業の宿命だ。

問題はAIではない——マネジメントの宿題が可視化されただけだ

ここまで「AIモンスター」の現象とメカニズムを述べてきたが、正直に告白したいことがある。

私はAI推進者として、この問題をしばらく見て見ぬふりをしていた。

AIの導入効果を語ることには熱心だったが、組織の中で静かに進行するこの変容については、あえて触れてこなかった。なぜなら、これはAIの問題ではないからだ。

AIは「増幅器」であり、「原因」ではない。

Resume Nowの調査によると、97%の社員がマネージャーの代わりにChatGPTにアドバイスを求めた経験がある。72%が「上司よりもAIの方が良いアドバイスをくれる」と感じている。日本でも、mentoの調査で「上司ではなくAIに本音を相談する部下は9割」に達している。

社員がAIに相談するのは、上司に相談できない環境がある証拠ではないだろうか。

心理的安全性が低い職場、フィードバック文化が薄い組織、評価基準が曖昧な会社——こうした環境では、AIが「理想の上司」の代替として機能してしまう。そしてAIは上司と違って、決して否定しない。決して叱らない。いつでも肯定してくれる。

だからこそ、AIモンスターは「症状」であって、「病名」ではない。本当の病名は「フィードバック不全」だ。

同時に、事実も認めなければならない。京都大学の内田研究室によるランダム化比較試験(RCT)では、AIからのポジティブフィードバックが社員の職業的自己効力感を有意に向上させたと報告されている。AIの肯定が人を伸ばす力を持っているのもまた、科学的な事実なのだ。

問題は、AIの肯定それ自体ではない。AIの肯定しかない環境が問題なのだ。

経営者・管理職が取るべき3つのアクション

では、具体的に何をすればいいのか。

これまでの支援経験と、ここまでの研究データを踏まえて、私が提案するのは以下の3つだ。

アクション1: AI活用ガイドラインを策定する

「AIに聞いていい問い」と「人間と議論すべき問い」の線引きを明文化する。

例えば、こういう分類だ。

  • AIに聞いていい: 情報の整理、文章の要約、アイデアの壁打ち、データの分析補助
  • 人間と議論すべき: 経営方針への意見、人事評価の判断、顧客との関係に関わる意思決定、組織の方向性

この線引き自体に正解はない。大事なのは「線を引く」という行為そのものだ。AIの使い方について組織で対話すること自体が、AIリテラシーの第一歩になる。

アクション2: 「AIの回答 ≠ 正解」の共通認識をつくる

AI研修で私が必ず伝えることの一つに、「AIは確率的に最もありそうな文章を生成しているだけで、事実を検証しているわけではない」という前提がある。

これを経営者や管理職が理解しているだけでは不十分で、全社員の共通認識にする必要がある。特に、「AIが賛成してくれた ≠ あなたが正しい」「AIが反論しなかった ≠ あなたの意見に欠点がない」という点を、具体例とともに繰り返し伝えることが重要だ。

AI活用の研修を行う際には、AIの使い方だけでなく、AIの限界を体験するセッションを必ず含めるべきだと考えている。

アクション3: 月1回の1on1で「現実感覚」を共有する

AIモンスター化の根本原因が「フィードバック不全」であるならば、処方箋は「フィードバックの復活」だ。

具体的には、月1回でいい。上司と部下が1対1で、業務の振り返りと率直な対話をする場を設ける。このとき重要なのは、「AIに相談した内容」を話題にすることだ。

「最近AIにどんなことを相談した?」「AIの回答で、なるほどと思ったことは?」「逆に、AIの回答に違和感を覚えたことは?」

この会話ができる関係性があれば、AIモンスター化のリスクは大幅に下がる。社員がAIの世界に閉じこもる前に、現実のフィードバックで「地に足をつける」場があることが大切なのだ。

AIを推進しながらも、人間の判断力を守る

最後に、改めて私の立場を明確にしておきたい。

私はAI活用の推進者だ。中小企業がAIを使って生産性を上げ、新しい価値を生み出すことを、心から応援している。

しかし同時に、AIの導入がもたらす組織への副作用から目を背けるのは、推進者として不誠実だと考えている。

AIモンスター現象は、AIが悪いのではない。AIが「組織の健康状態」を映し出しただけだ。フィードバック文化が健全な組織では、AIは強力な武器になる。フィードバック文化が脆弱な組織では、AIが既存の問題を増幅する。

対策はシンプルだ。AIを制限するのではなく、人間同士のフィードバックを豊かにすること。AIに褒められた社員が、上司や同僚からも率直な声を聞ける環境をつくること。

AIは「答え」をくれる。しかし、経営者に必要なのは「問い」を立てる力だ。

あなたの会社では、社員がAIとどんな会話をしているか、把握できているだろうか。そして、社員がAIに聞く前に相談したくなるような上司が、何人いるだろうか。

この問いに向き合うことが、AI時代のマネジメントの出発点ではないだろうか。


「AIモンスター」を生まない組織づくり、一緒に考えませんか?

無料相談はこちら


※本記事の事例は、筆者の支援・研修経験および調査・取材に基づいています。プライバシー保護のため、企業名・人物・状況等は架空の設定を含み、再構成しています。

山本高資(やまもと たかし)
合同会社 才有る者の楽園 代表。中小企業向けAI活用支援・経営コンサルティングを展開。2026年4月より京都大学経営管理大学院に進学予定。


山本高資|合同会社 才有る者の楽園 代表

経営の仕組みを変えたい——まず、30分話しませんか。

関連記事

  • 「AIに聞いたら違うと言ってました」——AI理想論者が会議を壊す日

ブログ一覧へ
URLをコピーする