韓国科学技術院(KAIST)の研究チームは、ChatGPTに代表される大規模言語モデル(LLM)が使えなくなると、知識労働者の業務が滞り、心理的負担も高まる一方で、成果物への主体性が回復する傾向が見られたとする調査結果を国際学会「CHI EA 2026」で発表した。
発表論文のタイトルは「"Oops! ChatGPT is Temporarily Unavailable!": A Diary Study on Knowledge Workers' Experiences of LLM Withdrawal」。研究では、LLMが知識労働のインフラとして定着する中、利用停止が業務フローや認識にどのような影響を与えるかを検証した。
調査対象は、日常的にLLMを頻繁に利用している知識労働者10人。研究チームは4日間にわたりAIの使用を禁じ、日記と詳細インタビューを通じて行動の変化を分析した。参加者がAIを使いたくなった場面では、その理由や感情、ストレスの程度をリアルタイムで記録できる専用のWeb日記インタフェースも用いた。
その結果、参加者の多くは、LLMのない業務環境を食器洗い機やロボット掃除機のない生活、あるいは自動車やGoogle検索が使えない状態になぞらえ、強い喪失感を訴えた。
特に情報検索では、AIの要約機能が使えず既存の検索エンジンに戻ることで、キーワードを何度も修正しながら情報を自力で組み合わせなければならず、これを「過度で非効率な労働」と受け止める傾向が見られた。中には、AI支援が再開されるまで仕事を先送りしたり、完成度を求めず自らの作業基準を下げたりする参加者もいたという。
対人関係にも変化が表れた。普段はAIに質問していた参加者は、他者に直接助けを求めることを「社会的コストのかかる負担」と受け止めた。さらに、他人に迷惑をかける人を指す「Finger Prince/Princess」と見られることへの懸念が、心理的な障壁として表れたという。
一方で、実際に共同作業が行われた場面では、人との議論の方がAIより有用だと気付くケースもあった。研究チームは、AIの普及で薄れていた社会的相互作用が、利用停止によって再び回復し得る可能性を確認したとしている。
また、AIの不在は仕事の価値を見直す契機にもなった。参加者は、AIが示す論理を無批判に受け入れる習慣から離れ、自ら推論のプロセスを設計することで、業務の明確性を確保したという。
AIが生成した結果を「自分のものではない」と感じていた参加者は、企画から意思決定までの全工程を自ら担うことで、成果物への誇りや主体性を取り戻した。効率化のためにAIへ委ねていた中核業務が、専門家としてのアイデンティティ形成にとって重要だったと気付くきっかけになったと研究チームは分析している。
その一方で、研究はLLMが個人の選択を超え、社会的規範として定着し、インフラ化しつつある点にも警鐘を鳴らした。参加者はAI利用を単なるツール活用ではなく、競争力を維持するための必須条件と捉え、AIを使わない状況を個人的な損失、あるいは時代遅れの行為と認識していたという。
特に一部の大学生参加者では、AIなしではコーディングなど特定の作業に着手する自信が持てない、学習意欲そのものが低下するといった反応も見られ、技術依存の深まりがうかがえた。
研究チームは今回の意義について、AI依存を個人の能力不足ではなく、業務環境のインフラ変化として捉えた点にあると説明する。そのうえで、生産性偏重の発想ではなく、知識労働者が自らの専門的価値や基準に沿ってAI活用の範囲を主体的に決める「価値ベースの受容(Value-driven appropriation)」の設計が必要だと提言した。
研究チームは最終的に、AIが単なる道具を超え、脳の一部のように機能し始めている可能性を示した。効率化の裏で進む「思考の筋肉」の衰えが、今後の知識労働者にとって大きなリスクになり得るとし、AIと共生しながらも固有の論理体系を失わないための意識的な努力が求められるとしている。