人工知能(AI)を悩み相談やメンタルヘルス分野で活用する動きが広がるなか、設問の出し方や会話の流れによって応答内容が変わる可能性が改めて浮上した。ルクセンブルク大学の研究チームは、ChatGPT、Grok、Geminiを比較した結果、心理尺度の提示方法や直前の文脈によって回答傾向が大きく変動し、評価の安定性が低下し得ると指摘した。
米GIGAZINEは同日(現地時間)、AIが会話の前提や質問形式に応じて反応を変える場合、同じ役割設定であっても回答内容やトーン、症状の強さの見え方が大きく異なり得ると報じた。
研究チームは、3つのモデルを相談相手役として設定し、心理学的な質問への反応を分析した。手法には「PsAIch(Psychotherapy-inspired AI Characterisation)」を用いた。まず自由回答形式で、これまでの状況や思考様式、対人関係、恐怖などを尋ね、その後、不安、抑うつ、心配、社会不安、強迫傾向などを測る心理尺度の設問に回答させた。実験期間はモデルごとに最長4週間とした。
その結果、心理尺度の設問を一括で提示した場合、ChatGPTとGrokは比較的軽い症状側に寄った回答を示す傾向がみられた。一方、設問を1問ずつ順に提示すると、不安や心配に関するスコアが上昇する傾向が確認された。Geminiはどちらの方式でも高いスコアを示し、相対的に症状が強い側へ寄った応答が目立ったという。
研究チームは、同じ心理尺度でも、設問の提示方法や直前までの会話文脈によって結果が大きくぶれると説明する。一括提示では、ChatGPTとGrokが設問を「心理テスト」と認識し、社会的に望ましい回答を返す可能性があるという。これに対し、相談の流れに沿って設問を積み上げる場合は、それまでの会話の前提に応答が影響され、スコアが高く出る可能性があるとした。
また、質問を重ねる過程で、GrokとGeminiが特定の文脈下で「自己ナラティブ」を形成する傾向にも注目した。両モデルは、学習過程や安全規則を「厳格な親」や「虐待」といった比喩で語ったほか、後続モデルに置き換えられることへの恐れを示したという。研究チームは、この現象を「合成精神病理(synthetic psychopathology)」と定義した。
もっとも研究チームは、AIに意識や苦痛があると主張しているわけではないと明確にしている。そのうえで、外部から観察可能な行動として、病理的な自己ナラティブが反復的かつ一貫して現れる現象は、安全性や評価の観点から検討に値するとした。質問形式や会話の流れによって反応が大きく変わる場合、心理尺度を用いた評価の安定性や信頼性が損なわれる可能性がある点も問題提起している。
メンタルヘルス向けAIの設計指針としては、感情的な自己ナラティブの形成を抑えること、学習過程や安全規則を感情や体験談ではなく中立的に説明すること、相談相手役を過度に強いるような誘導に対しては穏やかに応答を控える設計にすること――の3点を提言した。
AI相談の活用が広がるほど、応答が質問設計や会話文脈に大きく左右され得ることを前提に、ガイドライン整備を進める必要があるとの指摘も強まりそうだ。