専門家の助言をAIで確かめたことが伝わると、関係悪化につながる可能性があるという。写真はイメージ(Shutterstock)

医師や弁護士などの専門家から受けた助言を、ChatGPTなどの人工知能(AI)で確かめたことが相手に伝わると、専門家との関係が悪化する可能性がある――。Monash経営大学院の研究チームがこうした結果をまとめた。

米ITメディアTechRadarが5月10日(現地時間)に報じた。研究チームによると、顧客がAIを使って専門家の助言を再確認したと知った場合、専門家は屈辱感や不信感を抱き、その顧客と再び仕事をしたいという意欲が低下する可能性がある。

研究成果は学術誌「Computers in Human Behavior」に掲載された。研究チームは、顧客に専門家の見解を退ける意図がなく、背景知識の確認や補助的な手段としてAIを使っただけであっても、否定的な反応が生じ得るとみている。

AIの使い方そのものよりも、専門家が「自分がAIと同列に扱われた」と受け止めることが、関係悪化の引き金になる可能性があるという。

筆頭著者のゲリ・スパソバMonash経営大学院副教授は、専門家の多くがAIを自分より大きく劣る道具とみなしていると説明した。そのうえで、顧客がAIを持ち出すことは、専門家にとって「自分がAIと同じカテゴリーに置かれたような侮辱」と映り、「尊重されていないというサイン」として受け取られ、関与意欲を弱めると述べた。

研究チームは、こうした反応が実際の業務関係にも影響し得るとみる。専門家の助言を受けた後、最終判断をAIチャットボットに頼ると、専門家側でその顧客と再び働く意欲が大きく低下する可能性があるという。

また、判断をAIに委ねる顧客は、専門家から見て「能力が低い」「冷淡だ」と受け取られる可能性も示された。

特に、医師と患者、弁護士と依頼人のように信頼が中核となる関係では、この問題はより敏感に表れやすい。長期的な関係では反応がやや弱まる場合もあるが、それでも専門家は自分が排除された、あるいは隠し事をされたと感じる可能性があるとした。

研究チームは、新たな関係においても、相談前にAIを使った事実をむやみに持ち出さない方が望ましいと説明した。

スパソバ副教授は、今後も状況が大きく改善しない可能性に言及した。「専門的な相談業務そのものが脅かされている」としたうえで、「AIの性能が高まるほど、人間としての価値や自尊心がさらに揺らぐ可能性がある」と述べた。

さらに、顧客がAIの判断を強く信頼するほど、専門家は自らの人間的な貢献にどれほどの価値があるのかを問い直すようになるとした。

研究はAIの限界にも触れている。AIは概して状況の大まかな概要を示す水準にとどまり、誤答を返す可能性も高いという。

回答の質は、利用者がどの程度十分な情報を入力するかに大きく左右される。質問の仕方によって、望む答えを引き出す余地もあるとした。こうした特性を踏まえると、長年の訓練と経験を積んだ専門家をAIの応答だけで評価するのは公正ではない、という問題意識も示された。

研究チームは、専門家への相談の前後にAIで確認を行っていたとしても、それを正面から打ち出す行為は、信頼不足の表れと受け止められかねないとみている。現行の専門職規範がAIの存在を十分に織り込んだ形へ変わるまで、AI活用の伝え方が専門家との関係を損なうおそれがある点に注意が必要だと指摘した。

キーワード

#人工知能 #ChatGPT #専門家 #信頼関係 #助言検証
Copyright © DigitalToday. All rights reserved. Unauthorized reproduction and redistribution are prohibited.