研究显示,一旦专业人士得知客户用AI核对其建议,双方关系可能受到影响。图片来源:Shutterstock

一项最新研究显示,客户若在咨询医生、律师等专业人士后,转而使用ChatGPT等人工智能(AI)工具核对相关建议,一旦这一做法被对方知晓,双方关系可能受到影响。

据TechRadar当地时间5月10日报道,Monash商学院研究团队指出,当客户用AI核对专业建议时,相关专业人士往往会产生被冒犯、缺乏信任的感受,进而降低继续为该客户提供服务的意愿。

这项研究发表于学术期刊《Computers in Human Behavior》。研究团队表示,即便客户使用AI并非为了否定专家意见,而只是想补充背景信息或将其作为辅助工具,也仍可能引发负面反应。换言之,只要专业人士觉得自己的判断被拿来与AI对照,双方关系就可能出现裂痕。

论文第一作者、Monash商学院副教授Gary Spasova表示,不少专业人士仍将AI视为明显低于自身专业水平的工具。在这种情况下,如果客户再用AI去核对其建议,相关人士很容易将其理解为一种冒犯,并视作“不被尊重”或“不被信任”的信号,从而降低投入程度和参与意愿。

研究团队进一步指出,这种反应也可能延伸至现实中的服务关系。如果客户在听取专业意见后,最终转而依据AI聊天机器人的回答作出决定,专业人士后续继续合作的意愿可能明显下降。研究还提到,在专业人士看来,这类客户也可能被认为能力较弱,或不够值得信赖。

在医患关系、律师与客户关系等以信任为基础的服务关系中,这一问题可能尤为敏感。若双方已建立长期合作,负面反应或许会有所减弱,但即便如此,专业人士仍可能感觉自己被排除在决策之外,甚至认为客户有意隐瞒其使用AI的情况。研究团队也指出,即使是在新的合作关系中,客户是否需要在咨询前主动披露自己曾使用AI,也未必有明确答案。

Gary Spasova还表示,未来这一情况未必会明显改善。随着AI能力持续提升,专业咨询岗位本身就面临更大压力,人类专业人士的价值感和职业自尊也更容易受到冲击。当客户愈发信任AI的判断时,专业人士也会更频繁地反思,自己的“人类贡献”究竟还剩下多少独特价值。

不过,研究也强调了AI本身的局限。AI往往只能提供较为概括的情境判断,且出错风险并不低;其回答质量高度依赖用户输入的信息是否充分,也可能因提问方式不同而被引导至特定结论。基于这些特点,仅凭AI的回复去评判经过多年训练、积累丰富经验的专业人士,并不公平。

研究团队因此认为,即便客户在咨询前后借助AI核对相关建议,一旦公开谈及此事,也可能被专业人士解读为缺乏信任。在相关专业规范尚未充分适应AI普及现实的背景下,客户如何披露自身使用AI的方式,仍需格外谨慎,以免损害与专业人士之间的关系。

关键词

#AI #ChatGPT #Monash商学院 #专业服务 #医患关系 #律师客户关系 #信任关系 #人机协作 #AI核对
版权所有 © DigitalToday。未经授权禁止转载或传播。