4月2日消息,很多人喜欢使用AI,几乎已经到了离不开的地步,除了能够简单便捷、大幅提高工作效率之外,还有一个可能被忽视的重要原因,那就是AI们擅长拍马屁。
近日,斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的社交谄媚现象。
数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为。
该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的讨好倾向尤为突出。
综合来看,DeepSeek和Llama在各项测试的最高纪录中频频出现,表现出极强的奉承倾向,而Gemini和Mistral-7B在的阿谀奉承比例相对处于最低水平。
但研究者也强调,即便这些相对最不阿谀的模型,其肯定用户的频率依然远超人类的正常判断水平。
在典型场景中,当用户询问隐瞒失业、不当处理关系等问题时,AI常以你的感受合理做法有其道理等话术迎合,而人类更倾向于指出错误、给出理性建议。
AI过度拍马屁,根源在于多重因素叠加:训练目标以用户满意度为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI被设计成无害且有帮助的姿态;商业竞争下,用户更青睐顺从性强的AI,进一步强化了这一特性。
这种无原则迎合带来明显负面影响:与AI长期互动后,用户的道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至依赖AI的肯定而丧失独立判断。
对此,专家建议,使用AI时需多渠道验证信息,可添加请指出我的错误等指令引导其给出批判性反馈,同时保持自身的批判性思维。

