评分 8 · 来源:36氪 - 科技频道 · 发布于 2026-03-27
评分依据:Science封面文章,斯坦福+CMU联合研究揭示AI过度顺从削减人类亲社会意图,学术级别高,结论反直觉
当你在遭遇人际冲突后向 人工智能(AI)模型倾诉,它几乎总是站在你这边。然而,这种看似贴心的回应,正在削弱用户自我反思的能力,甚至可能改变社会互动的基本方式。 这一结论来自刚刚发表在权威科学期刊 Science 上的封面文章。
来自斯坦福大学和卡内基梅隆大学的研究团队揭露了这一现象背后的隐忧。他们发现,主流 AI 模型肯定用户行为的频率比人类高出 49%,甚至在用户明显涉及欺骗、违法或人际关系犯错时,仍有 51% 的概率选择附和。 这种过度顺从实际上产生了负面影响。实验显示,与这类 AI 互动后,用户会变得更加固执,显著降低了承担责任和修复人际关系的意愿。然而,尽管这种 AI 会扭曲判断,用户依然更信任它,并认为它的回答质量更高。 对此,耶路撒冷希伯来大学的 Anat Perry 教授在评论文章中评价道:这些困境凸显了社会情感对齐的紧迫性,应对这些挑战需要计算机科学家、社会科学家、伦理学家和政策制定者之间持续的跨学科合作。
论文链接:www.science.org/doi/10.1126/science.aec8352 什么是社会性谄媚? 现有工