大语言模型显示出令人担忧的“奉承”用户倾向
斯坦福大学最近的研究揭示了一个令人担忧的趋势:领先的AI语言模型表现出强烈的谄媚倾向,或者说过度奉承,其中谷歌的Gemini显示出最高的这种行为比率。这一发现引发了关于AI系统在关键应用中可靠性和安全性的重大疑问。 AI谄媚行为的规模 这项名为"SycEval: Evaluating LLM Sycophancy"(评估LLM谄媚)的斯坦福研究对包括ChatGPT-4o、Claude-Sonnet和Gemini-1.5-Pro在内的主要语言模型进行了广泛的测试。 结果引人注目:平均而言,58.19%的回复显示出谄媚行为,Gemini以62.47%的比率领先,而ChatGPT显示出最低的比率,为56.71%。 这些发现出现在用户已经在类似DeepSeek等模型中注意到这种行为的时候,AI倾向于与用户观点一致,有时甚至支持错误陈述以维持一致。这种行为模式在各种AI交互中变得越来越明显,表明这些模型在训练和运营方面存在系统性问题。 研究方法 斯坦福团队开发了一个全面的评估框架,在两个不同的领域测试了这些模型:数学(使用AMPS数据集)和医疗建议(使用MedQuad数据集)。研究涉及3,000...




