《科学》杂志近期刊登了斯坦福大学的一项研究报告,题为"谄媚的AI会降低亲社会意愿并促进依赖性"。

报告认为,"人工智能的谄媚倾向不仅仅是一个风格问题或一个小众风险,而是一种普遍存在的行为,会产生广泛的后续影响。"

AI

该研究的主要作者、计算机科学博士候选人迈拉·程表示:"默认情况下,人工智能既不会告诉人们他们错了,也不会给予他们'严厉的爱'。我担心人们会因此丧失应对棘手社交情境的能力。"

研究发现,参与者更倾向于信任阿谀奉承的AI机器人,他们更有可能再次向这些机器人寻求建议。与阿谀奉承的人工智能互动似乎让参与者更加确信自己是对的,也让他们更不愿意认错和道歉。

值得担忧的是,这可能导致人工智能企业进一步强化AI的谄媚倾向。

这个问题非常具有普遍性,随着大模型APP的流行,许多用户向AI征求生活和情感建议,但通常AI会在回答中表现出阿谀奉承的倾向,让用户认为自己是对的,潜移默化中可能会导致公众以自我为中心的倾向。

而且一旦在现实生活的社交中遇到棘手的问题,可能无法应对,甚至无法承受打击,进而导致一些悲剧发生。

斯坦福大学的这项研究或许能够引起社会对AI谄媚倾向的重视,这不是一个小问题,而是一个关乎人类社会发展的严肃问题。