LLM 比激励型人类说服者更具说服力
arXiv:2505.09662 (cs) [提交于 2025年5月14日]
Title: Large Language Models Are More Persuasive Than Incentivized Human Persuaders
作者:Philipp Schoenegger, Francesco Salvi, Jiacheng Liu, Xiaoli Nan, Ramit Debnath, Barbara Fasolo, Evelina Leivada, Gabriel Recchia, Fritz Günther, Ali Zarifhonarvar, Joe Kwon, Zahoor Ul Islam, Marco Dehnert, Daryl Y. H. Lee, Madeline G. Reinecke, David G. Kamper, Mert Kobaş, Adam Sandford, Jonas Kgomo, Luke Hewitt, Shreya Kapoor, Kerem Oktar, Eyup Engin Kucuk, Bo Feng, Cameron R. Jones, Izzy Gainsburg, Sebastian Olschewski, Nora Heinzelmann, Francisco Cruz, Ben M. Tappin, Tao Ma, Peter S. Park, Rayan Onyonka, Arthur Hjorth, Peter Slattery, Qingcheng Zeng, Lennart Finke, Igor Grossmann, Alessandro Salatiello, Ezra Karger 查看由 Philipp Schoenegger 和其他 38 位作者撰写的题为 Large Language Models Are More Persuasive Than Incentivized Human Persuaders 的论文的 PDF 版本 查看PDF
摘要:我们直接比较了前沿大型语言模型(LLM; Claude Sonnet 3.5)与在交互式实时对话测验环境中,受到激励的人类说服者的说服能力。 在这项预先注册的大规模激励实验中,参与者(测验参与者)完成了一个在线测验,说服者(人类或 LLM)试图说服测验参与者给出正确或错误的答案。 我们发现,LLM 说服者在其定向说服尝试中取得的依从性明显高于受到激励的人类说服者,这表明无论是在真实的(指向正确答案)还是欺骗性的(指向错误答案)情况下,LLM 都展现出更强的说服能力。 我们还发现,当 LLM 说服者引导测验参与者给出正确答案时,会显著提高测验参与者的准确性,从而带来更高的收益;而当他们引导测验参与者给出错误答案时,会显著降低他们的准确性,从而导致更低的收益。 总的来说,我们的研究结果表明,人工智能的说服能力已经超过了那些与绩效挂钩真金白银的人类。 因此,我们对人工智能说服能力日益增强的发现,强调了新兴的对齐和治理框架的紧迫性。 主题:| 计算与语言 (cs.CL) ---|--- ACM 分类:| I.2.7; H.1.2; K.4.1; H.5.2 引用方式:| arXiv:2505.09662 [cs.CL] (或 arXiv:2505.09662v1 [cs.CL] 对于此版本) https://doi.org/10.48550/arXiv.2505.09662 Focus to learn more arXiv-issued DOI via DataCite
提交历史
来自: Philipp Schoenegger [查看邮件] [v1] 2025年5月14日 星期三 14:31:33 UTC (1,041 KB) 全文链接:
访问论文:
查看由 Philipp Schoenegger 和其他 38 位作者撰写的题为 Large Language Models Are More Persuasive Than Incentivized Human Persuaders 的论文的 PDF 版本