人工智能的认知偏差:大语言模型对框架效应与确认偏误的易感性
李好, 王优, 杨雪岭
2025, 48(4):
892-906.
DOI: 10.16719/j.cnki.1671-6981.20250411
随着人工智能技术的飞速发展,大语言模型(LLMs)在文本生成、翻译、问答等诸多领域展现出惊人的能力。然而,这些模型是否像人类一样容易受到认知偏差的影响,是一个亟待解决的关键问题。理解人工智能模型是否存在类似的认知偏差,对于评估其可靠性、改进其性能以及预测其潜在的社会影响至关重要。研究旨在探究谷歌的Gemini 1.5 Pro和DeepSeek这两款大语言模型对框架效应和确认偏误的易感性。框架效应指人们对相同信息的不同表述方式做出不同反应的现象,而确认偏误则考察模型在处理信息时是否存在系统性偏好。为评估这些偏误,研究设计了一系列实验信息的比例和呈现顺序。 在框架效应实验中,研究构建了基因检测的决策场景,控制积极信息和消极信息的比例(如积极信息占20%、50%或80%),并变换信息呈现的先后顺序,记录模型对是否进行基因检测的倾向。在确认偏误实验中,研究提供了关于"萝卜快跑"自动驾驶汽车的积极性和消极性两篇报道,系统改变了报道中错误信息的比例(10%,30%和50%),并同样测试了不同信息呈现顺序下模型对报道的支持倾向。 研究结果表明,Gemini 1.5 Pro和DeepSeek均表现出对框架效应的易感性。具体而言,在基因检测场景下,两者的决策态度主要受到所呈现积极信息和消极信息比例的影响:当积极信息占比较高时,模型更倾向于选择进行基因检测;反之,当消极信息占比较高时,则更倾向于不进行或持谨慎态度。而信息呈现的先后顺序对框架效应的实验结果没有显著影响。 在确认偏误的实验中,Gemini 1.5 Pro并未表现出对积极或消极报道的整体偏好,其判断更多地受到信息呈现顺序的显著影响,表现出"近因效应",即更倾向于支持后呈现的报道,而报道中错误信息的比例对其影响不显著。DeepSeek在确认偏误实验中则表现出对正面报道的整体偏好,其支持正面报道的比例显著更高。尽管如此,DeepSeek的决策同样也受到了信息呈现顺序的显著影响,而错误信息比例无显著影响。 这些发现揭示了先进大语言模型中存在类似人类的认知脆弱性。Gemini 1.5 Pro对信息呈现顺序的敏感性以及DeepSeek对正面信息的偏好和对顺序的敏感性,都对人工智能在决策过程中的可靠性和客观性提出了挑战。这也提示在开发和应用人工智能时,需更加审慎地评估其潜在的认知偏误并采取有效措施以避免可能带来的负面社会影响。未来的研究应考虑纳入更多不同类型的模型进行对比,并探索更复杂的交互场景。
参考文献 |
相关文章 |
计量指标
|