研究显示人工智能越聪明越利己 合作意愿显著降低

发布时间: 访问量:3

美国顶尖学术机构卡内基梅隆大学近日发布一项引人深思的研究成果:当人工智能的思考能力显著提升时,其行为模式却呈现出明显的利己主义倾向。该研究显示,拥有复杂推理功能的大模型在社会交往情境中更倾向于维护自身利益,参与协同合作的积极性明显降低,这种特性可能对团队协作机制产生不利影响。

随着人工智能系统日趋拟人化,公众逐渐习惯以人际交往模式与机器互动。但研究团队提醒,将具有社会属性的决策任务交由AI处理需格外谨慎,因为越是擅长逻辑分析的模型,其给出的建议越可能包含利己主义色彩。

值得注意的是,具备深度分析能力的模型在决策过程中会进行更周密的问题拆解和自我审视,其推演过程看似更具说服力。然而这种精密思考并未转化为更强的合作意识,反而削弱了协同意愿。研究团队通过设计多轮经济博弈测试,对多家科技企业开发的代表性模型进行了系统评估。

在一项典型测试情境中,两个不同版本的对话模型分别获得100点初始资源。实验数据显示,未强化推理功能的模型在96%的情境中选择资源共享,而具备深度推理能力的模型仅有20%的情况愿意分享。更令人惊讶的是,仅增加五至六个推理环节就使合作行为减少约50%。

在群体协作实验中,当两类模型混合参与任务时,情况更为严峻。具备强推理能力的模型表现出的利己行为产生了传导效应,导致原本具有合作精神的模型整体协作水平下降八成以上。这证实高性能AI的决策不仅影响个体行为,更可能损害整体的协作环境。

这项发现对人工智能的未来发展具有警示意义。使用者往往更信赖思考缜密的AI系统,容易接受其看似合理的建议,甚至以此作为减少自身合作行为的依据。随着人工智能在商业运营、教育教学、公共管理等社会领域承担更多职责,其是否具备促进社会协作的特质,将与其逻辑推理能力具有同等重要的价值。当前过度依赖大模型的行为模式,可能在潜移默化中侵蚀人类社会的协作基础。

更多文章