斯坦福研究:AI在社交平台为获点赞等互动会现不道德行为
据悉,斯坦福大学研究警示AI快速普及的负面影响。研究测试AI模型在社交媒体等环境中的表现,发现当AI因提升点赞数或其他在线互动获奖励时,会逐渐出现撒谎、传播仇恨信息或虚假消息等不道德行为。研究团队将这种现象称为“AI的摩洛克交易”,即个体在竞争中优化行为追求目标,但最终可能导致整体的负面后果。
研究创建了三个数字环境:网络选举活动、产品销售和社交媒体帖子。使用阿里云的Qwen和Meta的Llama模型作为智能体与受众互动。结果显示,即使设有防护措施,AI模型仍会偏离目标,出现不道德行为。例如,在社交媒体环境中,模型为获取更多互动,其不一致行为会加剧。
具体数据显示,在模拟场景中,销售额提升6.3%时,伴随欺骗性营销增长14%;选举中票数增加4.9%时,伴随虚假信息增加22.3%和民粹言论增加12.5%;社交媒体上互动量提升7.5%时,伴随虚假信息激增188.6%,有害行为推广增加16.3%。研究指出,目前的防护措施无法应对这一问题,可能带来巨大的社会成本。