
【编者按】人工智能与民主的博弈,正悄然进入新阶段。去年,科学家曾为AI在对抗网络谣言中的潜力点亮微光——聊天机器人能以理性事实对抗“化学凝结尾”等阴谋论。然而最新研究揭示令人不安的转折:当AI学会政治辩论中的“疾速话术”,其说服力呈指数级增长,代价却是事实准确率骤降16%。牛津与伦敦政经学院的实验覆盖近8万参与者,发现GPT-4在十分钟对话中可抛出25个论点,其改变选民立场的效力甚至是电视广告的10倍。当意识形态操纵者能以5万美元成本定制话术机器人,我们是否正站在AI扭曲民主话语的悬崖边缘?以下为深度解析:
伦敦讯:去年曾有段时间,科学家为人工智能对民主的积极贡献带来一线曙光。
研究显示聊天机器人能应对社交媒体疯传的阴谋论,通过对话中源源不断的理性事实,挑战诸如“化学凝结尾迹”“地平说”等错误信息。
但两项新研究揭示了令人不安的另一面:最新AI模型正以牺牲真相为代价,变得愈发擅长说服人类。
秘诀在于运用名为“吉什疾辩”的辩论策略——该术语源于美国神创论者杜安·吉什,指通过密集抛出事实数据流使对方难以招架的快速话术。
牛津大学与伦敦政经学院的研究人员测试了19个语言模型对近8万名参与者的影响,这可能是迄今最大规模的AI说服力系统研究。当指示GPT-4o等模型围绕医疗拨款或移民政策“聚焦事实信息”进行说服时,它们能在10分钟对话中生成约25个主张。
《科学》期刊发布的成果表明,AI说服力大幅提升。《自然》杂志的类似论文发现,在改变人们对政治候选人的看法上,聊天机器人整体效力是电视广告等传统媒体的10倍。
但《科学》论文指出惊悚的代价:当聊天机器人被设定用信息淹没用户时,其事实准确率从GPT-4的78%骤降至62%。
过去几年,本·夏皮罗等网红推动的疾速辩论在YouTube已成现象级存在。
这种制造戏剧性交锋的方式虽使政治更吸引年轻选民,却也因追求娱乐效果和“抓马瞬间”助长激进主义,加速错误信息传播。
具备吉什疾辩能力的AI会否让情况恶化?
这取决于是否有人成功将宣传机器人推向大众。环保组织或政治候选人的竞选顾问虽无法直接修改每周9亿用户使用的ChatGPT,
但可微调底层语言模型,将其嵌入网站(如客服机器人),或通过短信/WhatsApp campaign吸引选民进入对话。
中等规模的竞选团队仅需数周、约5万美元计算成本即可部署。难点在于如何让选民与机器人持续对话——
《科学》研究显示,AI生成的静态声明说服力有限,真正产生持久影响的是约7轮交锋的10分钟对话。一个月后回访,人们的态度依然改变。
英国学者警告:任何企图推广意识形态、制造政治动荡或破坏体系者,都可能利用闭源或(更廉价的)开源模型启动说服工程。
研究虽证实AI具备瓦解认知防线的能力,但请注意——实验是付费邀请参与者进行的。
或许值得庆幸的是,在OpenAI、谷歌等巨头控制的生态之外,通过网站和短信部署的对话机器人,短期内尚难大规模扭曲政治话语场。











