可轻易识别的僵尸网络时代正走向终结
周四发表于《科学》杂志的一项新研究报告指出,操纵信息传播的活动正转向能够模仿人类行为、实时自适应且几乎无需人工监督的自主人工智能集群,这将使检测与遏制工作变得更为复杂。
这篇由牛津大学、剑桥大学、加州大学伯克利分校、纽约大学及马克斯·普朗克研究所等机构学者联合撰写的论文描绘了这样一个数字环境:信息操纵行为正变得愈发难以识别。与以往集中于选举或政治事件的短期爆发不同,此类人工智能操纵活动能够持续构建并维持长期叙事框架。
研究人员警示:"若被政府掌控,这类工具可能被用于压制异议或巩固当权者地位。因此,防御性人工智能的部署必须建立在严格、透明且具备民主问责机制的框架之下。"
自主协同的智能集群
所谓"集群"是指多个自主人工智能代理协同工作的系统,其解决问题的效率远高于单一系统。研究指出,人工智能集群利用社交媒体平台现有缺陷——用户往往被困于同质化信息茧房——进行渗透。
"虚假信息比真实信息传播更快、范围更广,这加剧了现实认知的分裂,侵蚀了共同的事实基准。"论文强调,"最新证据表明,以互动量为导向的内容推送机制助长了极化现象,平台算法甚至不惜牺牲用户体验来推广分裂性内容,进一步损害了公共领域的健康。"
平台治理面临新挑战
南加州大学计算机科学教授、撒哈拉人工智能首席执行官肖恩·任指出,这种转变在主流平台上已初现端倪。他表示:"人工智能驱动的账户越来越难以与普通用户区分。我认为加强'了解你的客户'验证或账户身份核验机制将对此产生重要影响。"
相比以往依赖海量账户同步发布相同信息的粗放式操纵——这类行为相对容易检测——新型人工智能集群展现出"前所未有的自主性、协调性与规模性"。任教授认为,单纯的内容审核已难以遏制此类系统,核心问题在于平台如何实现大规模身份管理。
"如果代理程序只能使用少量账户发布内容,那么检测异常使用模式并封禁相关账户就会容易得多。"他补充说,"强化身份验证与账户创建限制,将使协同操纵行为更容易暴露,即便单个帖子看起来与真人无异。"
综合治理成为必然选择
研究团队总结认为,应对这一问题不存在单一解决方案。潜在措施包括提升对统计学异常协同行为的检测能力,增强自动化活动的透明度,但单纯技术手段可能仍不足以治本。
任教授特别指出,经济利益始终是协同操纵攻击的持续驱动力:"这些代理集群通常由团队或供应商控制,他们从外部组织或企业获得经济激励来进行协同操纵。平台应当推行更严格的身份验证机制与垃圾信息检测系统,以识别并过滤被操纵的代理账户。"
在平台持续升级技术防护的同时,研究人员强调必须建立跨学科治理体系,通过技术检测、制度约束与经济溯源的多维联动,才能应对这场正在演变的数字生态挑战。

资金费率
资金费率热力图
多空比
大户多空比
币安/欧易/火币大户多空比
Bitfinex杠杆多空比
账号安全
资讯收藏
自选币种