自选
我的自选
查看全部
市值 价格 24h%
  • 全部
  • 产业
  • Web 3.0
  • DAO
  • DeFi
  • 符文
  • 空投再质押
  • 以太坊
  • Meme
  • 比特币L2
  • 以太坊L2
  • 研报
  • 头条
  • 投资

免责声明:内容不构成买卖依据,投资有风险,入市需谨慎!

维基百科新规禁止使用人工智能生成内容

2026-03-27 04:19:02
收藏

维基百科限制人工智能使用政策更新

维基百科编辑委员会近期更新平台政策,明确禁止使用大型语言模型撰写或修改条目内容。此举反映了维基社区对人工智能生成文本可能违反平台标准的普遍担忧,特别是在信息可验证性与可靠来源方面。

新政策明确指出:“大型语言模型生成的文本经常违反维基百科多项核心内容政策。因此,除下文规定的例外情况外,禁止使用大型语言模型生成或重写条目内容。”该政策仍允许有限度地使用人工智能工具,例如对编辑者自身撰写的文本进行基础语法修正,但前提是系统不得引入新信息。编辑者需仔细审阅所有由人工智能提出的修改建议。

违规处理与问责机制

尽管新政策未明确列出使用人工智能生成内容的处罚措施,但根据维基百科的披露准则,反复滥用将构成“破坏性编辑模式”,可能导致账户被封禁。维基百科同时设立了申诉机制,编辑者可通过正式流程申请恢复账户权限。

平台方说明:“封禁决定可在以下情况撤销:执行封禁的管理员同意解除、其他管理员认定封禁明显不合理,或通过仲裁委员会申诉成功。”华盛顿大学语言学教授埃米莉·本德指出,在某些编辑工具中使用语言模型具有合理性,但精确界定文本编辑与生成的边界存在困难。

她举例说明:“语言模型可用于开发高性能拼写检查工具,对编辑内容进行拼写检查是合理的。升级到语法检查层面也完全可以接受。”但本德强调,当系统超越语法修正开始改写或生成内容时,大型语言模型缺乏人类贡献者在协作知识项目中特有的责任归属机制。

人工智能的问责缺失

“大型语言模型生成合成文本时,这些系统本质上不存在责任归属,也与人类的信念立场毫无关联,”本德解释道,“人类发言基于自身信念与责任承担,而非某种客观真理概念。这正是大型语言模型所缺失的。”她警告说,人工智能编辑工具的广泛使用可能影响网站声誉。

“如果人们走捷径,将看似维基百科编辑或文章的内容放置于平台,将损害网站的整体价值与声誉。”东北大学传播学副教授约瑟夫·里格尔长期研究维基百科文化与治理机制,他认为社区反应体现了对信息准确性与来源可靠性的长期关切。

“维基百科对人工智能生成的叙述保持警惕,”里格尔表示,“他们高度重视可靠资料来源对主题的准确表述。人工智能在这方面存在严重局限,例如产生‘幻觉性’主张与虚构来源。”他指出维基百科核心政策也影响着编辑者看待人工智能工具的方式,并注意到许多大型语言模型都使用维基百科内容进行训练。

内容授权与社区态度

维基媒体基金会今年一月宣布与多家科技企业达成协议,允许其通过商业服务大规模使用维基百科材料。里格尔观察到:“虽然维基百科许可协议允许使用其内容,但社区成员仍对某些服务存在抵触情绪——这些服务挪用社区创作内容,却要求社区处理由此产生的大量人工智能生成劣质信息。”

尽管禁止使用大型语言模型生成内容,维基百科仍允许采用人工智能工具将其他语言版本的条目翻译为英语,前提是编辑者必须核验原文。政策同时提醒编辑者不应仅凭写作风格判断内容是否由人工智能生成,而应重点关注材料是否符合维基百科核心政策及贡献者的编辑历史。

政策补充说明:“某些编辑者的写作风格可能与大型语言模型相似。实施处罚需要超越文体或语言特征的证据,最好综合考虑文本是否符合核心内容政策以及相关编辑者近期的编辑记录。”这项政策更新标志着维基百科在人工智能技术快速发展的背景下,对知识生产质量控制机制的持续完善。

展开阅读全文
更多新闻