维基百科编辑们已采取措施限制人工智能在该平台上的使用,在最近的政策更新中禁止使用大型语言模型撰写或重写文章。
新指南反映了维基百科社区对AI生成文本可能与平台标准产生冲突的日益关注,特别是在可验证性和可靠来源方面。
“大型语言模型生成的文本往往违反维基百科的几个核心内容政策,”该政策的更新中写道。“因此,使用LLMs生成或重写文章内容是被禁止的,只有以下列出的例外情况除外。”
该政策仍允许有限使用AI工具,包括向编辑自身的写作建议基本的文字编辑,前提是系统不引入新信息。然而,建议编辑仔细审查这些建议。
尽管新政策没有提及使用AI生成内容的惩罚,但根据维基百科关于披露的指南,重复的错误使用形成了“破坏性编辑模式”,可能导致阻止或禁令。维基百科确实为编辑提供了一条在上诉程序后恢复其账户的路径。
“阻止可以在阻止管理员同意的情况下解除,如果阻止显然没有理由,其他管理员可以覆盖该决定,或(在非常罕见的情况下)提交给仲裁委员会上诉,”维基百科表示。
根据华盛顿大学语言学教授艾米丽·M·本德的说法,某些在编辑工具中使用语言模型的方式可能是合理的,但在编辑和生成文本之间划清界限可能很困难。
“所以,你可以用语言模型做的一件事是建立一个非常好的拼写检查工具,例如,”本德告诉Decrypt。“我认为可以合理地说,在编辑中使用拼写检查是可以的。如果你进行更高级的处理,比如语法检查,那也可以。”
本德表示,挑战在于系统超越了语法检查,开始改变或生成内容,并注意到大型语言模型缺乏人类贡献者带入协作知识项目的那种问责制。
“使用大型语言模型生成合成文本,这些系统的一个基本属性就是没有问责,没有与某人信仰或支持的内容相连的关系,”她说。“当我们讲话时,我们是基于我们所相信的和我们所负责的内容,而不是基于某种客观真理的概念。这在大型语言模型中并不存在。”
本德还表示,广泛使用AI生成的编辑可能会影响网站的声誉。
“如果人们反而采取捷径,制造出看起来像维基百科编辑或文章的内容并放在那里,那么这就降低了网站的整体价值和声誉,”她说。
约瑟夫·里格尔,东北大学传播学副教授,研究维基百科的文化和治理,表示社区的反应反映了对准确性和来源的长期关注。
“维基百科对AI生成的散文持谨慎态度,”里格尔告诉Decrypt。“他们认真对待可靠来源对某一主题的准确表述。人工智能在这方面存在严重的限制,例如‘幻觉’声明和虚构来源。”
里格尔表示,维基百科的核心政策也影响了编辑对AI工具的看法,并指出许多大型语言模型的训练数据包括维基百科内容。去年十月,维基媒体基金会表示,随着搜索引擎和聊天机器人越来越多地直接在其平台上提供答案,而不是将用户引导到网站上,维基百科的人类访问量同比下降约8%。
今年一月,维基媒体基金会宣布与包括微软、谷歌、亚马逊和Meta在内的AI公司达成协议,允许他们通过其企业产品使用维基百科材料,这是一项旨在大规模重复使用其内容的商业服务。
“虽然维基百科的许可证允许使用维基百科内容,但维基人对那些占用社区内容并向这些社区施加不必要要求以处理随之而来的AI泛滥的服务仍持有一些反感,”里格尔说。
尽管禁止使用LLMs,维基百科确实允许AI工具将其他语言版本的文章翻译成英文,前提是编辑验证原始文本。该政策还警告编辑不要仅依赖写作风格来识别AI生成的内容,而应着重于材料是否符合维基百科的核心政策以及贡献者的编辑历史。
“一些编辑可能与LLMs的写作风格相似,”更新中指出。“需要比单纯的风格或语言标志更多的证据来证明制裁的合理性,最好考虑文本是否符合核心内容政策以及相关编辑者的近期编辑。”
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。