维基百科——这部广受欢迎的免费在线百科全书——发布了一项新政策,禁止编辑者使用人工智能来生成或改写条目内容。维基百科的政策禁止大型语言模型(LLMs)撰写或改写文章。诸如 ChatGPT、Gemini、DeepSeek 等大型语言模型所生成的文本,常常违反维基百科的若干核心内容政策。尽管新规则生效,数字百科全书仍列出两条在文案撰写和翻译方面的豁免。

政策仍允许在谨慎前提下使用AI工具,为编辑者自己文本提出基本修改建议,前提是LLM能够新增信息。此外,仍然允许使用LLMs来翻译条目,但编辑者必须先遵循指南。编辑者可以使用LLMs提出对自身文本的基本改动建议,并在人工审核后部分采纳,前提是LLM不得自行引入内容。编辑者也被允许使用LLMs把其他语言的维基百科条目翻译成英文维基百科,但必须遵循Wikipedia:LLM-assisted translation中规定的指南。

在宣布新政策后,维基媒体基金会——该非营利组织是维基百科的幕后机构——向一家新闻媒体表示,基金会并不决定平台的编辑政策与准则:“维基百科的力量在于其以人为本、志愿者驱动的模式,历史将一直如此,也将永远如此。”十月,基金会披露,随着搜索引擎和AI聊天机器人在其平台上持续直接提供答案,访问其站点的人数同比下降了8%。机器人和网络爬虫对维基媒体项目的流量数据影响持续显著。过去几个月,我们看到维基百科的人类页面浏览量呈下降趋势,与2024年同期相比约下降8%。

我们相信这些下降反映了生成式AI与社交媒体对人们获取信息方式的影响。然而,仅在今年一月,基金会宣布与多家探索AI的公司达成合作关系,其中包括 Microsoft(NASDAQ: MSFT)、Google(NASDAQ: GOOGL)、Amazon(NASDAQ: AMZN)和 Meta(NASDAQ: META)。这些协议允许这些公司通过 Enterprise 产品使用维基百科的内容,该商业服务便于对平台材料的广泛再利用。

我们如何让AI及其创造者承担责任?
随着生成式AI的使用日益增多,其阴影面也在显现:利用AI生成的深度伪造视频或音频可能传播假新闻。全球各地的司法辖区正在寻求解决方案,以为AI应用的创作者与用户带来应有的问责。尽管欧盟等地区已迅速推出法规,如 AI Act,但一些国家仍未提出清晰的策略。更令人担忧的是,监管能否有效执行仍不明确。

或许有一线希望,因为区块链可以通过创建一个防篡改、带时间戳的记录,来强化对AI的问责,记录AI的构建、训练和使用过程。通过将数据输入、模型变更和部署决策等关键要素写入一个不可变的公共账本,我们可以追溯深度伪造或有缺陷的LLMs所造成的损害。“区块链在记录真相、建立一个全球范围内不可更改的日志中可以发挥极其重要的作用,真正把发生的事讲清楚,”Udacity 创始人 Sebastian Thrun 在 London Blockchain Conference 2025 上表示。区块链技术本质上通过一个系统不可变地记录记录来“记录真相”。

也就是说,借助区块链,所有AI数据源将为用户、监管者和其他利益相关者提供透明的历史记录。为了让人工智能在法律框架内正确运作并在日益增长的挑战中蓬勃发展,它需要接入一个企业级区块链系统,以确保数据输入质量和所有权——在保护数据安全的同时,保证数据的不可变性。请关注 CoinGeek 对这一新兴技术的报道,了解为何企业级区块链将成为AI的支柱。

官方合作伙伴

发表评论

热门

了解 CoinFubi 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读