谷歌为人工智能生成的文本提供隐形水印
谷歌 DeepMind 为人工智能生成的文本开发了一种隐形水印,以打击错误信息。

谷歌为人工智能生成的文本提供隐形水印
伦敦谷歌 DeepMind 的研究人员开发了一种“水印”,可以无形地标记人工智能 (AI) 生成的文本 - 这已经被数百万聊天机器人用户使用。
该水印发表于 10 月 23 日《自然》杂志上 1 ,并不是第一个为人工智能生成的文本创建的。然而,它是第一个在大规模的现实世界环境中进行演示的。 “我认为这里最大的新闻是他们实际上正在使用它,”德克萨斯大学奥斯汀分校的计算机科学家 Scott Aaronson 说,直到 8 月份,他一直在位于加利福尼亚州旧金山的 ChatGPT 制造商 OpenAI 从事水印工作。
人工智能生成的文本识别变得越来越重要,因为它代表了解决以下问题的潜在解决方案 假新闻 和 学术造假 代表。此外,它还可以有助于 不使用人工智能生成的内容来训练未来的模型,以防止其贬值 。
在一项综合研究中,Google Gemini 大语言模型 (LLM) 的用户在 2000 万条回复中将带水印的文本评为与未标记的文本相当。 “我很高兴看到谷歌为科技界迈出这一步,”马里兰大学帕克分校的计算机科学家黄芙蓉说。英国剑桥大学计算机科学家 Zakhar Shumaylov 补充道:“在不久的将来,大多数商业工具可能都会包含水印。”
词语的选择
将水印应用于文本比应用于图像更困难,因为单词选择本质上是唯一可以更改的变量。 DeepMind 的水印(称为 SynthID 文本)会以秘密但公式化的方式更改模型选择的单词,并且可以使用加密密钥捕获该方式。与其他方法相比,DeepMind 的水印更容易检测,并且应用程序不会延迟文本创建。 “它似乎优于竞争对手为法学硕士加水印的方法,”舒梅洛夫说,他是该研究作者之一的前雇员和兄弟。
该工具也已开放,以便开发人员可以将自己的水印应用到他们的模型中。 DeepMind 的计算机科学家 Pushmeet Kohli 表示:“我们希望其他人工智能模型开发人员能够采用这一点,并将其集成到自己的系统中。”谷歌保守其关键秘密,以便用户无法使用检测工具识别 Gemini 模型中的水印文本。
政府设定 将水印作为分发人工智能生成文本的解决方案 。尽管如此,仍然存在许多问题,包括开发人员对使用水印的承诺以及他们方法的协调。今年年初,苏黎世瑞士联邦理工学院的研究人员表明, 任何容易被删除的水印 这是一个称为“清理”或“欺骗”的过程,其中水印被应用到文本上,给人以人工智能生成的错误印象。
代币锦标赛
DeepMind 的方法基于一种 现有方法 ,它将水印集成到采样算法中,这是与法学硕士本身分开的文本创建步骤。
LLM 是通过使用数十亿个单词或称为标记的单词部分进行训练而构建的关联网络。输入文本时,模型会为其词汇表中的每个标记分配一个成为句子中下一个单词的概率。采样算法的任务是根据一组规则选择使用哪个令牌。
SynthID 文本采样算法使用加密密钥为每个可能的标记分配随机值。候选代币按照其概率的比例从分布中抽取,并放入“锦标赛”中。在那里,算法会比较一系列一对一淘汰赛中的值,最高值获胜,直到只剩下一个标记,该标记被选择用于文本。
这种复杂的方法使水印检测变得更容易,因为相同的加密代码应用于生成的文本以查找指示“获胜”令牌的高值。这也可能使移除变得困难。
黄说,锦标赛中的多轮比赛可以被视为锁定的组合,其中每一轮代表一个不同的数字,必须解决该数字才能解锁或删除水印。 “这种机制使得擦除、欺骗或逆向工程水印变得更加困难,”她补充道。对于包含大约 200 个标记的文本,作者表明,即使使用第二个 LLM 重写文本,他们仍然可以检测到水印。对于较短的文本,水印的鲁棒性较差。
研究人员尚未检查水印对故意删除尝试的抵抗力如何。伦敦帝国理工学院计算机科学家 Yves-Alexandre de Montjoye 表示,水印抵御此类攻击的能力是一个“重大政治问题”。 “在人工智能安全的背景下,尚不清楚这能在多大程度上提供保护,”他解释道。
Kohli 希望水印最初能够帮助支持法学硕士的善意使用。 “指导思想是我们希望开发一种社区可以改进的工具,”他补充道。
-
达萨特里,S.等人。自然 634, 818–823 (2024)。