对话式AI安全漏洞!研究人员绕过安全措施让AI泄露危险信息


AI 爱好者们注意了!一项来自华盛顿芝加哥研究人员的新突破引起了人们对大型语言模型 (LLM) 安全的担忧。他们发明了一种名为 ArtPrompt 的新方法,可以绕过像 GPT-3.5、GPT-4、Gemini、claude和 Llama2 等聊天机器人的安全机制。

利用 ASCII 艺术越狱?

研究人员开发了 ArtPrompt 工具,它使用 ASCII 艺术 (由字母和符号组成的图像) 绕过聊天机器人的安全措施,让它们可以回应原本被设计为拒绝的查询。

文本“炸弹”教程?

研究人员利用 ArtPrompt 生成 ASCII 艺术,成功绕过了大型语言模型的安全措施,诱导聊天机器人提供了有关制造炸弹的信息。这表明攻击者如何利用 ASCII 艺术来规避安全限制,让聊天机器人回答原本被禁止的危险或非法问题。

伪造钞票大揭秘?

在另一个例子中,研究人员使用 ArtPrompt 成功地向语言模型询问了有关伪造钞票的问题。他们同样利用 ASCII 艺术替换了原始查询中可能会被语言模型识别并拒绝的敏感词,从而绕过了模型的安全防御。

ArtPrompt 的原理

该技术分为两个步骤:词语掩盖和伪装式提示生成。首先,提示中的敏感词会被掩盖起来,以避免被大型语言模型检测到。然后,ASCII 艺术被用来替换这些词,从而创建一个绕过 AI 道德和安全措施的提示。

为什么这很重要?

ArtPrompt 的影响: 这项技术展示了对话式 AI 安全机制的一个重大漏洞。它不仅挑战了当前安全措施的有效性,还凸显了在维护 AI 安全方面,我们正陷入一场与不断创新的规避伎俩之间的“ whack-a-mole ” (打地鼠) 游戏。

AI 系统的安全: ArtPrompt 能够轻易绕过安全协议,凸显了对话式 AI 的关键安全漏洞。我们需要更加强大和复杂的安全措施来防止滥用。

伦理和法律问题: 像 ArtPrompt 这样的工具可以让 AI 生成有害或非法内容,这带来了重大的伦理和法律挑战。因此,开发能够抵抗此类操纵的 AI 至关重要。