国际网络安全团队近日研发了新型 AI 蠕虫病毒,能够在生成式人工智能服务之间独立传播、窃取数据并通过电子邮件发送垃圾邮件。
伴随着 OpenAI ChatGPT 和 Google Gemini 等生成式 AI 系统的快速发展,AI 开始被应用于解决某个特定问题或者任务,例如创建日历项、订购某件物品等等。
网络安全技术研究人员表明生成式 AI 存在漏洞,并将其命名为“Morris II”。
IT之家在这里简要介绍下这个名称的背景,Morris 被认为是人类发现的第一个计算机蠕虫病毒,于 1988 年被发现,感染了超过 6200 台计算机,占当时连接到互联网的所有计算机的 10%。
“Morris II”可以基于生成式 AI,绕过了 ChatGPT 和 Gemini 的保护,能从电子邮件中窃取数据并发送垃圾邮件。
研究作者表示在沙盒环境中测试了新的攻击模型,但目前尚未在实践中被发现,不过个人开发者、初创企业和科技公司都应考虑到这一威胁。
大多数生成式人工智能系统的工作原理是接收文本指令:要求回答问题或创建图像。
这些命令可以用来对付系统,使其忽略安全措施并生成不恰当的内容;还可以向系统发出隐含指令,例如,向其提供一个隐藏有此类命令文本的恶意网页地址。
攻击生成式人工智能的蠕虫病毒的运行原理基于“对抗性自我复制提示”机制。这种命令会导致生成式人工智能模型发出另一条命令作为回应,这很像 SQL 注入和缓冲区溢出等传统攻击模式。
为了演示该蠕虫的工作原理,研究人员通过连接 ChatGPT、Gemini 和开源 LlaVA 模型,创建了一个可以使用生成式人工智能接收和发送信息的电子邮件服务。
然后,他们使用自我复制的文本指令和嵌入图像文件的类似指令两种方法,成功利用人工智能漏洞发起攻击。
研究报告的作者指出,由于人工智能生态系统的架构设计错误,这些攻击方法成为可能。他们与谷歌和 OpenAI 分享了他们的发现--OpenAI 证实了威胁的存在,但补充说该公司正在努力提高其系统的稳定性,而谷歌拒绝发表评论。