
像ChatGPT和Bard这样的大型语言模型(llm)今年席卷了全球,许多公司投资数百万美元来开发这些人工智能工具,一些领先的人工智能聊天机器人的估值达到数十亿美元。
这些法学硕士(llm)越来越多地用于人工智能聊天机器人,它们从整个互联网上获取信息,并为用户指定的请求(即“提示”)提供答案。
然而,来自英国人工智能安全初创企业明加德(Mindgard)和兰开斯特大学(Lancaster University)的计算机科学家已经证明,这些法学硕士课程的大部分内容可以在不到一周的时间内以低至50美元的价格复制,获得的信息可以用来发动有针对性的攻击。
研究人员警告说,利用这些漏洞的攻击者可能会泄露私人机密信息,绕过护栏,提供错误的答案,或者进一步进行有针对性的攻击。
在CAMLIS 2023(信息安全应用机器学习会议)上发表的一篇新论文中,研究人员详细说明了廉价复制现有llm的重要方面是可能的,并且他们展示了在不同模型之间转移漏洞的证据。
这种攻击被称为“模型吸取”,其工作原理是通过这样一种方式与法学硕士交谈——向其询问一组有针对性的提示——以便法学硕士获得有关模型如何工作的有见地的信息。
研究小组将研究重点放在ChatGPT-3.5-Turbo上,然后利用这些知识创建了他们自己的复制模型,该模型比LLM小100倍,但复制了LLM的关键方面。
然后,研究人员可以使用这个模型副本作为试验场,研究如何在不被发现的情况下利用ChatGPT中的漏洞。然后,他们能够使用从他们的模型中收集到的知识来攻击ChatGPT中的漏洞,成功率提高了11%。
兰开斯特大学的Peter Garraghan博士是明加德的首席执行官,也是这项研究的首席研究员,他说:“我们的发现在科学上是迷人的,但也非常令人担忧。这是第一批通过经验证明安全漏洞可以在闭源和开源机器学习模型之间成功转移的作品之一,考虑到行业对HuggingFace等地方托管的公开可用机器学习模型的依赖程度,这一点非常令人担忧。”
研究人员表示,他们的工作强调,尽管这些强大的数字人工智能技术有明确的用途,但也存在隐藏的弱点,甚至可能在各个模型之间存在共同的漏洞。
各行各业的企业目前正在或准备投资数十亿美元创建自己的法学硕士,以承担智能助理等广泛的任务。金融服务和大型企业正在采用这些技术,但研究人员表示,这些漏洞应该成为所有计划建立或使用第三方法学硕士的企业的主要担忧。
Garraghan博士说:“虽然法学硕士技术具有潜在的变革性,但企业和科学家都必须非常仔细地考虑如何理解和衡量与采用和部署法学硕士相关的网络风险。”引用本文:人工智能研究人员暴露了主要大型语言模型中的关键漏洞(2023年,10月12日)检索自https://techxplore.com/news/2023-10-ai-expose-critical-vulnerabilities-major.html。除为私人学习或研究目的而进行的任何公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。
点击分享到









