近期,大型语言模型(LLM)如ChatGPT和Bard引发全球热议,众多公司投入数百万美元研发这些人工智能工具,一些领先的AI聊天机器人的估值已达数十亿美元。LLM广泛应用于AI聊天机器人,通过整合互联网上的大量信息为用户提供请求的答案。
然而,由Mindgard与兰开斯特大学计算机科学家展开的一项新研究表明,LLM存在严重漏洞。研究发现,部分LLM内容可在不到一周时间内以低至50美元的成本被复制,攻击者可利用这些信息发动有针对性的攻击。这些攻击者可能泄露私人机密、绕过安全措施、提供错误答案或进行进一步的有针对性攻击。
研究小组发现一种名为“模型寄生”的攻击方法,通过与LLM进行交互并提问,能促使LLM提供关键信息,揭示模型工作方式。研究团队关注ChatGPT-3.5-Turbo模型,利用获得的知识创造自己的复制模型,该模型大小仅为原模型1%,但复制了LLM关键特征。研究人员利用这个模型副本作为测试平台,研究如何悄无声息地利用ChatGPT漏洞。他们成功利用从模型中获得的知识攻击ChatGPT,并提高了11%的成功率。
兰开斯特大学Peter Garraghan博士指出:“我们发现的现象既令人着迷又令人担忧。这是首次实证证明安全漏洞可成功传递于封闭源和开源的机器学习模型之间,当考虑到产业如何依赖像HuggingFace这样的公开可用机器学习模型时,这一发现令人极度担忧。”
研究人员提醒,虽然这些强大的数字AI技术具有明显用途,但它们存在隐藏弱点,甚至不同模型之间可能存在共同漏洞。企业目前正在或准备投资数十亿美元用于开发自己的LLM以执行各种任务,金融服务和大型企业也在采用这些技术。但研究人员表示,这些漏洞应成为计划构建或使用第三方LLM的所有企业的主要关切点。
Peter Garraghan博士强调:“虽然LLM技术具有潜在的变革性,但企业和科学家都必须仔细考虑采用和部署LLM所涉及的网络安全风险。”这项研究提醒我们AI技术带来了巨大机会,但也伴随着一系列潜在威胁,因此必须谨慎行事。
查看完整的新闻摘要和链接请访问www.techxplore.com/news/2023-04-23/study-reveals-major-vulnerabilities-in-large-language-models-could-be-copied-at-low-cost.html