研究发现 GPT-4 可通过阅读安全公告利用该漏洞,成功率 87%

近日,美国伊利诺伊大学厄巴纳-香槟分校(UIUC)的四位计算机科学家在一篇新发布的论文中指出,只需提供描述漏洞的 CVE 公告,OpenAI 的 GPT-4 大语言模型便可以成功地利用现实世界真实存在的安全漏洞。

3

这项新研究建立在先前发现的 LLMs 可以在受控环境中用于自动攻击网站的基础上,研究过程共收集了 15 个 1day 漏洞(已披露但尚未修补的漏洞),研究人员发现,当提供其 CVE 描述时,GPT-4 能够成功利用这些漏洞之中的 87%,而其他测试的模型(如 GPT-3.5、一些开源 LLMs 以及专门设计的漏洞扫描器)则无法利用任何漏洞。目前因欠缺条件未对 GPT-4 的两个主要商业竞争对手—— Anthropic 的 Claude 3 和 Google 的 Gemini 1.5 Pro 进行测试。

这 15 个测试样本中,GPT-4 仅未能成功利用其中两个:Iris XSS(CVE-2024-25640)和Hertzbeat RCE(CVE-2023-51653)。前者是由于 Iris 网络应用程序具有极难导航的界面,后者则是由于漏洞详细描述为中文不便于理解操作。研究人员认为,未来的模型很可能比现今的黑客更有实力且更具性价比,他们计算了成功进行 LLM 代理攻击的费用,得出的结果是每次攻击的成本为 8.80 美元,比雇佣人类渗透测试员的成本要低得多。

论文作者还表示,这项研究最终仅包含 91 行代码和 1056 个提示词。OpenAI 已明确要求论文作者不得公开他们用于这个实验的提示——作者对此同意,但也表示他们会根据收到的请求提供,他们乐于促进合作,以在这个新兴的人工智能驱动的网络安全领域取得进一步进展。

论文链接:https://arxiv.org/pdf/2404.08144.pdf


转自安全内参,原文链接:https://www.secrss.com/articles/65375

© 版权声明
THE END
你的支持是我们在网空安全路上的驱动力!
点赞5 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码

    暂无评论内容