黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型

图片[1]安全114-安全在线-安全壹壹肆-网络安全黄页-网络安全百科黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型

最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为 LLMjacking,主要针对非人类身份(NHIs),如 API 密钥、服务账户和机器凭证,以绕过传统安全控制并利用被盗的生成式 AI 访问权限进行非法牟利。

安全公司 Entro Labs 的研究发现,攻击者利用自动化的机器人扫描公共代码库和论坛,使用 Python 脚本检测有效凭证。一旦凭证被暴露,攻击者在 9 至 17 分钟内进行初步的 API 调用,如 GetCostAndUsage,以评估账户价值,同时避免使用可预测的调用如 GetCallerIdentity 来逃避检测。

  • 凭证收集:自动化的机器人使用 Python 脚本扫描公共代码库和论坛,以检测有效凭证,其中 44% 的非人类身份是通过代码库和协作平台泄露的。
  • 快速验证:攻击者在凭证暴露后的 9-17 分钟内执行初始 API 调用(如 GetCostAndUsage)来评估账户价值,并避免使用可预测的调用(如 GetCallerIdentity)以逃避检测。
  • 模型枚举:入侵者通过 AWS Bedrock 执行 GetFoundationModelAvailability 请求,以列出可访问的大型语言模型(LLM),包括 Anthropic 的 Claude 和 Amazon Titan,并映射可用的攻击面。
  • 漏洞利用:攻击者对受损端点进行自动化的 InvokeModel 尝试,研究人员在实验密钥中观察到每小时超过 1200 次未经授权的推理尝试。

Storm-2139 网络犯罪组织最近利用这种方法攻击了 Microsoft Azure AI 客户,窃取 API 密钥以生成暗网内容。取证日志显示,攻击者:

  • 利用 Python 的请求库进行凭证验证
  • 使用 aws s3 ls 命令识别 AI/ML 存储桶
  • 尝试使用精心设计的提示来绕过内容过滤器的 InvokeModel

Entro 的模拟入侵表明攻击者将自动脚本与手动侦察相结合 ——63% 的初始访问使用 Python SDK,而 37% 使用 Firefox 用户代理通过 AWS 控制台进行交互式探索。

  • 成本利用:仅需一个带有 Bedrock 访问权限的受 compromis NHIs,每天可能会产生 46000 美元的未授权推理费用。
  • 数据泄露:在 22% 的观察到的事件中,攻击者窃取了模型配置和训练数据元数据。
  • 声誉损害:Microsoft Q1 2025 安全漏洞事件中,威胁者利用被盗的 Azure OpenAI 密钥生成了 14000 多张深度伪造图像。

缓解策略

  • 检测并实时监控 NHIs
  • 实施自动化的秘密轮换
  • 强制执行最小权限原则
  • 监控不寻常的 API 活动
  • 对开发人员进行安全的 NHI 管理教育

随着攻击者在不到 20 分钟内利用漏洞,实时秘密扫描和自动轮换不再是可选的安全措施,而是 LLM 时代的关键生存机制。


消息来源:Cybersecurity News 

本文由 HackerNews.cc 翻译整理,封面来源于网络;

© 版权声明
THE END
你的支持是我们在网空安全路上的驱动力!
点赞15 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码快捷回复

    暂无评论内容