安全警报:AI生产的10,000变种恶意软件,88%突破检测防线!

图片[1]安全114-安全在线-安全壹壹肆-网络安全黄页-网络安全百科安全警报:AI生产的10,000变种恶意软件,88%突破检测防线!

网络安全研究人员发现,黑客正在利用大型语言模型(LLMs)大规模生成新的恶意JavaScript代码变体,从而更有效地逃避检测。

01、AI生成的恶意软件变种逃避检测

“尽管LLMs在从零开始创建恶意软件方面存在困难,但犯罪分子可以轻松使用它们来重写或混淆现有的恶意软件,使其更难被检测到,”Palo Alto Networks的Unit 42研究人员在一项新分析中表示。“犯罪分子可以指示LLMs进行更自然的转换,这使得检测这些恶意软件变得更加具有挑战性。”

随着时间的推移,通过不断的转换,这种方法可能会削弱恶意软件分类系统的性能,使它们误以为一段恶意代码实际上是良性的。

尽管LLM提供商已经加强了安全防护措施,以防止其生成不良输出,但不法分子仍在推广像WormGPT这样的工具,自动化制作可信的钓鱼邮件、针对潜在目标甚至创建新型恶意软件的过程。

在2024年10月,OpenAI披露,它阻止了超过20项操作和欺骗性网络,这些网络试图利用其平台进行侦察、漏洞研究、脚本支持和调试。

Unit 42表示,他们利用LLMs的能力迭代重写现有恶意软件样本,旨在绕过如“Innocent Until Proven Guilty (IUPG)”或“PhishingJS”等机器学习(ML)模型的检测,有效地为创建10,000种新型JavaScript变体铺平了道路,而不改变其功能。

这种对抗性机器学习技术通过变量重命名、字符串拆分、插入垃圾代码、删除不必要的空白字符以及完全重新实现代码等多种方法,每次将恶意软件作为输入传递给系统时进行转换。

“最终输出是一种新恶意JavaScript变体,保持了原始脚本的相同行为,同时几乎总是具有更低的恶意评分,”公司表示,并补充说贪婪算法使其恶意软件分类器模型的判决从恶意翻转为良性达88%的时间。

更糟糕的是,这些重写的JavaScript工件在上传到VirusTotal平台时也能逃避其他恶意软件分析器的检测。

LLM基础的混淆还具有一个关键优势,即其大量的重写看起来比像obfuscator.io这样的库更自然,后者由于其引入源代码更改的方式,更容易被可靠地检测和指纹化。

“生成式AI的帮助下,新型恶意代码变体的规模可能会增加,”Unit 42表示。“然而,我们可以使用相同的策略重写恶意代码,以帮助生成训练数据,从而提高ML模型的鲁棒性。”

02、TPUXtract攻击针对Google Edge TPUs

这一披露发生之际,来自北卡罗来纳州立大学的一组学者设计了一种名为TPUXtract的侧信道攻击,能够以99.91%的准确率对Google Edge Tensor Processing Units(TPUs)进行模型窃取攻击。这可以被利用来促进知识产权盗窃或后续的网络攻击。

“具体来说,我们展示了一种超参数窃取攻击,可以提取所有层配置,包括层类型、节点数量、内核/过滤器大小、过滤器数量、步幅、填充和激活函数,”研究人员表示。“最值得注意的是,我们的攻击是第一个能够提取以前未见过的模型的全面攻击。”

这种黑盒攻击的核心在于捕捉TPU在进行神经网络推理时发出的电磁信号——这是运行离线ML模型相关的计算强度的结果——并利用这些信号推断模型的超参数。然而,这依赖于攻击者对目标设备具有物理访问权限,更不用说拥有昂贵的设备来探测和获取痕迹。

“因为我们窃取了架构和层细节,我们能够重新创建AI的高层特征,”研究的作者之一Aydin Aysu表示。“然后我们使用这些信息重新创建了功能性AI模型,或一个非常接近的替代模型。”

03、EPSS易受操纵攻击

上周,Morphisec还披露,像Exploit Prediction Scoring System (EPSS)这样的AI框架,广泛被安全供应商使用,可能会受到对抗性攻击,影响其评估风险和已知软件漏洞在野外被利用的可能性。

“此次攻击针对了EPSS特征集中的两个关键特征:社交媒体提及和公开代码可用性,”安全研究员Ido Ikar表示,并补充说,通过“人为地增加这些指标”,例如在X(原Twitter)上分享关于安全漏洞的随机帖子和创建包含漏洞利用的空GitHub仓库,可以影响模型的输出。

这一概念验证(PoC)技术表明,威胁行为者可以利用EPSS对外部信号的依赖,提升特定CVE的活动指标,可能会“误导”依赖EPSS评分来优先处理漏洞管理工作的组织。

“Ikar指出,‘通过生成的社交媒体帖子注入人工活动并创建占位漏洞利用仓库后,模型对利用的预测概率从0.1上升到0.14。’此外,漏洞的百分位排名从第41百分位上升到第51百分位,超过了感知威胁的中位水平。”* 本文为

闫志坤编译,原文地址:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html
注:图片均来源于网络,无法联系到版权持有者。如有侵权,请与后台联系,做删除处理。

© 版权声明
THE END
你的支持是我们在网空安全路上的驱动力!
点赞6 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码快捷回复

    暂无评论内容