排序
英国政府出资 850 万英镑应对人工智能网络威胁
英国承诺投入 850 万英镑资助旨在应对包括深度伪造在内的网络威胁的新型人工智能安全研究。技术部长米歇尔·多尼兰 (Michelle Donelan) 在人工智能首尔峰会上宣布,研究资助将重点关注“系统性...
因配置不当,约 5000 个 AI 模型与训练数据集在公网暴露
一名安全研究人员透露,数千个机器学习工具已暴露在开放的互联网中,其中一些还属于大型科技公司。任何人都能访问这些工具,并存在敏感数据泄露的潜在风险。
AI加剧网络诈骗:多家知名品牌子域名被劫持发送海量诈骗邮件AI使得
近日,一个名为“SubdoMailing”的大规模广告欺诈活动正在使用8000多个合法互联网域名和1.3万个子域名大量发送垃圾邮件,每天发送量高达500万封电子邮件,用于诈骗和恶意广告盈利。
个人数据被公开!大量车辆与驾驶数据被用来训练 AI 大模型
Cybernews 网站消息,比荷卢经济联盟(Benelux)最大的汽车经销商 Van Mossel 和多家公司使用了一家不知名的数据分析公司的服务来训练人工智能模型,结果将客户数据泄露到了互联网上。
AI 工具恶意应用榜单出炉,政治内容最热门
谷歌DeepMind部门近日开展了业界首个针对AI技术恶意用途的研究,发现人工智能生成的“深度伪造”在模仿政治人物和名人方面远比用于网络攻击的AI应用更为普遍。
微软警告:朝鲜黑客开始运用 AI 加强网络间谍活动
最新微软报告显示,与朝鲜有关的黑客组织开始应用人工智能技术,提高其网络行动的效率和效果。报告指出,这些黑客正在学习利用基于大语言模型(LLM)的 AI 工具,增强网络攻击活动的成效。
黑客利用暴露的云凭证,仅 19 分钟劫持 AI 大模型
最新研究揭示,网络攻击者正利用暴露的云凭证,快速劫持企业的人工智能(AI)系统。这种攻击方式被称为 LLMjacking,主要针对非人类身份(NHIs),如 API 密钥、服务账户和机器凭证,以绕过传统...
LangChain 曝关键漏洞,数百万AI应用面临攻击风险
LangChain是一个流行的开源生成式人工智能框架,其官网介绍,有超过一百万名开发者使用LangChain框架来开发大型语言模型(LLM)应用程序。LangChain的合作伙伴包括云计算、人工智能、数据库和其...