排序
因配置不当,约 5000 个 AI 模型与训练数据集在公网暴露
一名安全研究人员透露,数千个机器学习工具已暴露在开放的互联网中,其中一些还属于大型科技公司。任何人都能访问这些工具,并存在敏感数据泄露的潜在风险。
人工智能在网络安全运营中的作用
安全运营中心(SOC)需要更好地管理要监控的数据规模和日益复杂的威胁。SOC分析师面临着一项艰巨的任务:每天筛选数千个警报——其中大多数是假阳性——同时迅速识别和缓解真正的威胁。
抢占标准制高点,NIST 发布 AI 模型风险测试工具
近日,美国国家标准技术研究院(NIST)重新发布了名为Dioptra的AI模型风险测试平台,用于评估AI风险和恶意攻击,尤其是针对AI模型训练数据的“投毒攻击”。该工具专注于对抗性攻击的测试,提供...
LangChain 曝关键漏洞,数百万AI应用面临攻击风险
LangChain是一个流行的开源生成式人工智能框架,其官网介绍,有超过一百万名开发者使用LangChain框架来开发大型语言模型(LLM)应用程序。LangChain的合作伙伴包括云计算、人工智能、数据库和其...
AI 工具恶意应用榜单出炉,政治内容最热门
谷歌DeepMind部门近日开展了业界首个针对AI技术恶意用途的研究,发现人工智能生成的“深度伪造”在模仿政治人物和名人方面远比用于网络攻击的AI应用更为普遍。
个人数据被公开!大量车辆与驾驶数据被用来训练 AI 大模型
Cybernews 网站消息,比荷卢经济联盟(Benelux)最大的汽车经销商 Van Mossel 和多家公司使用了一家不知名的数据分析公司的服务来训练人工智能模型,结果将客户数据泄露到了互联网上。
英国政府出资 850 万英镑应对人工智能网络威胁
英国承诺投入 850 万英镑资助旨在应对包括深度伪造在内的网络威胁的新型人工智能安全研究。技术部长米歇尔·多尼兰 (Michelle Donelan) 在人工智能首尔峰会上宣布,研究资助将重点关注“系统性...
25位专家联合警告:人工智能安全研究“严重缺乏”
5月21日—22日,第二届人工智能安全峰会正在韩国首尔举行,会议就人工智能的安全性保障、促进创新和包容性未来引领方案等展开讨论。而在此之前,《科学》杂志于5月20日发表了一篇专家论文,呼吁...
揭秘:首个机器人电话黑客
美国联邦通信委员会 (FCC) 已将其首个官方指定的机器人电话黑客命名为“Royal Tiger”,此举旨在帮助国际合作伙伴和执法部门更轻松地追踪重复机器人电话活动背后的个人和实体。Royal Tiger 是一...
人工智能正在摧毁互联网内容生态系统
苹果公司的新iPadPro的广告展示了一台巨型工业液压机如何将人类文化艺术的标志性器具(乐器、书籍、绘画材料等)无情碾压成粉末。该广告一经播出引发了全球文化界的广泛声讨。
微软警告:朝鲜黑客开始运用 AI 加强网络间谍活动
最新微软报告显示,与朝鲜有关的黑客组织开始应用人工智能技术,提高其网络行动的效率和效果。报告指出,这些黑客正在学习利用基于大语言模型(LLM)的 AI 工具,增强网络攻击活动的成效。