首页 未命名正文

当技术掌握在坏家伙手里, *** 安全中的AI攻防战

AI研究集团OpenAI上个月发表了一份不寻常的声明: 它说它已经建立了一个基于AI内容创作引擎的功能非常复杂,OpenAI完整的模型不会向开发者公布。

任何在 *** 安全领域工作的人都应该知道一两个原因。Cofense Inc.的一项研究显示,2016年,91%的 *** 攻击都是由钓鱼邮件引发的。TruSTAR Technology LLC数据科学家Nicolas Kseib据说,使用软件机器人从社交 *** 和公共数据库中提取个人信息,并结合强大的内容生成引擎,可能会产生更令人信服的钓鱼电子邮件,甚至模仿某人的写作风格。

潜在的结果是, *** 犯罪分子可以更快、更大规模地发起 *** 钓鱼攻击。

这种危险巧妙地总结了 *** 安全目前所处的无休止的战争状态,在这场战争中,还没有人能够回答一个核心问题:AI它会为犯罪者提供更多的帮助,还是会为 *** 攻击防御者提供更多的帮助?AI这是一种新武器,最终可能会使安全人员领先于对手。但与此同时,专家们担心机器学习和深度学习等人AI技术可能被非法滥用,造成严重后果。

然而,这一争议并没有阻止 *** 安全市场参与者继续AI作为一种营销噱头。本周,当 *** 安全行业从业者聚集在旧金山参加一年一度的活动时,RSA大会(RSA Conference)这一点将是显而易见的。RSA会议是今年 *** 安全行业的大型会议之一。但在这个过程中,他们可能会对该技术产生错误的期望。

MapR Technologies Inc.著名技术专家、银行业高级安全官员John Omernik说现在被吹捧为AI大多数技术只是基于单一数据类型的分类算法。国际数据公司(IDC)安全部门的研究主管Rob Westervelt也认为,“猫捉老鼠的游戏将继续,因为黑客将能够使用工具来避免防御。”

智能攻击

事实上,很多攻击者已经在利用各类工具了。尽管到目前为止,还没有明确的主要由机器学习引发攻击的记录案例,但越来越多的证据表明, *** 犯罪工具正变得越来越智能。例如,去年7月b爆发的Rakhni新版本的木马病毒包含上下文感知功能,安装最适合其感染系统的恶意软件。安装加密货币钱包的计算机也被勒索病毒感染,而其他计算机则选择加密货币挖掘。Bitglass Inc.产品营销经理Jacob Serpa说:“这只是未来可能面临威胁的一个小例子。”

硅谷科技媒体SiliconANGLE大多数专家表示,机器学习和深度学习工具可以提高急需技能的从业者识别和响应目标的能力,并加强对入侵的防御。但他们也指出,AI该技术仍处于相对初级阶段,罪犯尚未充分挖掘其潜力。

随着 *** 犯罪的日益猖獗,以及在黑暗 *** 上提供的恶意培训数据,这些因素可能会有所帮助。始理解现在很重要AI在增强防御能力的同时,仍然不清楚局限性。

寻找模式

许多安全专家嘲笑它“智能”用一个词来描述现在几乎没有两岁儿童认知能力的技术。但他们也同意,机器学习和深度学习可以为组织安全带来价值。机器学习对跨大数据集检测模式非常有用,而深度学习在图像和语音识别方面表现良好。

例如,安全操作中心应该处理它IPS大量错误报警。由于缺乏近200万 *** 安全人员,企业无法承受这些浪费时间。IBMCISOKoos Lodewijkx企业安全数据中心(SOC)近60%的活动是重复的:“检测速度加快,但响应仍然是人类的速度。”

通过培训,机器学习算法可以发现日志数据中与恶意活动相关的可能性较高的模式,使 *** 安全人员能够更好地集中精力处理问题。梳理人类无法处理的大量数据是机器擅长的领域,特别是当它们有机器学习和深度学习的能力时,它们可以在没有显式编程的情况下学习。

*** 安全公司Arkose Labs高级工程总监Anna Westelius说:“人类善于发现模式,但在处理检测中看到的快速类型数据时,不可能牢记属性和模式。”“这就是大规模机器学习模型允许我们做的。”

机器学习的根源在于预测分析,它有助于提高人类操作员的工作效率。Balbix Inc.数据显示,财富(Fortune) 1000强企业平均有云服务、移动 *** 、“物联网”设备及合作伙伴账户。

TruSTAR的Kseib模式检测也可以通过将行为绑定到已知的用户配置文件来检测异常。“当你与公司以外的人分享敏感信息时,你的系统可以检测到并触发一系列防御行为,比如阻止它。”

此外,机器学习可以应用于用户和行为分析,这是一门为用户活动建立基线并检测偏离标准的学科。Experian Corp.根据去年的一项调查,三分之二的受访者认为这是他们安全结构中最薄弱的部分。

DivvyCloud工程VP Scott Totman说:“大多数用户不知道自己犯了错误,从不被告知,从不指导如何纠正错误,也从不学习如何避免错误。”机器学习可用于识别不一致性“创建教育最终用户的反馈循环”。

深度学习(Deep learning)它是人工智能的一个分支。近年来,它在语音和图像识别方面取得了突破,正成为 *** 安全领域的关键武器。它可以改善超定向“钓鱼型”检测电子邮件,加强生物识别等领域的访问控制。

例如,Jumio Corp.您可以使用深度学习将图像和文档识别与用户身份验证相结合。该公司的技术将现场拍摄的 *** 照片与 *** 颁发的身份证进行了比较,以验证用户的身份。该软件可以根据图像质量、用户体重、面部头发增加或减少等因素进行调整。它还可以检测到ID篡改的微妙因素,如字体的微小变化。

供应商的崛起

公司很快就接受了AI用户也开始购买各种产品。最近,云 *** 探测和响应(Network Detection&Response)厂商ProtectWise Inc.最近,对400多名安全人员的一项调查发现,73%的受访者表示,他们至少在某些方面实现了人工智能安全产品。

然而,46%的受访者表示,规则的创造和实施是一项艰巨的任务,四分之一的受访者表示,他们不打算在未来实现更多AI这种技术的相对不成熟是显而易见的。

所以AI前景光明,但在某些领域,它几乎价值,甚至可能带来新的漏洞。当问题领域众所周知,变量变化不大时,机器和深度学习效果相对较好。该算法擅长检测模式的变化,但不擅长识别新模式。Fidelis Cybersecurity Inc.高级产品营销经理Tom Clare说:“你发现未知真的很难。”公司专门从事威胁检测和应对。

安全检测网站SafetyDetective.com数据显示,恶意软件的发生率自2013年以来已经上升了5倍。变量可能会使机器学习算法混淆,这也是它们在打击恶意软件方面价值有限的原因之一。机器学习算法存在“由于恶意软件的训练集变化过快,固有的失败” Malwarebytes 公司CTO Doug Swanson说道,“未来恶意软件模型将与今天几乎完全不同”。

AI该模型依赖于大量高质量的源数据进行训练,这可能会限制它们对已知威胁模式以外的所有威胁模式做出快速反应的能力。“归根结底,(模型)可能又大又慢,”Jumio的科学家Labhesh Patel说。

这样,结果的价值只取决于训练数据。这就是为什么MapR的Omernik建议组织在供应商声称他们有一个全面的AI保持怀疑安全 *** 。

他回忆起自己在两家不同的银行工作的经历。一个是客户主要在当地,另一个是世界各地。“正常情况下,人们会登录非洲或俄罗斯的电脑,”他说这种活动会发送一个IDS,该系统是硬连接的,可以考虑脱轨位置。

必须解决的黑箱

如果机器学习对抗 *** 威胁有用,就不可能像往常一样是黑箱(black box)。人们需要不断关注模型,以确保训练数据完整、相关,不受攻击者的影响。引入错误或误导性数据会导致结果退化或更糟。Arkose Labs的Westelius说:“如果人们过于依赖这项技术,它最终会自学。”“但是机器学习可以重新训练自己,让自己觉得正常的行为不再正常。”

此外,计算机的工作原理也存在一些细微的差异,这与人类的逻辑背道而驰。例如,研究人员演示了将隐藏的命令嵌入普通人类语言甚至音乐中来愚弄语音助手的 *** ,如亚马逊Alexa和苹果的Siri。自动驾驶汽车系统可能会承认错误的道路标志,因为实验者只贴了一些几乎没有注意到的小贴纸。

结果是,强化企业防御的工具也可以用新颖的方式突破。以新颖的方式XEvil例如,它是一种可以用来破译扭曲和模糊字符的验证码,准确率高达90%。它是一种基于深度学习的机器视觉软件的副产品。该软件用于指导自动驾驶汽车,并击败密码身份验证系统中常见的第二道防线。

对一切开放

像许多AI模型一样,XEvil它是开源的,所以“好家伙”和“坏家伙”它可以简单地构建。大多数流行的机器学习模型已经发布到开源软件中,无论是好是坏,这意味着你不知道谁在使用它们。

这一事实引发了IBM Lodewijkx不祥警告。“民主化的知识和技能,”他指出。编程技能一直以数据库为基础,但基于模型的常见 *** 正迅速成为机器学习的主流。“我们从大学雇佣的孩子改变了他们的编程技能,”他说。“这也会影响犯罪。”

机器学习擅长检测模式的变化,但该技术也可用于覆盖轨迹。DivvyCloud的Totman说:“目前,许多罪犯的签名都是基于他们一贯的犯罪行为。”“罪犯可以利用机器随机学习他们的模式,以避免被发现。”

反恶意软件制造商担心AI自变异恶意软件可能会制造,“该软件可以调整检测到的恶意软件的代码,编译和重新部署,以避免进一步检测,”Malwarebytes实验室主任Adam Kujawa说。“这可能发生在眨眼之间,大大增加了我们经常处理的恶意软件的数量。”

大规模假新闻

随着 *** 犯罪越来越专业化“ *** 流氓”的领地,AI潜在的滥用变得更加不安。由于2016年美国总统大选期间的虚假新闻现象,“深假(deep-fake)”技术的出现变得更加严重。“深假”技术通过对图像、视频和声音文件的处理,使事件和行为看似从未真正发生过。到目前为止,这些应用仅限于让名人处于尴尬之中,但同样的技术同样能应用于损害高管和政治人物的声誉。

这又回到了谁将从AI更多的问题:白帽子(white hats,“白客”)还是黑帽子(black hats,“黑客”)?

目前还没有达成共识。几乎每个人都同意,新工具将改善正在进行的军备竞赛的利益。IDC的Westervelt表示:“攻击者将使用它AI创建更好的钓鱼邮件,但安全公司也会更善于发现。”

以同样的方式,云计算使强大的计算机和软件可为一般公司与群众所用,而收益于AI民主安全工的组织往往防御薄弱,Mark Weiner,Balbix的CMO说道。“我认为它有助于支持许多不那么成熟的组织,它的好处大于它给坏家伙带来的机会”,他补充到。

*** 安全风险投资公司Allegis Cyber管理总监Robert Ackerman黑客将迫使组织更多地集中精力保护数据,而不是防止渗透。他说,今天的 *** 安全实践是“一个有1000个漏洞的堤坝,我们四处奔跑,试图把它们都堵住”。

有希望。Ackerman继续说同态加密( homomorphic encryption)其他技术将受到青睐。同态加密技术使数据处于加密状态。其他人看到了对抗机器学习的潜力,使模型相互竞争,试图加强防御。

但所有这些活动都是在多云、移动设备和无数物联网设备的使用带来的复杂性日益增加的背景下进行的。这可不是好兆头。Westervelt说:“连CIO他们都想更精细地控制自己的数据,更不用说人们如何共享和使用这些数据了,这变得非常复杂。”

在 *** 安全领域,复杂性是罪犯的好朋友。

   
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。