你好,游客 登录
背景:
阅读新闻

北美安全大师荐读:可关注传感器、深度学习安全等这些研究

[日期:2018-03-01] 来源:雷锋网  作者: [字体: ]

  顶尖的网络安全研究人员到底在关注什么哪些研究和安全事件?本期,雷锋网邀请了CGC 机器人竞赛项目 UGA Disekt 的创始人李康从 2 月网络安全领域的大事件及报告中摘选若干信息进行相关阅读推荐。

  推荐人简介:李康目前就职于美国乔治亚大学,担任计算机系教授,同时是乔治亚安全与隐私学院的负责人,他关注的研究方向包括系统与网络安全,研究成果发表在多个学术会议上,包括 IEEE S&P,ACM CCS,NDSS 等。另,李康曾受邀在 BlackHat USA 和 ShmooCon 等会议上多次发表演讲。李康具有十几年的 CTF 安全攻防对抗比赛和组织经历,是多只 CTF 战队的创始人,包括 Disekt,SecDawgs,Boyd306战队,同时,他也是清华蓝莲花(Blue-Lotus)战队的启蒙导师和 XCTF 联赛的联合发起人。

传感器

  1.关于传感器的安全风险

  推荐阅读:Risk of Trusting the Physics of Sensors.

  链接:https://cacm.acm.org/magazines/2018/2/224627-risks-of-trusting-the-physics-of-sensors/fulltext

  李康点评:传感器的安全风险在过去被⼤家⼴泛忽视。随着 IoT 万物互联的发展,⼤量传感器在被⼴泛部署。这些设备的可信度直接影响各种 IoT 和智能应⽤的安全性。 最近对智能⾳箱的海豚音攻击,对特斯拉⽆线传感器的致盲攻击,对⼿机指纹传感器的欺骗攻击,都是传感器安全的相关例⼦。

  Kevin Fu 和徐⽂渊教授在 Communications of the ACM 2018年⼆⽉期刊上的这篇⽂章是对传感器安全的⼀个精彩总结。

  2. 深度学习安全—特征缩减

  推荐阅读:Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks

  链接:https://evademl.org/docs/featuresqueezing.pdf

  项⽬链接:Evade ML https://evademl.org/

  李康点评:对抗性机器学习(adversarial learning)是⽬前深度学习⽅⾯⾮常热的安全问题。 对各种深度学习图⽚分类的对抗样本攻击层出不穷。过去有著名的⼤熊猫图片通过干扰变成长臂猿,近期⼜有关于 ICLR 多个防御⼿段被证明效果不佳。

  来⾃弗吉尼亚⼤学的许伟林最新的⼯作从特征缩减这个⻆度来提⾼深度学习系统的安全性。由于深度学习模型⼀般采⽤⾮监督模式,不直接设定采⽤哪些特征,所以在分类时往往使⽤了众多并不必须的特征。

  这些特征导致攻击者更容易找到对抗样本。特征缩减的⽬的是减少深度学习系统中所使⽤的特征,从⽽增强深度学习抵御对抗样本的能⼒。这个⼯作即将会在 2018 年 2 ⽉在圣地亚哥举⾏的 NDSS ⼤会上发布。

  3. 思科 VPN 系统

  推荐阅读:https://www.nccgroup.trust/globalassets/newsroom/uk/events/2018/02/reconbrx2018-robinhood-vs-cisco-asa.pdf

 

  李康点评:2018 年 1 ⽉,思科 VPN 爆出远程代码执行和拒绝服务攻击的⾼危漏洞,影响众多使⽤思科 VPN 的企业。 NCC Group 的这个报告详细介绍了该漏洞的发现⽅法、Fuzz环境、漏洞成因以及攻击步骤。 报告有⾮常详细的分析内容,强力推荐给对漏洞发现和利⽤有兴趣的同学。

收藏 推荐 打印 | 录入:Cstor | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款