0
本文作者: 李勤 | 2018-03-02 11:57 |
顶尖的网络安全研究人员到底在关注什么哪些研究和安全事件?本期,雷锋网邀请了CGC 机器人竞赛项目 UGA Disekt 的创始人李康从 2 月网络安全领域的大事件及报告中摘选若干信息进行相关阅读推荐。
推荐人简介:李康目前就职于美国乔治亚大学,担任计算机系教授,同时是乔治亚安全与隐私学院的负责人,他关注的研究方向包括系统与网络安全,研究成果发表在多个学术会议上,包括 IEEE S&P,ACM CCS,NDSS 等。另,李康曾受邀在 BlackHat USA 和 ShmooCon 等会议上多次发表演讲。李康具有十几年的 CTF 安全攻防对抗比赛和组织经历,是多只 CTF 战队的创始人,包括 Disekt,SecDawgs,Boyd306战队,同时,他也是清华蓝莲花(Blue-Lotus)战队的启蒙导师和 XCTF 联赛的联合发起人。
推荐阅读:Risk of Trusting the Physics of Sensors.
链接:https://cacm.acm.org/magazines/2018/2/224627-risks-of-trusting-the-physics-of-sensors/fulltext
李康点评:传感器的安全风险在过去被⼤家⼴泛忽视。随着 IoT 万物互联的发展,⼤量传感器在被⼴泛部署。这些设备的可信度直接影响各种 IoT 和智能应⽤的安全性。 最近对智能⾳箱的海豚音攻击,对特斯拉⽆线传感器的致盲攻击,对⼿机指纹传感器的欺骗攻击,都是传感器安全的相关例⼦。
Kevin Fu 和徐⽂渊教授在 Communications of the ACM 2018年⼆⽉期刊上的这篇⽂章是对传感器安全的⼀个精彩总结。
推荐阅读:Feature Squeezing: Detecting Adversarial Examples in Deep Neural Networks
链接:https://evademl.org/docs/featuresqueezing.pdf
项⽬链接: Evade ML https://evademl.org/
李康点评:对抗性机器学习(adversarial learning)是⽬前深度学习⽅⾯⾮常热的安全问题。 对各种深度学习图⽚分类的对抗样本攻击层出不穷。过去有著名的⼤熊猫图片通过干扰变成长臂猿,近期⼜有关于 ICLR 多个防御⼿段被证明效果不佳。
来⾃弗吉尼亚⼤学的许伟林最新的⼯作从特征缩减这个⻆度来提⾼深度学习系统的安全性。由于深度学习模型⼀般采⽤⾮监督模式,不直接设定采⽤哪些特征,所以在分类时往往使⽤了众多并不必须的特征。
这些特征导致攻击者更容易找到对抗样本。特征缩减的⽬的是减少深度学习系统中所使⽤的特征,从⽽增强深度学习抵御对抗样本的能⼒。这个⼯作即将会在 2018 年 2 ⽉在圣地亚哥举⾏的 NDSS ⼤会上发布。
推荐阅读:https://www.nccgroup.trust/globalassets/newsroom/uk/events/2018/02/reconbrx2018-robinhood-vs-cisco-asa.pdf
李康点评: 2018 年 1 ⽉,思科 VPN 爆出远程代码执行和拒绝服务攻击的⾼危漏洞,影响众多使⽤思科 VPN 的企业。 NCC Group 的这个报告详细介绍了该漏洞的发现⽅法、Fuzz环境、漏洞成因以及攻击步骤。 报告有⾮常详细的分析内容,强力推荐给对漏洞发现和利⽤有兴趣的同学。
雷锋网其他相关文章:BAT3 在 IoT 安全上凑齐了,我们问了问李康和杨卿 360 要怎么搞。
想看更多网络安全报道?欢迎关注雷锋网旗下微信公众号“宅客频道”(ID:letshome)。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。