陕西安防资质网

360AI安全研究院发布人脸识别技术风险提示

发表时间:2020-09-04

8月26日,360 AI安全研究院发布了关于人脸辨认技术的研究成果和危险提示。据了解,360 AI安全研究院曾联合清华、西安交大的研究人员发现AI应用中图像缩放模块存在的缝隙,提出了一种新型的数据流降维进犯办法,影响了国内外干流的AI云服务。 


ABUIABACGAAgotyd_gUolMGO8QUw2AQ4zgI.jpg


  在此次ISC 2020 大会的人工智能与安全论坛上,360 AI安全研究院研究员刘昭以某款人脸辨认设备能让恣意人经过为例,阐明不仅AI算法存在缝隙,其所依靠的要害基础设施也相同会被进犯,并进一步揭露了AI要害基础设施存在的安全危险。经过进犯缝隙,终究能够在某人脸辨认设备中完成恣意人员都能经过验证的作用。

  值得关注的是,这种进犯不是针对AI算法的进犯,而是对AI算法所依靠的基础设施进行的进犯。“针对基础设施进犯,终究可能会更快到达进犯作用。”刘昭在讲演中表明,大多数研究人员倾向于对算法安全的研究,比如对立样本进犯、后门进犯等。虽然AI基础设施安全危险巨大,其严重性却容易被忽视。这意味着,AI要害基础设施的三个层面都面对一定安全危险。

  针对深度学习结构安全危险。云端结构安全危险首要来自于自身代码的完成以及第三方的依靠库问题;终端结构安全危险首要存在于模型网络参数、模型网络结构,以及模型转换进程。据了解,360 AI安全研究院已经在多个深度学习结构及其依靠组件中发现了100多个缝隙,如OpenCVhdf5numpy等。

  针对硬件相关的安全危险。据英伟达官网统计,截至今年7月,关于GPU驱动缝隙的数目到达数百个;芯片缝隙以鬼魂、熔断为例,鬼魂缝隙能够造成走漏敏感数据、执行特定代码,熔断缝隙导致用户态获取特权内存的数据,这些缝隙影响了Intel、部分ARM的处理器。

  针对云渠道的安全危险。360 AI安全研究院表明,用于深度学习使命的节点功能强壮,因此总会有一些进犯者想要不合法使用这些资源进行挖矿。

“只有在确保AI体系的安全,才有可能定心享受AI的便当,那么确保体系中AI要害基础设施的安全至关重要。360 AI安全研究院表明,AI要害基础设施的安全问题能够经过权限控制、访问隔离、参数过滤等措施进行缓解,针对AI要害基础设施的安全问题,需求树立多维度、一体化危险评估办法以及对应防御措施。

  下一步,360 AI安全研究院将聚集国内外顶尖人工智能安全创新要素,研究人工智能体系各个环节安全问题,突破人工智能安全攻防重大要害共性技术,构建自动化安全危险评测渠道。

更多安防资讯,关注陕西安防资质申报网!

 

 


分享到:
微信分享 X

打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮

客服

留言