2018年,中国信息通信研究院安全研究编制的《人工智能安全白皮书》中提到,“算法安全”是人工智能六大安全风险之一,并着重指出了“对抗样本攻击诱使算法识别出现误判漏判“这一算法模型缺陷为算法安全的重要风险项。
田天介绍,对抗样本是机器学习模型的一个有趣现象,但通过在源数据上增加人类难以通过感官辨识到的细微改变,可以让机器学习模型接受并做出错误的分类决定。
例如,在一张“阿尔卑斯山”的图片上加上一些人眼无法察觉的噪音,正常情况下肉眼仍然能判断这张图显示的是山峰,但是图像分类模型却会将它错误识别为狗。
经过不断的升级演化
对抗样本攻击已经不仅仅停留在数字世界,针对物理世界的攻击也开始出现。
如在路面上粘贴对抗样本贴纸模仿合并条带,误导特斯拉自动驾驶汽车拐进逆行车道;佩戴对抗样本生成的眼镜,轻易破解手机面部解锁;胸前张贴对抗样本贴纸即可实现“隐身”等。
“在网络安全时代,网络攻击的大规模渗透倒逼了杀毒软件的诞生。
”田天说,“针对算法漏洞这一‘新型病毒’,人们同样需要开展安全评估评测能力建设,打造人工智能时代的‘杀毒软件’,以技术手段为支撑,切实规避人工智能算法缺陷可能带来的安全风险。
”依托于清华大学人工智能研究院及自身多年来的技术积累,瑞莱智慧研发的人工智能安全平台,内置了先进的攻防算法模型,为***、企业等提供安全评测与安全防护,高效应对算法威胁。
相较于常见的开源工具需要自行部署、编写代码,这个“杀毒”平台只需要使用者提供相应的数据,就能够在线完成评估,降低了算法评测的技术难度。
该平台支持五种去除对抗噪声的通用防御方法,可对输入数据进行自动去噪处理,破坏攻击者恶意添加的对抗噪声。