防御人工智能最好的办法,也是人工智能!

admin发布

这是一场进攻AI和防守AI的算法大战,这也可能是一次未来网络安全和网络战的预演。

这场竞赛将在接下来的5个月里进行,它的组织者是Kaggle。其实Kaggle是一个数据科学的竞赛平台。在比赛中,研究人员的算法会为了迷惑和欺骗对方而展开激烈斗争。组织者的愿望是:这场斗争能促使人们对“如何强化机器学习系统”产生更深刻洞见,以抵御未来的网络攻击。

怀俄明大学副教授Jeff Clune主要研究机器学习的局限性,他说:“通过研究去促进两个对立面的发展——一方面是愚弄深度神经网络,另一方面却是设计一种无法被愚弄的深度神经网络。这真是一个绝妙的想法。”

这次比赛由三个挑战项组成:一个挑战是简单地迷惑机器学习系统,使它不能正常工作;另一个是试图强迫系统对某些东西进行不正确的分类,第三个挑战项目则是开发最强大的防御系统。比赛结果将在今年晚些时候召开的一次大型人工智能会议上公布。

防御人工智能最好的办法,也是人工智能!

机器学习,尤其是深度学习,正迅速成为许多行业不可或缺的工具。该技术主要是指将数据输入一种特殊的计算机程序,指定一个特定的结果,并让机器自己开发一种算法来实现结果。深度学习是通过调整一个巨大的、神经元网络数学模型参数来实现的。

人们早就知道机器学习系统可以被愚弄和欺骗。例如,通过找出过滤器的识别模式算法,垃圾邮件制造者完全可以避过现代的垃圾邮件过滤器。

但是,近年来研究人员已经证明,即便是最聪明的算法,有时也会被令人吃惊的方法误导。例如,具有近似人类的图像识别能力的深度学习算法,也可能会被看似抽象或随意的图像所欺骗,这些图像正是利用了深度学习算法开发的低级模式。

这场比赛的组织者,也是研发机器学习的谷歌大脑研究员Ian Goodfellow说:“研究对抗式的机器学习比传统的机器学习更困难,因为很难分辨到底是你的攻击能力太强,还是你的防御能力太弱。”

随着机器学习的普及,人们担心这种攻击会被用于营利或纯粹的恶作剧。例如,黑客可能会不采取任何安全措施,而直接安装恶意软件。

Goodfellow说:“计算机安全的发展方向一定是机器学习,坏人将通过机器学习让他们的攻击自动化,我们却是使用机器学习来进行防御。”

理论上讲,犯罪分子也可以欺骗声音和面部的识别系统,甚至在自动驾驶汽车上张贴海报来欺骗视觉系统,导致其崩溃。

Kaggle是算法发展进步的孵化器,也是滋养优秀数据科学家的温床。该公司于3月被谷歌收购,现在是谷歌云平台的一部分。在收购Kaggle前,Goodfellow和另一位谷歌大脑研究员Alexey Kurakin就一起提交了关于开办这场竞赛的方案。

Kaggle的联合创始人和首席技术官Benjamin Hamner说,他希望这场比赛会吸引人们关注一个迫在眉睫的问题:“随着机器学习的应用越来越广泛,从对抗性学习中理解问题和风险变得越来越重要。”

公开赛的好处胜过了“宣传新型网络攻击”带来的风险,他补充说:“我们相信对这项研究来说,公开的创造和分享才是最好的方式,不应该闭门造车。”

同时,Clune表示,他很希望通过这场比赛测试那些声称可以抵抗攻击的算法。他说:“在可预见的未来,我敢打赌神经网络还是会被继续愚弄。”