工业智能河流需要人工智能安全来像这样保护它们

目前,图像识别、语音识别和自然语言翻译等人工智能技术已经在移动互联网、新兴产业甚至许多传统产业中得到广泛部署和应用。以机器学习和深度学习为核心的人工智能的加速成熟最终迎来了人工智能技术的高潮。

无论是国家、科研机构、科技企业还是各行各业,都在以渴望的热情将人工智能从科研、学术成果推向产业落地。

人工智能技术的普及速度远远快于以往新技术革命带来的产业速度,其应用的规模和深度正被视为电力、石油、互联网等新的生产和生活基础设施。

受到人工智能技术广阔前景的鼓舞,人们开始意识到人工智能技术本身也是一把双刃剑。

人工智能不仅可以促进行业生产效率和数字智能水平的提高,还会带来新的技术风险和隐私伦理问题,成为诈骗犯罪和黑色产品牟利的新工具。

更重要的是,人工智能技术本身有一个很大的隐患。目前主流的深层神经网络等技术具有“黑箱属性”,导致人工智能算法不可解释性。这意味着人工智能技术的算法安全性存在不确定因素,在工业应用中可能存在各种安全隐患和风险。

正如随着计算机技术和互联网的诞生,计算机病毒、网络攻击和其他危及网络安全的技术齐头并进,人工智能技术的出现和发展总是伴随着各种各样的人工智能安全问题。

人工智能技术带来的革命性变化的规模和价值越大,其安全问题造成的严重后果的影响就越大。

在各行各业进行数字化改造和升级的同时,享受着新一轮智能技术红利的人工智能安全,就像网络安全和信息安全一样,被提上了工业数字化建设的日程。

“无形的”人工智能安全风险

谈到人工智能安全,很多人的第一反应可能是人工智能技术引发的欺诈和隐私安全问题,如人脸欺诈、人工智能模仿、人工智能模仿假新闻、图像和视频欺诈等。

事实上,当人们惊叹于几乎无所不能的人工智能技术时,他们可以直观地意识到人工智能欺诈带来的安全问题。毕竟,人工智能欺诈不仅是一个公众舆论的话题,也与公众息息相关。

然而,公众可能对人工智能技术固有的算法安全风险没有非常直观的理解。

这种人工智能的安全风险是因为这些算法被认为是“成熟”的技术,并且被广泛用于工业的各种生产场景中,从而导致具有相同严重后果的更多隐藏的二级安全问题。

首先,人工智能算法本身存在安全漏洞。由于各种机器学习都是高度复杂的,由此产生的“黑箱问题”使得算法无法解释。就像我们在一艘由未知原理制造的引擎驱动的宇宙飞船上。看起来效果还不错,但一旦出现问题,发明者只能从“引擎”之外进行各种“尝试性”修正。

其次,算法的“黑箱问题”会导致各种人工智能系统的安全风险,如恶意机器学习。攻击者可以利用人工智能技术的漏洞来“反击样本攻击”和“数据污染攻击”等手段,这使得人工智能系统存在判断不准确等问题。

最后,当这些人工智能系统被应用到安全监控、工业质量检测、自动驾驶、金融风险控制、医疗诊断等安全要求极高的领域时,一旦人工智能出现误判,将会带来直接的经济和财产损失,甚至会带来人身安全和健康风险等严重后果。

人工智能技术原本打算用于提高生产效率和安全性,但它可能会走向反面。人工智能算法的安全性问题必须引起积极从事智能研究的行业决策者的重视,这个问题也需要人工智能技术研究者的积极响应。

构筑人工智能算法安全的长城

2018年,ICT发布的《人工智能安全白皮书》将“算法安全风险”列为人工智能领域的六大安全风险之一,并指出了人工智能算法中的五大风险:算法黑箱、算法设计缺陷、数据依赖、抗样本攻击和算法判别。

鉴于这些算法的安全风险,对人工智能算法进行安全评估和检测已经成为未来人工智能安全的一个重要发展方向。

目前,由于黑盒和漏洞的存在,在面对攻击者的恶意攻击时,人工智能算法模型很难被检测出来。因此,建立一个可解释的、可追踪的和健壮的人工智能模型已经成为人工智能应用的基本任务。

对抗样本攻击是造成当前人工智能安全风险的主要手段。攻击者在判断阶段会在样本中加入少量的噪声,从而导致算法识别的误判,影响判断结果。提高对样本攻击的防御能力和提供算法漏洞检测技术也成为人工智能安全的重中之重。

随着工业智能的加速,人工智能算法的安全性已经成为行业的现实需求。目前,谷歌、IBM和国内一些人工智能开发公司和团队已经开始了人工智能安全的研究和应用。

据我们所知,在人工智能安全检测领域,来自清华大学人工智能研究所的RealAI已经成为中国第一家专业从事人工智能安全产品商业化的公司。

为了解决人工智能模型的安全检测问题,去年5月,RealAI和清华大学人工智能研究所联合推出了名为“RealSafe”的对抗攻防工具箱,并于近期升级了其攻防能力和用法。

升级后的RealSafe平台是算法模型本身的第一个安全检测平台,提供了从安全评估到防御加固升级的整体解决方案。非技术人员只需几步就能快速应对示例攻击带来的安全威胁

目前,真正安全的安全平台主要可以实现以下三个功能:

1.人工智能算法模型的安全检测。它主要包括提供人工智能算法漏洞检测、全面详细的攻击效果评估和比较、给出模型安全评分和详细的评估报告。该方法主要利用各种主流和自主开发的算法生成模拟攻击的计数器样本,通过黑盒查询攻击方法和黑盒迁移攻击方法实现对人工智能算法模型的检测和评估。

2.直面样本体验。这个功能不难理解。如果你想成为人工智能安全技术的领导者,你还必须知道并掌握最丰富的方法来对抗样本攻击。在去年10月举行的极客2019国际安全极客大赛上,由皇马和清华组成的TSAIL团队获得了“CAAD CTF形象对抗样品挑战赛”和“CAAD隐形挑战赛”的冠军。其中,RealAI团队使用的图像对抗样本可以轻松突破当前主流的人脸识别系统,或者直接欺骗目标检测系统实现“隐身”。

通过反样本和样本噪声清洗的对比体验,RealSafe可以在线直观地向客户和公众展示人工智能反样本的攻防体验,从而提高人们对人工智能安全风险的认识。

3.通用防御解决方案。目前,RealSafe已经能够提供五种通用的抗噪声防御方法,这些方法可以自动对输入数据进行去噪,并破坏攻击者恶意添加的抗噪声。用户可以根据自己对人工智能模型的评估类型选择相应的防御方案。据了解,使用RealSafe平台的防御方案加强后,一些第三方人脸比对应用程序的安全性可以提高40%以上。

对于人工智能算法的安全评估和防御应用,RealSafe平台没有给企业客户提供一套复杂的算法模型和开发工具来部署和开发,而是采用流程化、模块化和零编码的功能设置,用户只需提供相应的数据就可以在线完成评估,大大降低了算法评估的技术难度。

同时,为了降低用户理解的难度,RealSafe还提供了可视化的、定量的评估结果,可以实现对样本攻击的性能评分、对用户行为的改变

在RealSafe已经建成的安全检测平台的基础上,工业领域能实现什么样的人工智能安全保障?

护送人工智能产业

就像技术发展所呈现的矛和盾之间的复杂关系一样,人工智能安全也呈现出一个连续攻击和防御的过程。当新的攻击手段出现时,不可避免地需要新的防御方法来对付它们。

随着人工智能技术的不断成熟及其在工业、金融、安全、交通、医学教育等领域的实际应用。这款人工智能安全攻防游戏将呈现出更加复杂多变的竞争状态。

目前,出现了大量人工智能安全风险,其中许多风险以普通人难以直观理解的方式出现在人工智能应用场景中。

例如,在人脸检测和识别的场景中,攻击者可以通过对人脸的某些部位进行一些修改(如戴上带有对抗样本图案的眼镜),成功地逃脱人工智能系统的识别,从而实现“伪装”和“隐身”。目前,人脸比对识别广泛应用于身份认证、手机解锁、金融远程开户、酒店入住等场景。一旦人脸比对识别被恶意破坏,将对个人信息安全和财产造成不可估量的损失;

在自动驾驶领域,如果在交通标志或其他车辆上粘贴或涂上一些小标记,也可能导致对自动驾驶车辆的错误判断,从而导致严重的交通事故。

在安全领域,攻击者对人脸识别系统的反击也会产生相应的监控漏洞和错误,从而带来相应的安全风险。

目前,RealSafe已经应用于工业、安全等许多领域的安全检测。最近的一个案例可以很好地说明人工智能安全风险检测的重要作用。

电网输电塔监控系统需要全天候实时监控输电塔内外,因为输电塔的安全防护要求很高,以防止起重机、塔吊和烟花损坏输电线路。该实时监控系统由某一目标检测的人工智能算法保证。

RealSafe发现,只要其人工智能算法受到样本攻击,就会导致监控算法失败,因此它无法识别出明显的烟花情况。因此,RealSafe提供了完整的人工智能算法检测和人工智能安全防火墙构建,从而最大限度地保证了监控系统的有效性。

像这些隐藏的人工智能安全风险一样,普通人可能很难理解,但正是这些风险漏洞成为了技术黑客和黑人生产者每天致力于研究的薄弱环节。更不用说,直接利用人工智能技术强大的欺诈能力和低成本的复制能力来发起欺诈活动,如人脸欺诈、语音克隆、手写/邮件伪造等。

然而,这些人工智能算法漏洞所带来的安全风险和人工智能算法滥用所带来的欺诈风险,已经成为现实人工智能及其现实安全平台不断努力克服的安全问题。

作为国内外人工智能安全领域最早的团队,RealAI通过多年对人工智能算法攻防技术的研究,在人工智能安全领域占据了先发优势。目前,RealAI在攻击方面的许多相关技术成果已经在国际顶级学术期刊上发表,形成了行业内的高度竞争壁垒。未来,RealAI还表示,将通过举办一些人工智能安全攻防竞赛,吸引更多人工智能人才参与人工智能安全领域,在RealSafe平台上发现更多安全风险和防御手段,形成更加完善的人工智能安全生态。

RealAI团队还意识到,为了保持RealSafe平台的技术优势,它还必须与工业场景的真实AI安全需求相联系。目前,实莱在工业设备质量检测、金融精准营销、信用风险控制、反欺诈等业务场景中开展了多项业务。人工智能模型的应用不仅可以提高这些行业业务的效益,还可以更好地发现业务本身潜在的安全风险,从而更好地支持算法模型的优化。

如果说工业智能的升级是一条蓄势待发的河流,那么人工智能算法的丰富性拓展了工业智能场景的广度,其成熟性和升级性决定了工业智能的深度,而人工智能算法的安全性和可靠性决定了工业智能的长度。

如果人工智能在工业现场应用中存在致命的安全风险或其他法律和道德风险,将直接导致某项人工智能技术的停滞或延缓人工智能在工业中的大规模应用。

没有必要重复人工智能安全的重要性,但是加强人工智能算法的安全意识,提高人工智能算法在工业应用场景中的安全防护能力,已经是目前非常重要和迫切的要求。

幸运的是,以RealAI为代表的顶尖人工智能团队已经开始了人工智能安全领域的征程,RealSafe平台也正在以标准化、低学习门槛、低成本的应用方式实现人工智能算法检测的产品化服务。

对于人工智能证券市场的先驱来说,这只是一小步。在这场无休止的人工智能安全竞赛中,它也将在未来各行业的智能河流中成长为一个繁荣的地方。