拥有智能产业的大河需要人工智能安全来保护它们

目前,图像识别、语音识别和自然语言翻译等人工智能技术已经在移动互联网、新兴产业甚至许多传统产业中得到广泛部署和应用。以机器学习和深度学习为核心,第二代人工智能加速走向成熟,最终迎来了人工智能技术的辉煌时刻。

无论是国家、科研机构、科技企业还是各行各业,都在以极大的热情把人工智能从科研、学术成果推向产业落地。

人工智能技术的普及速度确实远远快于以往新技术革命带来的工业速度。其应用的规模和深度也被视为生产和生活的新基础设施,如电力、石油和互联网。

受到人工智能技术广阔前景的鼓舞,人们开始意识到人工智能技术也是一把双刃剑。

人工智能不仅能促进生产效率和行业数字化、智能化水平的提高,还会带来全新的技术风险和隐私伦理问题。它已经成为诈骗犯罪和从黑色产品中获利的新工具。

更重要的是,人工智能技术本身也有一个大问题。当前主流的深层神经网络等技术的“黑箱属性”导致了人工智能算法的不可解释性。这也意味着人工智能技术在算法安全性方面存在不确定因素,这可能导致工业应用着陆中的各种安全隐患和风险。

正如随着计算机技术和互联网的诞生,计算机病毒、网络攻击等危及网络安全的技术将随之而来一样,人工智能技术的出现和发展也将伴随着各种各样的人工智能安全问题。

人工智能技术给行业带来的革命性变化的规模和价值越大,其安全问题造成的严重后果的影响就越大。

当各行各业正在进行数字化改造和升级,享受着新一轮智能技术红利的时候,人工智能安全问题,如网络安全和信息安全,已经被提上了工业数字化建设的日程。

“无形”人工智能安全风险

谈到人工智能安全问题,很多人的第一反应可能是人脸欺诈、人工智能模仿声音、人工智能模仿假新闻、图像和视频欺诈等带来的欺诈和隐私安全问题。通过人工智能技术。

事实上,当人们惊叹人工智能技术几乎无所不能时,他们也能直观地认识到人工智能欺诈带来的安全问题。毕竟,人工智能欺诈不仅是一个公众舆论的话题,也与公众息息相关。

然而,公众可能对人工智能技术固有的算法安全风险没有非常直观的理解。

这种人工智能的安全风险是由于这些算法被认为是“成熟”的技术,并广泛应用于工业中的各种生产场景,从而导致更多隐藏的二级安全问题,并带来非常严重的后果。

首先,人工智能算法本身存在安全漏洞。由于各种机器学习的高度复杂性,所带来的“黑箱问题”使得算法令人费解。这就像乘坐由发动机驱动的宇宙飞船,我们不知道它是由什么原理组成的。看起来效果还不错,但是在出现问题的情况下,发明人只能从“引擎”之外进行各种“尝试性”的修正。

其次,算法的“黑箱问题”会造成各种人工智能系统的安全隐患,如生成恶意机器学习。攻击者可以利用人工智能技术的弱点来实施各种方法,如“反样本攻击”和“数据污染攻击”,使人工智能系统误判等。

最后,当这些人工智能系统被应用到某些具有极高安全要求的领域时,如安全监控、工业质量检测、自动驾驶、金融风险控制和医疗诊断等,一旦人工智能被错误地判断,将会带来直接的经济和财产损失,甚至会带来严重的后果,如人身安全和健康风险。

人工智能技术原本旨在提高生产效率和安全性,但很可能会弃之不顾。人工智能算法的安全问题必须引起那些积极投资智能的行业决策者的注意,这个问题也需要人工智能技术研究者的积极响应。

建筑

2018年,在信息与通信技术研究所发布的《人工智能安全白皮书》中,“算法安全风险”被列为人工智能领域的六大安全风险之一,指出了人工智能算法中的五大风险:算法黑盒、算法设计缺陷、数据依赖、抗样本攻击和算法判别。

针对这些算法的安全风险,对人工智能算法进行安全评估和检测将成为未来人工智能安全的一个重要发展方向。

目前,由于算法黑盒和算法漏洞的存在,人工智能算法模型很难检测出针对攻击者的恶意攻击。因此,建立可解释的、可追踪的和健壮的人工智能模型已经成为人工智能应用着陆的基本任务。

然而,对抗样本攻击是造成当前人工智能安全风险的主要手段。攻击者在判断阶段会在样本中加入少量噪声,导致算法识别误判,影响判断结果。提高对样本攻击的防御能力和提供算法漏洞检测技术也是人工智能安全的重中之重。

随着行业智能登陆的加速,人工智能算法的安全性已经成为行业的现实需求。目前,谷歌、IBM等公司和团队以及国内一些人工智能开发公司已经开始研究和应用人工智能安全。

据我们所知,在人工智能安全检测领域,起源于清华大学人工智能研究所的RealAI已经成为中国第一家专业从事人工智能安全产品商业化的公司。

为了解决人工智能模型的安全检测问题,去年5月,RealAI和清华大学人工智能研究所联合推出了“RealSafe”反攻击工具箱,并于近期升级了其攻击防御能力和用途。

升级后的RealSafe平台是目前第一个针对算法模型本身安全性的检测平台,提供了从安全评估到防御加固升级的整体解决方案。非技术人员只需几步就能快速应对示例攻击带来的安全威胁

目前,真正安全的安全平台主要可以实现以下三个功能:

1.人工智能算法模型的安全检测。主要包括人工智能算法漏洞检测、全面详细的攻击效果评估与比较、模型安全评分和详细的评估报告。该方法主要是利用各种主流和自主开发的算法生成反样本来模拟攻击,并通过黑盒查询攻击方法和黑盒迁移攻击方法来实现对人工智能算法模型的检测和评估。

2.直面样本体验。这个功能不难理解。如果你想成为人工智能安全技术的领导者,你还必须了解和掌握抵御样本攻击的最丰富的手段。在去年10月举行的极客2019国际安全极客大赛上,由RealAI和清华大学联合组建的TSAIL团队赢得了“CAAD CTF形象对抗样品挑战赛”和“CAAD隐形挑战赛”。其中,RealAI团队使用的图像对抗样本可以轻松突破当前主流的人脸识别系统,或者直接欺骗目标检测系统实现“隐身”。

通过反样本和反样本噪声清洗的对比经验,RealSafe可以直观地将人工智能反样本攻击和防御的经验在网上呈现给客户和公众,从而提高人们的人工智能安全风险意识。

3.通用防御解决方案。目前,RealSafe已经能够提供五种通用的抗噪声防御方法,并能够实现输入数据的自动去噪和破坏攻击者恶意添加的抗噪声。用户可以根据自己人工智能模型的评估类型选择相应的防御方案。据了解,一些第三方的人脸比较API在经过了真实安全平台的防御方案的强化后,安全性可以提高40%以上。

对于人工智能算法的安全评估和防御应用,RealSafe平台没有为企业客户提供一套复杂的算法模型和开发工具来重新部署和开发,而是采用了流程化、模块化和零编码的功能设置。用户只需提供相应的数据就可以在线完成评估,大大降低了算法评估的技术难度。

同时,为了降低用户的理解难度,RealSafe还提供了可视化的定量评估结果

在RealSafe已经完成的安全测试平台之上,哪些工业领域可以实现人工智能安全保障?

为人工智能产业的登陆保驾护航

就像技术发展所呈现的“矛与盾”之间的复杂关系一样,人工智能安全也呈现出一个不断攻击和防御的过程。新的攻击手段将不可避免地需要新的防御方法来对付它们。

随着人工智能技术的不断成熟及其在工业、金融、安全、交通、医学教育等领域的实际应用,这种人工智能安全攻防竞争将呈现出更加复杂多变的竞争态势。

目前,已经出现了大量的人工智能安全风险,并且许多风险以普通人难以直观理解的方式出现在人工智能应用场景中。

例如,在人脸检测和识别场景中,攻击者只要对人脸的某些部分进行一些修改(如戴上反样本图案的眼镜),就可以成功地逃脱人工智能系统的识别,从而实现“伪装”和“隐身”。目前,人脸比对识别广泛应用于身份认证、手机解锁、金融远程开户、酒店入住登记等场景。一旦人脸比对识别遭到恶意破坏,将会给个人信息安全和财产造成不可估量的损失。

在自驾车领域,如果交通标志或其他车辆被粘贴或涂上一些小标记,也可能导致对自驾车的错误判断,从而导致严重的交通事故。

在安全领域,攻击者对人脸识别系统的攻击也会产生相应的监控漏洞和错误,从而带来相应的安全风险。

目前,RealSafe已经应用于工业、安防等多种场景的安全检测。最近的一个着陆案例可以很好地说明人工智能安全风险检测的重要作用。

电网输电塔监控系统需要对输电塔内外进行全天候实时监控,以防止因输电塔安全防护要求高而导致起重机、塔吊和烟花损坏输电线路。然而,这种实时监控系统已经被用于目标检测的人工智能算法所保证。

RealSafe发现,只要其人工智能算法受到某些反样本攻击,就会导致监控算法失败,从而无法识别非常明显的烟花情况。为此,RealSafe提供了完整的人工智能算法检测和人工智能安全防火墙构建,从而最大限度地保证了监控系统的有效性。

这种隐藏的人工智能安全风险对普通人来说可能很难理解,但正是这些风险漏洞成为黑客和黑人制造商每天潜心研究的薄弱环节。更不用说,直接利用人工智能技术强大的伪造能力和低成本的复制能力来发起欺诈活动,如人脸欺诈、语音克隆、手写/电子邮件伪造等。

然而,这些人工智能算法漏洞所带来的安全风险和人工智能算法滥用所带来的欺诈风险,已经成为现实人工智能及其现实安全平台不断努力克服的安全挑战。

作为国内外第一个关注人工智能安全领域的团队,凭借多年来对人工智能算法攻防技术的研究,RealAI在人工智能安全领域处于领先地位。目前,RealAI在攻击方面的许多相关技术成果已经在国际顶级学术期刊上发表,形成了行业内较高的竞争壁垒。未来,实莱还表示将举办一些人工智能安全攻防竞赛,以吸引更多人工智能人才参与人工智能安全领域。基于真实安全的平台将发现更多的安全隐患和防御措施,从而形成更加完善的人工智能安全生态。

RealAI团队还意识到,维护RealSafe平台的技术优势也必须与工业现场的真实人工智能安全需求相联系。目前,实莱已经开展了工业设备质量检测、金融精准营销、信用风险控制、反欺诈等多项业务场景。人工智能模型的应用不仅会给这些工业企业带来好处,还能更好地发现企业自身可能存在的安全风险漏洞,从而更好地支持优化

如果说工业智能的升级是一条蓄势待发的河流,那么人工智能算法的丰富性扩大了工业智能场景的范围。它的成熟和升级决定了工业智能的深度,而人工智能算法的安全性和可靠性决定了工业智能的长度。

如果人工智能在工业场景应用中存在致命的安全风险或其他法律和道德风险,将直接导致某项人工智能技术停滞或延缓人工智能在工业中的大规模应用。

人工智能安全的重要性不言而喻,但在工业应用场景中,增强人工智能算法的安全意识和提高人工智能算法的安全防护能力是非常重要和迫切的要求。

幸运的是,以RealAI为代表的顶尖人工智能团队已经开始了他们在人工智能安全领域的旅程,并且RealSafe平台也正在以标准化、低学习阈值和低成本的应用方式实现基于产品的人工智能算法检测服务。

这些只是人工智能证券市场先驱们迈出的一小步。在这场永无止境的人工智能安全竞赛中,它必将成长为未来智能产业大河流中的沃土。