在本年的 KDD 2019 大会中,RealAI(瑞莱才智)拿下了草创公司创业研讨奖,成为四家获奖公司之一。荣获这一数据发掘研讨范畴顶会的奖项,RealAI 却很是低沉。在其当日的大众号推文中仅仅寥寥几句,“未来 RealAI 将继续进行人工智能根底技能的自主研制,在此范畴继续深耕,不断拓宽人工智能的鸿沟。”
RealAI 建立于 2018 年 7 月,尽管建立时刻不长,但其技能布景之强令人咂舌:背靠清华大学 AI 研讨院、团队内 AI 大牛聚集,如中科院院士张钹、曾当选 MIT TR35 的朱军教授、清华特奖获得者田天等等。
图 | RealAI
AI 创业潮淘洗出了一大批依据深度学习的 AI 公司。而依据清华研讨成果,RealAI 却看到以深度神经网络为代表的第二代 AI 算法运用存在的限制,从而比其他团队更深一步,在深度学习办法中融入贝叶斯学习的一些特色,比方对先验信息的结合、对不确定性的剖析等,旨在打造安全、牢靠、可解释的第三代人工智能。而之所以把安全放在第一和根本性的位置,RealAI 也有异样的考量。
AI 技能被乱用
任何新技能都是双刃剑,人工智能也不破例。例如,AI 换脸技能就滋生出一条黑色产业链。《南都周刊》微信大众号在近期转载的一篇推文中说到,许多人开端叫卖 AI 换脸的情色视频、定制视频以及 AI 换脸教程。Deepfake 换脸视频最早呈现在 2017 年末,这些视频经过人工智能算法将一个人的脸组成到另一个人的视频中,由于有满足的练习数据和算力堆集,再加上技能门槛低,这项技能很快就到达了以假乱真的境地乃至不断“黑化”。
图 | 经过 DeepFake 技能,盖尔·加朵的脸被加在了成人女星身上(来历:reddit)
谁也没想到,咱们了解这项技能是从 AI 组成的欧美女星情色片开端的。在美国,这一技能被用来制作色情报复著作。在印度,民族主义者运用 Deepfake 来抹黑和鼓动针对女记者的暴力。
你看到的视频和新闻或许是假的,更可怕的是,你的手机、电脑、智能门锁等等运用了人脸辨认技能的场景或许被他人轻松攻破,银行的身份认证、付出安全防护都或许呈现问题,安防范畴的监控辨认也或许失灵,假造视频绑架勒索变得简略,乃至很简单就能制作社会惊惧。
AI 技能的运用超出鸿沟,产生了严峻的安全问题。一起,AI技 术的乱用还带来了隐私和道德问题。当 AI 开端触碰鸿沟问题的时分,安全性就成为 AI 技能开展过程中有必要考虑的课题。
“此前 AI 安全相关的新闻相对较少,大众并没有意识到 AI 安全损害到底有多大。但最近一段时刻不断涌现的恶性事件,让 AI 安全这一论题从学术圈走到了更大的社会圈。在未来几个月的时刻内,AI 安全或许会构成更大的影响力,社会各界都将意识到这个问题。”RealAI CEO 田天说。
AI 安全的两大问题
实际上,许多场景的安全问题都是传统的深度学习技能难以处理的,有必要经过一些更新、更前沿的人工智能技能才有或许处理。AI 安满是一个全新范畴,不管是进犯检测手法仍是防护手法,要有针对性地进行研讨才有或许处理这些问题。
RealAI 以为,AI 安全问题可以从两个层面来了解,一个是算法自身存在缝隙,另一个是技能被乱用。
AI 算法缝隙方面的学术研讨早已有之,产业界在近些年开端重视。现在 AI 算法安全的首要危险在于对立样本进犯,即经过输入歹意样原本诈骗算法,最终使 AI 体系输出非预期的成果。经过生成对立式图画,可以诈骗人工智能,使 AI 体系辨认过错,比方在身上贴一张纸,就能完成在监控设备下“隐身”。
和其他进犯不同,对立性进犯首要发生在结构对立性数据的时分,之后该对立性数据就如同正常数据相同输入机器学习模型并完成“诈骗”。依据进犯者把握机器学习模型信息的多少,可以分为白盒进犯(在现已获取机器学习模型内部的一切信息和参数根底上进行进犯)和黑盒进犯(在无法获取机器学习模型内部的一切信息和参数根底上的进犯)。
图 | 破解人脸辨认(来历:RealAI)
要防护对立样本,就得经过数据清洗和数据过滤,让算法模型在有对立样本的情况下仍然可以牢靠运转。常用的练习战略包含,练习其他的分类器来检测对立输入和施行对立练习程序。
针对相似 Deepfake 换脸这类 AI 技能被乱用的问题,RealAI 也测验经过技能手法来检测躲避,现在展开了检测换脸假视频的作业,首要运用深度生成模型,经过生成愈加逼真的假视频练习一个愈加鲁棒的模型来检测假视频。“在咱们的数据集上面,检测准确率可以到达99% 以上,可以掩盖市面上绝大多数换脸技能生成的假视频。”RealAI 算法科学家萧子豪说。
图 | 换脸检测(来历:RealAI)
相似的人脸辨认技能现已许多运用在日子、商业的各类场景,比如人脸解锁、刷脸付出、借款身份认证等等。RealAI 现在可以对干流的 AI 人脸辨认技能供给商进行安全评测,并经过 AI 防护技能、“AI 防火墙”有用辨认和回绝进犯者。而在物体辨认方面,针对人工智能体系的假装及检测技能,则可以被运用在隐私维护、公共安全等范畴。
技能乱用方面,萧子豪以为,技能乱用的根本原因在于 AI 技能自身的打破、技能门槛逐步下降,再加上算法的缝隙,所以有了现在越来越严峻的安全问题。
“这会让人觉得眼睛看到的都不是真的,在接收到信息之后都需求先辨别真假,所以技能的乱用会存在许多歹意的要挟。”萧子豪说道。
全新的 AI 安全赛道
AI 技能被乱用,天然催生了 AI 安全的市场需求。
但是,现在许多 AI 公司都会集在运用开发范畴,而专心于 AI 安全研讨,尤其是原创性、立异性技能研讨的公司寥寥无几。RealAI 是国内顶尖的 AI 团队之一,也是 AI 安全范畴处在国际前列的公司。他们以为,人工智能安全未来将会开展到和网络安全平等的规划。
依据清华研讨团队的多年堆集,RealAI 在进犯、防护办法等AI安全研讨方面有着深沉的技能沉淀。在许多国际性 AI 安全大赛上,包含像 Google Brain&NIPS 的 AI 安全比赛、DEFCON 大会 AI 安全大赛等,清华研讨团队曾斩获多项冠军。
需求重视的是,本年 5 月,在张钹院士“第三代人工智能”概念的指引下,RealAI 与清华大学人工智能研讨院联合开发的 RealSafe 人工智能安全渠道正式发布。RealSafe 作为深度学习进犯防护算法与评测的一致渠道,供给多种进犯与防护算法,并交融白盒、黑盒等不同场景,供给全面、详尽的进犯防护算法的评测与比较。
图 | RealAI 会议(来历:RealAI)
关于怎么看待 AI 安全这一全新赛道的未来开展,田天表明,“AI 安满是个很大的范畴,不是某一位研讨者、某一家企业就可以将 AI 安全的一切问题都处理,未来需求更多的人参加进来,一起推进 AI 安全技能的前进。”
而在详细施行层面,田天以为,“首要,咱们不能盲目的以为人工智能技能很强壮,就直接拿来处理各种问题。其次,无论是运用落地仍是技能自身研讨,安全性都有必要作为一个非常重要的考量标准,尤其是进行技能研制时,要有更多安全性的考虑,不能只单纯寻求性能指标的提高。别的便是拟定 AI 安全方面的行业标准是有必要的,要让一切参与者在一致的结构下去评论、落地这个工作。”
最终,田天着重,任何一项技能自身是没有善恶的,从办理标准的视点来说,应该有一些法律法规来引导科技向善,技能方面也要可以“魔高一尺道高一丈”,当进犯技能呈现的时分要有相应的防护技能去抵抗。
-End-
重视 DeepTech
发现改动国际的新式科技
(微信号:deeptechchina)