加入收藏 | 设为首页 | 会员中心 | 我要投稿 开发网_开封站长网 (http://www.0378zz.com/)- 科技、AI行业应用、媒体智能、低代码、办公协同!
当前位置: 首页 > 大数据 > 正文

产业智能化如何借助人工智能来守护

发布时间:2022-07-05 14:24:14 所属栏目:大数据 来源:互联网
导读:当前,诸如图像识别、语音识别、自然语言翻译等AI技术已经在移动互联网、新型产业甚至众多传统产业领域得到普遍部署和广泛应用。以机器学习、深度学习为核心的第二次人工智能的加速成熟,终于迎来了人工智能技术的高光时刻。 无论是国家、科研机构,还是科技
  当前,诸如图像识别、语音识别、自然语言翻译等AI技术已经在移动互联网、新型产业甚至众多传统产业领域得到普遍部署和广泛应用。以机器学习、深度学习为核心的第二次人工智能的加速成熟,终于迎来了人工智能技术的高光时刻。
 
  无论是国家、科研机构,还是科技企业和各个产业,也都在以满怀憧憬的热情来推动着AI从科研学术成果走向产业落地。
 
 
  当身处数字化转型升级的各个产业正在享受这一波新的智能化技术红利的时候,AI安全问题,就如同网络安全、信息安全一样,被提上产业数字化建设的日程表了。
 
  “看不到”的AI安全风险
 
  提及AI安全问题,很多人第一反应可能是,通过AI技术进行人脸造假、AI仿声、AI仿写假新闻、图像及视频造假等带来的欺诈、隐私安全问题。
 
  确实,当人们惊叹于AI技术几乎快要无所不能的时候,也能很直观地意识到AI造假带来的这类安全问题。毕竟AI造假既有舆论话题,又与大众息息相关。
 
  但是对于AI技术本身所蕴藏的算法安全风险,大众则可能没有非常直观的理解。
 
  而这一AI安全风险,则是因为这些算法被当做“成熟”技术,广泛应用在产业的各个生产场景当中,因而造成更为隐蔽但同样后果非常严重的次生安全问题。
 
  首先,AI算法本身存在安全漏洞。因为各类机器学习的高度复杂,带来的“黑箱问题”使得算法不可解释。这就如同我们乘坐在一架不知道由什么原理制造的发动机驱动的飞船上,看似效果还不错,但是一旦出现问题,发明者也只能从“发动机”外部进行各种“尝试性”修正。
 
  其次,算法的“黑箱问题”会引发各类AI系统安全风险,比如恶意机器学习的产生。攻击者可以利用AI技术漏洞进行“对抗样本攻击”和“数据污染攻击”等种种手段,使得AI系统出现判断失准等问题。
 
  最后,当这些AI系统应用于某些安全性要求极高的领域,比如安防监控、工业质检、自动驾驶、金融风控以及医疗诊断上面,一旦AI出现判断偏差,将会带来直接的经济财产损失,甚至是人身安全与健康风险等严重后果。
 
  原本要应用于提升生产效率和安全性的AI技术,却有可能走向自身的反面。AI算法安全问题必须引起这些积极投入智能化的产业决策者的重视,同样这一问题也需要得到来自AI技术研究者的积极回应。
 
  建造AI算法安全的长城
 
  在2018年,信通院发布的《人工智能安全白皮书》就将“算法安全风险”列为AI领域的六大安全风险之一,指出AI算法当中存在的五种风险:算法黑箱、算法设计缺陷、数据依赖、对抗样本攻击、算法歧视。
 
  针对这些算法安全风险,提供AI算法的安全评估检测成为未来的AI安全的重要发展方向。
 
  当前,AI算法模型,由于算法黑箱和算法漏洞的存在,面对攻击者恶意攻击难以被检测。因此,建立可解释、可溯源、鲁棒性强的AI模型成为AI应用落地的根本任务。
 
  而对抗样本攻击又是造成当前AI安全风险中的主要手段 。攻击者可以在判断阶段对样本加入少量噪音,诱导算法识别出现误判,影响判断结果。提升对抗样本攻击的防御手段,提供算法漏洞检测技术,也成为AI安全的当务之急。
 
  随着产业智能化落地的加速,AI算法安全已经成为一个产业现实的需求。当前,像谷歌、IBM以及国内的一些AI开发的公司和团队,也早已展开了相关AI安全的研究和应用。
 
  据我们了解,在AI安全检测领域,一家背景源自清华大学人工智能研究院的RealAI,则成为国内第一家专门进行AI安全产品商业化的公司。
 
  为解决AI模型安全检测问题,RealAI在去年5月与清华大学人工智能研究院联合推出一款名为“RealSafe”的对抗攻防工具箱,并于近日就攻防能力和使用方式进行了全面升级。
 
  升级后的RealSafe平台是目前首个针对算法模型本身安全的检测平台,提供从安全测评到防御加固升级整体解决方案。非技术人员仅需几步即可快速应对对抗样本攻击带来的安全威胁
 
  目前来说,RealSafe安全平台主要可以实现以下三大功能:
 
  1、AI算法模型的安全检测。主要包括提供AI算法漏洞检测,以及全面、细致的攻击效果评测与比较,给出模型安全评分及详细的测评报告。其方法主要是利用多种主流和自研的算法生成对抗样本进行模拟攻击,通过黑盒查询攻击方法与黑盒迁移攻击方法,来实现AI算法模型的检测评估。
 
  2、对抗样本体验。这一功能并不难理解。想要成为AI安全技术的领先者,也必然了解和精通最丰富的对抗样本攻击手段。在去年10月举办的GeekPwn2019国际安全极客大赛上,RealAI与清华大学共同组成的TSAIL战队获得“CAAD CTF 图像对抗样本挑战赛”以及“CAAD 隐身挑战赛”两项比赛的冠军。其中,RealAI团队所使用的图像对抗样本,可以轻易攻破目前主流的人脸识别系统,或者直接骗过目标检测系统而实现“隐身”。
 
 
  为AI产业落地保驾护航
 
  正如技术发展呈现的“矛与盾”的复杂关系,AI安全也同样呈现出一种持续攻防的过程。新的攻击手段出来,也必然要求有新的防御方法去应对。
 
  随着AI技术不断地成熟,以及在工业、金融、安防、交通、医疗教育等领域的实际应用,这场AI安全的攻防赛就会以一种更加复杂和多变的竞对状态呈现出来。
 
  目前,大量的AI安全风险已经出现,而且很多以常人难以直观理解的方式出现在AI的应用场景当中。
 
  比如,在人脸检测和识别场景,攻击者只要对面部的某些部位做出一点修改(比如佩带带有对抗样本图案的眼镜),就可以成功逃脱AI系统的识别,从而实现“伪装”和“隐身”。而目前人脸比对识别被广泛应用在于身份认证、手机解锁、金融远程开户、酒店入住登记等等场景,一旦人脸比对识别被恶意攻破,将会对个人信息安全、财产造成难以估计的损失;
 
  在自动驾驶领域,如果在交通指示牌或其他车辆上贴上或涂上一些小标记,也可能导致自动驾驶车辆产生错误判断,可能会导致严重的交通事故。
 
  而对于安防领域,攻击者对于人脸识别系统的对抗攻击,也会产生相应的监控漏洞和失误,从而带来相应的安全风险。
 
  目前,RealSafe已经应用在工业、安防等多场景的安全检测当中。其中最新落地的一个案例,可以很好地说明AI安全风险检测的重要作用。
 
  某电网的输电塔的监控系统,由于输电塔的高安全性防护要求,防止吊车、塔吊、烟火破坏输电线路,需要对输电塔内外进行全天候的实时监控。而这一实时监控系统已经交由某一目标检测的AI算法来提供保障。
 
 
  RealAI团队也意识到,保持RealSafe平台的技术优势,也必须同产业场景真实的AI安全需求联系起来。目前,RealAI已经在工业设备质检、金融精准营销、信贷风控、反欺诈等业务场景开展了多项业务。通过AI模型应用对这些产业业务本身带来效益提升外,同时也将能够更好地来发现业务本身可能存在的安全风险漏洞,反过来可以更好地支持算法模型优化。
 
  如果将产业智能化升级看作一条蓄势向前的河流,那么,AI算法的丰富拓展了产业智能化场景的广度,其成熟和升级决定了产业智能化的深度,而AI算法的安全可靠,则决定了产业智能化的长度。
 
  如果在AI的产业场景应用中,一旦存在着致命的安全风险或者其他法律、道德风险,那么将直接造成某一项AI技术停滞或者AI在产业规模化应用的延迟。
 
  AI安全的重要性再无须赘述了,而加强AI算法安全意识,提升产业应用场景下的AI算法安全防护能力,则已经是当下非常重要而紧迫的要求了。
 
  幸而,以RealAI为代表的这些顶尖AI团队早已开始了这一AI安全领域的征程,RealSafe平台也正在以标准化的、低学习门槛、低成本应用的方式来实现AI算法检测的产品化服务。
 
  这些仅仅是AI安全市场先行者走出的一小步。而这场无止境的AI安全较量中,也必将在未来各个产业智能化的大江大河中,成长为一块丰沃之地。
  

(编辑:开发网_开封站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读