首页 > 金融故事 > 正文

专访瑞莱智慧CEO田天:人工智能是新时代的“火”,益或害取决于手持火把的人

人工智能(AI)时代正在到来。

随着人工智能技术在越来越多场景中的落地,人们的便捷生活也越来越依赖于人工智能,甚至在一些人们难以意识到的时刻,人工智能都在发挥着重要作用,比如GPS导航、出行规划、个性化推荐、翻译等等。

同时,因为人工智能越来越广泛地被使用,关于人脸识别的滥用、算法的不公平性、隐私数据泄露等问题也成为人们关注的焦点。而人工智能从业者们,则开始呼吁行业重视人工智能的安全攻防与治理工作。

瑞莱智慧是清华大学人工智能研究院孵化的产学研技术企业,成立于2018年,是国内首家安全可控人工智能系统提供商。

近日,在接受《每日经济新闻》(以下简称NBD)记者专访时,瑞莱智慧CEO田天谈到了自己对人工智能安全攻防危害以及人工智能的治理等的看法。

谈人工智能安全:尚需不断迭代、博弈、对抗

NBD:人工智能的安全可控是指什么?

田天:“安全”是指打造数据安全和算法安全两大核心能力,解决数据强依赖带来的隐私泄漏与数据投毒等隐患,同时提升算法的鲁棒性(注:Robust的音译,指系统的健壮性)与可靠性。

首先是算法可靠,其实算法有很多隐患,和传统程序不同,AI从数据中学习,存在很多人不理解的部分,这些部分存在被黑客误导的空间,所以首先要提升算法可靠性。另一方面是数据安全,AI是基于大数据,但不能因为做AI,就侵犯用户隐私。

“可控”既指应用层面的合规可控,更指核心技术的自主可控。现在的AI能力很强,有人会把AI用在一些不合理或不合法的场景,比如伪造画面、视频,或有些带有歧视性的应用等,这些需要专门的治理技术以及和法律法规配合,提升对于AI的应用管控。

NBD:安全攻防是近年来AI领域最前沿的技术方向之一,这其中实际的安全危害都有什么?

田天:目前,通过对抗性数据污染、算法修改、恶意样本攻击等方式对AI算法进行深层次攻击已经成为主要趋势。

比如我们可以通过佩戴带有特定图案的眼镜等,攻破手机解锁、线上身份认证、线下安防等领域的AI系统,让安全验证形同虚设,严重威胁人身和财产安全。

再比如,在交通领域,车辆的辅助驾驶或自动驾驶系统也可能因为AI算法自身的缺陷而丧失正常的视觉识别能力,错误识别交通指示牌、“看不到”大型障碍物等,引发交通事故。

NBD:对于这些危害,我们有什么应对方法?

田天:技术问题需要依赖技术手段来解决,在互联网时代有网络安全公司提供相关的网络安全产品和组件,在AI时代也应该提供专门针对AI系统的杀毒软件,为算法模型提供安全检测与防御升级功能,不断提升安全性。

NBD:用AI去解决 AI的危害,会不会用来解决危害的技术本身也有一些我们没有发现的危害?

田天:肯定会的,但安全的本质是攻防升级,至少在目前情况下还是需要不断迭代、博弈对抗的,不可能一下子把它做到完美。当然,提供真正安全可靠的人工智能,是我们的长期目标,也是第三代人工智能核心要解决的问题。

谈算法公平性:已有成熟技术方案

NBD:你觉得人工智能在隐私保护和便利生活这两者之间达到一个平衡了吗?

田天:可以说是动态平衡。现在对于数据的应用还远远不够,仍有很多要去挖掘的新数据类型或新应用场景。如果我们把应用限制在当前范围内,可能已经平衡了,但在新的应用、新的场景上,一些更关键的个人信息数据怎么去使用、需要什么新要求,还需要再思考。

最近一段时间,很多AI安全问题陆续暴露出来,大家开始做治理,这是一个很好的时间点,因为如果再不做的话,可能就会产生信任危机,很多东西就都没法再使用、再发展了。

NBD:算法越来越被广泛应用的同时,也带来了很多伦理上的争议,比如人脸识别等,你怎么看这背后的问题?

田天:这其实是一个关于算法公平性的问题,和大数据杀熟、人脸识别系统对不同人种识别准确率不同所带来的争议一样。

这些问题有的是系统设计者刻意设置的,这种情况超出了技术讨论的范畴。也有的是算法在运行过程中不自觉产生的倾向,比如基于算法推荐的新闻APP,如果完全对它不加限制,仅仅追求优化点击率,它可能就会一直推各种抓眼球的假新闻等等,这就属于技术治理的范畴。

我们在做算法设计的过程中,不能只考虑收益上的指标,同时也要考虑到它对于所有使用者是不是公平、是不是在法律和道德框架之内。这些问题在发展技术之初没有被作为重要选项去考虑,但是我们认为后续肯定需要把它们加进来。

NBD:加进来的过程会很漫长吗?

田天:我觉得不会很漫长。因为在技术上其实已经有成熟的方案,只是之前大家没去用。我也希望行业能逐步建立一种共识,可能有的行业是发展到很稳定的状态之后,才会重点考虑治理问题,在前期更多是野蛮生长状态。但AI涉及很多非常敏感的因素,希望大家在更早的时候就关注到这些问题。

谈人工智能治理:技术治理至关重要

NBD:人工智能的研究与开发,应该在多大程度上受到监督,由谁来做监督工作?

田天:从政府层面,其实国家已经在做了,包括一些法律法规,《中华人民共和国网络安全法》、《中华人民共和国数据安全法》以及正在审议的《个人信息保护法(草案)》等,这些都涉及AI领域的管控。

从产业角度,通过行业协会、联盟、宣言等形式,大家要形成一种自治的氛围,制定从业者能够共同坚守的准则。

从用户的角度也应该进行监督,因为最终影响的还是大家日常生活的一些很实际、具体的利益。

NBD:在这其中科技公司具体应该承担什么样的责任?

田天:首先像我们这样专门从事人工智能的公司,一方面要保证自己做的人工智能解决方案和应用完全合规,另外也要对外输出合规的解决方案。人工智能企业是人工智能技术发展的中坚力量,理应成为人工智能安全治理的践行者。

还有一些科技公司作为用户方,它们采购方案、建设AI系统时,应该把是否安全可靠可信、是否保护隐私,作为关键的因素来考虑,这样对企业自身以及整个行业来说都是好事。

NBD:作为一家科技公司的负责人,你觉得技术对于人工智能治理的重要性在哪里?

田天:人工智能对社会带来的一些风险,其实恰恰是因为技术局限性或者先天缺陷。因此,技术治理对于人工智能的治理来说至关重要。人工智能治理,是一项系统化工程,既需要法律规制、伦理规范,更需要技术防范,这是“魔高一尺、道高一丈”的对抗。

人工智能本身是一项新的技术,如果考虑治理时脱离技术,很可能限制行业的发展。什么都不使用,当然什么问题都没有,但既要发展,又要治理,就只能用更领先的新技术来弥补现有技术不符合安全要求的点,所以本质上治理也要求技术的进步。

NBD:你是怎么看待人工智能的发展和治理之间的这种平衡的?

田天:人工智能技术实际上是价值中立的,没有有益和有害之分,它就如同新时代的“火”。为人类创造价值还是给人类带来伤害,完全取决于手持火把的人去怎么用。

在我看来,人工智能的发展和治理,并非此消彼长的关系,而是两者深度协同、相互助益,一定是同步去做,而且是一个长期的过程。技术应用都在发展,治理肯定也要去发展。但是我觉得核心是不要因为治理就去阻碍发展,该用的一些场景还得去用。

同时,治理不仅仅是监管机构的责任,AI技术和产品提供者,也有责任把治理纳入考虑。

NBD:关于人工智能的治理,你有什么建议可以给从业者?

田天:加强自身资质,不要等有人强制要求了再去做,一方面,这样对用户是不利的;另一方面,企业本身做得更安全、更注重隐私,也是产品的竞争力。

另外,技术公司要去发展更加安全合规的AI技术,真正实现技术上的突破,把现在需要做权衡的一些选择题,逐步发展到各方面可以同时兼顾。

[责任编辑:赵鑫华]

版权声明

一、凡注明来源为"正北方网"、"北方新报"、"内蒙古日报社"、"内蒙古日报社融媒体原创"的所有文字、图片、音视频、美术设计和程序等作品,版权均属内蒙古正北方网或相关权利人专属所有或持有所有。 未经本网书面授权,不得进行一切形式的下载、转载或建立镜像。否则以侵权论,依法追究相关法律责任。

二、凡本网注明"来源:XXX(非正北方网)"的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。

三、转载声明:本网转载稿件有些作者不明,请相关版权单位或个人持有效证明速与本网联系,以便发放稿费。

正北方网联系方式:电话:0471-6651113 | E-mail:northnews@126.com

今日内蒙古