媒体监测和推荐平台

特别推荐

当前位置:首页 > 特别推荐 > 详细内容

中国工程院院士倪光南:让AI实现安全可控

8月30日,由世界人工智能大会组委会主办,上海赛博网络安全产业创新研究院承办的“2019世界人工智能安全高端对话”在上海举办。中国工程院院士倪光南在会上AI安全可控问题进行了深入的解读和探讨。

倪光南认为,人工智能安全可控问题主要包含三个方面:一是传统安全问题,即人与物之间的关系,可以与传统产品/服务的安全问题同等对待; 其二是网络安全问题,即网络攻防两方之间的关系,可以与网信产品/服务的安全问题同等对待,网络安全属于非传统安全,需要强调自主可控、安全可信;其三是人工智能伦理安全问题,即人/人类与人工智能之间的关系,是AI领域特有的问题,需要进行探讨。

人工智能伦理与规范是未来智能社会的发展基石,已经引起了各国政府和学术界、企业界等的广泛关注。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。欧盟委员会还发布了人工智能7条伦理准则,微软《未来计算》提出的人工智能开发六原则,美国IEEE也提出人工智能伦理三标准。

倪光南认为,人工智能伦理可以总结为以下八个原则:

可控性,人工智能是人/人类创造的,应保证是人/人类控制人工智能而不是相反;

安全性, 避免人工智能系统可能会在不可预见的情况下造成伤害,或者被人恶意操纵,实施有害行为 ;

隐私保障,例如未经信息来源明确许可,人工智能系统不能保留或披露机密信息等;

公平性,例如深度学习提供的样本要防止出现种族、年龄、性别、教育等等方面的歧视);

包容性, 要确保人工智能技术造福、赋能每一个人,而不是只惠及个别人 ;

透明性,例如要解决深度学习算法的“黑盒”问题,以免导致出现不可预测情况 ;

增加社会福祉,例如不能容许人工智能作恶;

问责制,例如人工智能系统必须遵守同等情况下适用于人类的所有法规。

自主可控是实现网络安全的前提,但采用自主可控的技术不等于实现了网络安全,但没有采用自主可控的技术一定不安全。为了保障网络安全,如果做不到自主可控,尤其是对于关键核心技术,能否满足自主可控要求,往往具有一票否决的地位,“中兴事件”就是核心技术不能受制于人的典型案例。

倪光南表示,网络安全的核心是技术安全, 网络安全必须实现关键核心技术自主可控。 十九大提出要统筹传统安全和非传统安全,网络安全属于非传统安全,其内涵比传统安全广泛。前几年国家网信办公布的《网络产品和服务安全审查办法》把网络安全审查分成“安全性”审查和“可控性”审查,最近公布的《网络安全审查办法》将审查内容进一步扩大,包括审查“可控性、透明性以及供应链安全”以及其他多个方面,主要就是审查能否达到“自主可控”。

倪光南强调,在今天的国际形势下,如果关键核心技术不能自主可控,那么就会受制于人。实现中华民族伟大复兴宏伟目标时不我待,要有志气和骨气加快增强自主创新能力和实力,努力实现关键核心技术自主可控,把创新发展主动权牢牢掌握在自己手中。

中国已经是一个互联网大国,但还不是真正的互联网强国。目前为止,发达国家仍然是互联网核心技术与核心资源的掌控者。芯片和基础软件方面依然是我们的“短板”,近来一系列事件让我们再次认识到:互联网核心技术是我们最大的“命门”,核心技术受制于人是我们最大的隐患。

倪光南表示,网信领域技术新、发展快、人才作用大,我们可以利用自己的后发优势,即全球研发投入最集中、创新最活跃、应用最广泛、辐射带动作用最大的技术创新优势,争取拿下全球技术创新的竞争高地。

倪光南强调,随着现代社会的政治、经济、军事等等都日益严重地依赖互联网,互联网的安全隐患不容轻视。此外,5G的发展也对承载5G业务的互联网提出了更高的要求,如何提升网络通信能力,真正掌控互联网核心技术、核心资源,将成为一个迫切的任务。

“互联网应用”和“新一代信息技术”是我国网信领域的“长板”,在这些方面,我们与发达国家的差距较小。 我国的优势是有世界等等。 倪光南认为,只要善于扬长避短,利用丰富的科技人力资源、庞大的市场、世界第二大经济体以及国家的优惠政策和举国体制等优势,坚持自主创新,完全有可能在“长板”中的某个部分首先实现从跟跑并跑到并跑领跑的转变,而眼下的5G就是很好的契机。(来源《 信息安全与通信保密杂志社》)