作为当下最火得技术之一,人工智能被人们广泛知晓,受电影的熏陶和其简单的字面意思影响,应该很少有人去考虑其名字得确切定义。这里我简单介绍一下“人工智能”。
人工智能基本介绍
早期
计算机之父阿兰·图灵在 1950 年的论文《计算机器与智能》中提出了“机器智能”以及著名的“图灵测试”:如果有超过 30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试,
并被认为具有人类智能。首次提出“人工智能”
1956 年,在美国达特茅斯会议上,科学家麦卡锡首次提出“人工智能”:人工智能就是要让机器的行为看起来更像人所表现出的智能行为一样。在人工智能概念提出时,科学家主要确定了智能的判别标准和研究目标,而没有回答智能的具体内涵。
维基
In computer science, artificial intelligence (AI), sometimes called machine intelligence, is intelligence demonstrated by machines, in contrast to the natural intelligence displayed by humans. Leading AI textbooks define the field as the study of “intelligent agents”: any device that perceives its environment and takes actions that maximize its chance of successfully achieving its goals. Colloquially, the term “artificial intelligence” is often used to describe machines (or computers) that mimic “cognitive” functions that humans associate with the human mind, such as “learning” and “problem solving”.
翻译:
在计算机领域,人工智能,或叫机器智能,被定义为人创造的机器的表现得智能,与人类展现得自然得只会对应。人工智能于一般教材中的定义领域是“智能主体”(intelligent agent)的研究与设计:任何能感知环境并采取措施以最大程度达到其目标得设备。通俗的讲,“人工智能”这个属于经常被用来描述机器(或电脑)能模仿和人类思想相关得感知功能,如:学习和解决问题。
作为当下正蓬勃发展的新技术,其应用领域和影响不断扩大,人工智能这个概念也在不断演变。根据各方的定义,概括起来为:人工智能是利用人为制造来实现智能机器或者机器上的智能系统,模拟、延伸和扩展人类智能,感知环境,获取知识并使用知识获得最佳结果的理论、方法和技术。
人工智能环境下存在的安全问题
随着信息社会中数据的膨胀,人工智能的数据样本趋于丰富,人类的一些规则明确、烦琐单一的脑力劳动直至分析、决策、规划等高端脑力劳动都可以逐步被人工智能所替代。在解放劳动力的同时,其信息采集、传输、处理各个要素环节都面临安全风险。
网络安全风险涉及网络设施和学习框架的漏洞、后门安全问题,以及人工智能技术恶意应用导致的系统网络安全风险。
算法安全风险对应技术层中算法设计、决策相关的安全问题,涉及算法黑箱、算法模型缺陷等安全风险。
目前大部分AI系统是在深度学习框架基础上实现, 深度学习框架的使用可以让应用开发人员无需关心神经元网络分层以及培训分类的实现细节, 更多关注应用本身的业务逻辑,黑盒框架可能会存在回门,白盒框架可能会被攻击者利用,通过样本进行逃逸攻击, 使原有识别模型失效, 如攻击自动驾驶汽车系统, 将停车标志识别为“通行”或其它标志, 可能导致交通事故, 而把支票上的数字识别出错则会直接带来经济损失。
数据安全风险包括人工智能系统中的训练数据偏差、非授权篡改以及人工智能引发的隐私数据泄露等安全风险。
人工智能技术本身算法的准确率高度依赖于海量用户数据的训练分析,尤其需要获取大量用户个人信息,以便提供个性化、定制化服务,这些都会导致用户个人信息泄露。
信息安全风险主要包括人工智能技术应用于信息传播以及人工智能产品和应用输出的信息内容安全问题。目前已有黑客通过盗取移动App账号密码进而控制自动驾驶汽车的案例。
解决方案
一方面我国要加强核心技术的掌握,立足自主创新,加大技术引进吸收,突破人工智能关键基础技术。我国人工智能产业目前呈现“倒三角”结构,体现是“重应用、轻基础”,为人工智能发展带来诸多不确定因素。因此,需要从云计算、大数据和机器学习等关键通用技术研究入手,破解基础安全风险。
另一方面,结合人工智能安全风险以及在网络空间安全领域中的应用,提出了以下六个方面:
- 法规政策方面,针对人工智能重点应用领域和突出的安全风险,建立健全相应的安全管理法律法规和管理政策。
- 标准规范方面,加强人工智能安全要求、安全评估评测等方面的国际、国内和行业标准的制定完善工作
- 技术手段方面,建设人工智能安全风险监测预警、态势感知、应急处置等安全管理的技术支撑能力。
- 安全评估方面,加快人工智能安全评估评测指标、方法、工具和平台的研发,构建第三方安全评估评测能力。
- 人才队伍方面,加大人工智能人才教育与培养,形成稳定的人才供给和合理的人才梯队,促进人工智能安全持续发展。
- 可控生态方面,加强人工智能产业生态中薄弱环节的研究与投入,提升产业生态的自我主导能力,保障人工智能安全可控发展