大型、敏感的数据集经常被用于训练AI模型,从而产生隐私和数据泄露风险。人工智能的使用增加了组织的威胁向量,并扩大了其攻击面。人工智能进一步为良性错误创造了新的机会,对模式和业务结果产生不利影响。
不了解的风险无法减轻。Gartner最近对首席信息安全官的一项调查显示,大多数组织没有考虑到人工智能带来的新的安全和业务风险,或者他们必须采取新的控制措施来降低这些风险。人工智能需要新型风险和安全管理措施以及缓解框架。
以下是安全和风险领导者应该关注的五大优先事项,以有效管理其组织内的人工智能风险和安全:
1、捕捉AI暴露程度
机器学习模型对大多数用户来说是不透明的,并且与一般的软件系统不同,它们的内部工作原理甚至连最熟练的专家都不知道。数据科学家和模型开发人员通常理解他们的机器学习模型试图做什么,但他们不能总是破译模型处理数据的内部结构或算法手段。
这种理解能力的缺乏严重限制了组织管理AI风险的能力。人工智能风险管理的第一步是列出组织中使用的所有人工智能模型,无论它们是第三方软件的组件、内部开发或通过软件即服务应用程序访问。这应该包括识别各种模型之间的相互依赖关系。然后根据运营影响对模型进行排序,并考虑到风险管理控制可以根据确定的优先级逐步应用。
一旦模型被列出,下一步就是使它们尽可能的可解释或可解释性。“可解释性”意味着产生细节、原因或解释的能力,为特定的受众阐明模型的功能。这将为风险和安全管理者提供管理和减轻由模型结果带来的业务、社会、责任和安全风险的环境。
2、通过人工智能风险教育活动提高员工意识
员工意识是人工智能风险管理的一个重要组成部分。首先,让所有参与者,包括CISO、首席隐私官、首席数据官以及法律和合规官,重新调整他们对AI的心态。他们应该明白,人工智能“不像任何其他应用程序”——它会带来独特的风险,需要特定的控制来减轻此类风险。然后,与业务利益相关者联系,以扩大对需要管理的AI风险的认识。
与这些利益相关者一起,确定跨团队和随着时间的推移构建AI知识的最佳方式。例如,看看是否可以在企业的学习管理系统中添加一门关于基本AI概念的课程。与应用程序和数据安全部门合作,帮助在所有组织成员中培养AI知识。
3、通过隐私计划消除人工智能数据暴露
根据Gartner最近的一项调查,隐私和安全一直被视为人工智能实现的主要障碍。采用数据保护和隐私程序可以有效地消除AI内部和共享数据的暴露。
有一系列方法可以用于访问和共享基本数据,同时仍然满足隐私和数据保护要求。确定哪种数据隐私技术或技术组合,对组织的特定用例最有意义。例如,调查诸如数据屏蔽、合成数据生成或差分隐私等技术。
在向外部组织导出或导入数据时,应满足数据隐私要求。在这些场景中,像完全同态加密和安全多方计算等技术,应该比保护数据不受内部用户和数据科学家的影响更有用。
4、将风险管理纳入模型运营
AI模型需要特殊用途的流程作为模型操作或ModelOps的一部分,以使人工智能可靠且高效。随着环境因素的不断变化,AI模型必须持续监测业务价值泄漏和不可预测的(有时是不利的)结果。
有效的监控需要对AI模型的理解。专门的风险管理流程必须成为ModelOps的一个组成部分,以使AI更值得信任、准确、公平,并对对抗性攻击或良性错误更有弹性。
控制措施应该持续应用——例如,贯穿模型开发、测试和部署以及持续运营的整个过程。有效的控制将检测到恶意行为、良性错误和AI数据或模型的意外变化,这些变化会导致不公平、损坏、不准确、模型性能和预测不佳,以及其他意想不到的后果。
5、采用人工智能安全措施应对对抗性攻击
检测和阻止对人工智能的攻击需要新的技术。对AI的恶意攻击可能导致重大的组织损害和损失,包括财务、声誉或与知识产权、敏感客户数据或专有数据相关的数据。与安全部门合作的应用程序负责人必须在他们的AI应用程序中添加控制,以检测异常数据输入、恶意攻击和良性输入错误。
围绕AI模型和数据实施一整套传统的企业安全控制,以及针对AI的全新完整性措施,如容忍对抗性AI的训练模型。最后,使用欺诈、异常检测和机器人检测技术,防止AI数据中毒或输入错误检测。