在人工智能 (AI) 和生成式人工智能 (GenAI) 重塑企业生态系统的时代,建立强有力的治理框架比以往任何时候都更加重要。人工智能快速融入日常工作流程显著提升了生产力,但也带来了一系列复杂的安全和伦理挑战。对于安全分析师、首席信息安全官 (CISO) 和 IT 领导者而言,讨论的焦点已不再是…… if 应该使用人工智能,但是 形成一种 控制它。这是负责任人工智能的核心:一个旨在指导人工智能系统设计、开发和部署的战略框架,以建立信任并与企业价值观保持一致。

负责任的人工智能并非仅仅是一个理论概念,而是运营的必然要求。它要求将公平、透明、问责和安全原则融入人工智能应用中,以降低风险和负面后果。随着各组织竞相采用人工智能,它们面临着诸多潜在陷阱,从无意的数据泄露到算法偏见,不一而足。如果没有结构化的方法,企业将面临监管处罚、声誉受损以及利益相关者信任度下降的风险。研究表明,全球仅有35%的消费者信任企业实施人工智能技术的方式,而77%的消费者认为企业必须为其滥用人工智能承担责任。因此,构建清晰的伦理人工智能框架是任何现代企业战略中不可或缺的组成部分。

本文探讨了负责任人工智能的核心原则,并为其实施提供了一个切实可行的框架。我们将审视支撑合乎伦理的人工智能使用的关键原则,讨论治理方面的挑战,并概述构建一个具有韧性且合规的人工智能未来的可行步骤。

负责任人工智能的核心原则

负责任的人工智能的核心在于一系列基本原则,这些原则确保技术的开发和使用方式安全、公平,并符合人类价值观。这些原则是构建可信赖的人工智能系统的基础,对于任何希望在不损害自身道德标准的前提下利用人工智能力量的组织而言都至关重要。

人工智能公平性和偏见缓解

人工智能发展面临的最大挑战之一是确保人工智能的公平性和减少偏见。人工智能模型通过数据学习,如果数据中包含现有的社会偏见,人工智能不仅会复制这些偏见,而且往往会放大它们。这可能导致歧视性结果,并造成严重后果。例如,研究表明,一些人工智能招聘工具存在明显的偏见,更倾向于选择某些特定姓名的申请人,从而破坏了多元化和公平性举措。

设想这样一种场景:一家金融机构使用人工智能模型来审批贷款申请。如果训练数据反映了历史上的贷款偏见,那么该模型可能会不公平地拒绝少数族裔合格申请人的贷款申请。这样的结果不仅不道德,还会使机构面临法律和声誉风险。

缓解这一问题需要持续不断的警惕。企业必须建立相应的流程和人工智能偏见缓解策略,定期审核其人工智能解决方案。这包括:

  •       数据质量保证:使用多样化、平衡且无不准确信息的数据集进行训练。
  •       模型评估:采用综合指标来识别模型输出中的性能问题和偏差。
  •       人机交互系统:让人类专家参与审查人工智能驱动的决策,尤其是在高风险应用中,以提供关键背景信息并识别自动化系统可能遗漏的细微问题。

透明度和可解释性

要使人工智能系统值得信赖,其决策过程必须易于理解。这就是透明性和可解释性原则。许多先进的人工智能模型,尤其是深度学习网络,都以“黑箱”的形式运行,使得人们难以理解它们如何得出特定结论。这种缺乏透明度的情况会导致人工智能系统出现故障或造成损害时,责任归属难以确定。

可解释性是指人工智能系统能够为其决策提供人类可理解的解释的能力。这不仅对内部问责至关重要,而且对建立与客户和监管机构的信任也至关重要。例如,如果人工智能驱动的诊断工具推荐某种特定的医疗方案,医生和患者都需要了解该建议的依据。

实现透明度包括:

  •       清晰地记录人工智能算法的工作原理及其使用的数据。
  •       将决策过程可视化,使其更直观。
  •       生成人类可读的解释,将决策追溯到特定的输入数据和模型特征。

问责制和人为监督

问责制是负责任人工智能的基石。它要求个人和组织必须对人工智能系统的结果负责。这需要建立清晰的权力层级,并确保在出现问题时有相应的补救机制。加拿大一家航空公司最近因其误导性的聊天机器人而被追究责任,这是一个组织为其人工智能行为承担责任的典型例子。

问责制的核心在于人的自主性和监督原则。人必须始终掌控人工智能系统,尤其是那些需要做出关键决策的系统。这并不意味着要对每个人工智能流程进行微观管理,而是需要建立有效的人工干预机制。这可能包括:

  •       在关键决策中引入“人机交互”机制,即人工智能的建议必须经过人工批准才能执行。
  •       清晰的用户界面,允许操作员与人工智能进行交互,并在必要时覆盖人工智能建议。
  •       建立健全的治理结构,明确谁对人工智能相关的决策及其后果负责。

安全和隐私

人工智能系统的安全性和其处理数据的隐私性至关重要。人工智能系统易受各种攻击,从数据泄露到更复杂的威胁,例如模型投毒和对抗性攻击。与此同时,人工智能工具的使用也为数据泄露开辟了新的途径,尤其是在“影子人工智能”(即员工未经授权使用第三方人工智能工具)兴起的情况下。

设想这样一种情况:一名员工将一份机密财务报告粘贴到公共的 GenAI 工具中进行摘要生成。这种行为可能导致敏感的企业知识产权泄露,使组织面临严重风险。

负责任的人工智能需要健全的安全和隐私框架,其中包括:

  •       安全编码实践:确保人工智能应用程序从一开始就以安全性为导向进行开发。
  •       数据保护:实施数据匿名化、加密和安全存储等措施,以保护个人和敏感信息,并遵守 GDPR 和 CCPA 等法规。
  •       访问控制:限制对人工智能系统及其所用数据的访问,仅限授权人员。
  •       持续监控:定期进行漏洞评估、渗透测试和异常活动监控,以便及时发现并应对威胁。

企业中人工智能伦理应用框架

将原则转化为实践需要一个结构化的框架,将伦理人工智能融入组织的方方面面。这不仅仅是IT部门的任务,而是一项全公司范围的举措,需要领导层的承诺和所有职能部门的协作。

建立健全的人工智能治理计划

负责任人工智能落地实施的第一步是建立一套全面的人工智能治理方案。该框架是一项运营战略,它结合了人员、流程和技术,以有效管理人工智能的使用。

人工智能治理方案的关键组成部分包括:

  •       跨职能委员会:该委员会应包括来自安全、IT、法律和业务部门的代表,以确保政策的平衡性和实用性。其职责是明确组织对人工智能的立场,并制定清晰的人工智能使用政策。
  •       明确的《可接受使用政策》(AUP):员工需要明确的指导,了解哪些行为是允许的,哪些行为是不允许的。AUP 应明确规定哪些人工智能工具是被允许使用的,可以使用哪些类型的数据,以及用户在安全使用人工智能方面应承担的责任。
  •       集中式日志记录和审查:治理需要透明度。集中记录人工智能交互(包括提示和响应)可提供内部问责和外部合规所需的审计能力。

与国际标准接轨

随着人工智能生态系统的日趋成熟,其管理标准也在不断完善。ISO 42001 的推出是首个人工智能管理体系国际标准,标志着人工智能部署与全球公认最佳实践接轨的关键一步。该标准为组织机构提供了一套结构化的路径,使其能够负责任地管理人工智能系统、降低风险并确保合规性。

可以将 ISO 42001 理解为人工智能领域中与信息安全管理领域对应的 ISO 27001 标准。它不规定具体的技术解决方案,而是提供了一个全面的框架,用于管理人工智能项目在其整个生命周期内的各个阶段。采用像 ISO 42001 这样的框架有助于组织构建可辩护且可审计的人工智能项目,从而强制对人工智能相关风险进行系统评估,并实施相应的控制措施来降低这些风险。

实施基于风险的控制和技术执法

有效的AI风险管理框架能够将治理原则转化为具体、可重复的流程。这首先要建立一份全面的AI系统清单,涵盖所有正在使用的AI系统,包括已获授权和未获授权的系统。你无法保护你看不见的东西。

比起彻底屏蔽所有人工智能工具,采用基于风险的精细化访问控制方法更为有效。这种方法需要应用细粒度的控制措施,允许低风险的使用场景,同时限制高风险活动。例如,公司可以允许员工使用公共的 GenAI 工具进行一般性研究,但禁止他们粘贴任何被归类为个人身份信息 (PII) 或知识产权的数据。

由于浏览器是大多数 GenAI 工具的主要界面,因此它是实施安全措施最合乎逻辑的位置。运行在浏览器层面的现代解决方案可以提供传统安全工具无法实现的有效监管。企业级浏览器扩展程序可以:

  •       发现并绘制整个组织内所有 GenAI 的使用情况,提供官方认可的 AI 和影子 AI 的实时清单。
  •       实施细粒度的、基于风险的防护措施,例如阻止用户将敏感数据粘贴到公共人工智能聊天机器人中。
  •       监控和控制用户浏览器与网络之间的数据流,作为专为人工智能时代量身定制的数据丢失防护 (DLP) 解决方案。

负责任的人工智能实践

迈向负责任的人工智能之路是一个持续评估、缓解和改进的循环过程。威胁形势瞬息万变,新的人工智能工具和攻击途径层出不穷。通过采用结构化的人工智能治理方法,并以 ISO 42001 等框架为指导,组织可以构建一个具有韧性、合规性和创新性的人工智能驱动的未来。

设想一家金融机构,其交易员正在使用未经授权的基于 GenAI 的浏览器扩展程序来分析市场数据。其中一个扩展程序可能构成“中间人攻击”,悄无声息地篡改提示信息,窃取敏感的商业机密或执行未经授权的交易。浏览器原生安全解决方案能够检测到这种异常活动,阻止风险扩展程序运行,并向安全团队发出警报,同时不会妨碍交易员使用已获批准的工具。这是一个在高风险环境中贯彻安全和问责原则的实际案例。

通过将主动用户教育与先进的浏览器级安全措施相结合,企业可以更有信心地探索人工智能的潜力。这一战略要务使企业能够以负责任且可持续的方式驾驭人工智能的力量,将潜在的灾难性风险转化为可有效管理的战略优势。