生成式人工智能从根本上重塑了组织的运作方式。各个部门的团队都在采用能够加速编码、内容创作和数据分析的工具。这种快速普及往往缺乏正式的监管。员工无需等待许可,便使用个人凭证注册服务,并将敏感的企业数据粘贴到公共模型中。这催生了一个庞大的、不受监控的“影子人工智能”生态系统,传统的防火墙无法发现或控制它。

安全领导者面临着一项艰巨的挑战。完全禁止人工智能通常不切实际,而且会扼杀创新。允许不受限制的访问则会导致数据泄露和违规行为。解决方案在于制定一套结构完善的企业人工智能策略。这份文件是您治理策略的基石,它定义了操作规则,明确了哪些数据可以共享以及哪些工具可以使用。如果没有这个框架,您的组织仍然容易遭受数据泄露、监管罚款和知识产权盗窃的威胁。

影子人工智能问题的规模

IT团队批准的软件与员工实际使用的软件之间的差距越来越大。大多数组织认为他们能够掌控自己的软件库,但实际情况往往并非如此。基于浏览器的扩展程序和Web应用程序绕过了网络边界控制,使得数据可以直接从用户屏幕流向第三方服务器。

影子人工智能的现实:授权工具的使用与未经授权的工具的使用 

安全团队必须认识到,“影子人工智能”不仅仅是令人头疼的问题,更是一个严重的安全漏洞。未经授权的工具通常缺乏企业级安全控制措施,它们可能会声称有权使用您的数据进行模型训练。制定全面的人工智能安全策略是重新掌控这一分散式环境的第一步。

人工智能安全策略模板的核心支柱

从零开始制定策略可能令人望而生畏。将策略文档视为一系列模块化组件会有所帮助。每个模块都针对用户与人工智能交互的特定方面。一个完善的人工智能安全策略模板不应是静态的“禁止事项”列表,而必须是一个动态框架,能够适应新的工具和威胁。它需要同等重视身份安全、数据安全和应用程序安全。

数据分类是第一支柱。你无法保护你没有定义的东西。你的策略必须明确规定哪些类别的数据可以用于人工智能输入。公开的营销文案或许是安全的,但客户的个人身份信息和未发布的源代码绝对不行。策略必须在这方面做到清晰明确,不容任何歧义。用户在打开提示窗口之前,需要清楚地知道界限在哪里。

身份和访问管理

第二大支柱关注工具的使用者。匿名性是安全的敌人。您的AI安全策略模板应强制要求所有与业务相关的AI任务使用企业身份。企业工作应严格禁止使用个人电子邮件帐户。这确保员工离职后,其数据访问权限和交互历史记录仍保留在公司内部。此外,它还支持单点登录(SSO)集成。如果帐户被盗用,SSO可提供集中式终止机制。

申请审核与批准

第三支柱涉及工具本身。并非所有人工智能应用都一样。有些遵循严格的企业安全标准,而有些则不过是披着华丽外衣的数据采集工具。您的策略必须建立一套审核流程。该流程应评估供应商的数据处理实践,检查他们是否使用客户数据进行训练,并验证他们是否符合 SOC 2 或 ISO 27001 等标准。只有通过这些严格审核的工具才能获得“认可”状态。

制定人工智能可接受使用标准

人工智能可接受使用规则部分将高层次原则转化为日常操作。这是员工阅读频率最高的政策部分,因此必须清晰、简洁,避免使用法律术语,并着重描述用户在日常工作流程中可能遇到的具体场景。

例如,开发人员经常使用人工智能来调试代码。人工智能可接受使用政策可能允许粘贴通用逻辑片段,但会严格禁止粘贴专有算法或硬编码的API密钥。市场营销团队可能会使用人工智能来撰写电子邮件。该政策允许这样做,但要求对最终输出进行人工审核,以确保其准确性和语气恰当。这些实际案例有助于员工理解如何在具体情况下应用这些规则。

“交通灯”协议

为了简化决策过程,许多组织在其人工智能可接受使用指南中采用了交通信号灯系统。

  •       绿色(已批准):这些工具拥有企业许可证,并已签署数据保护协议。员工可以自由使用这些工具处理大多数数据类型,但绝密信息除外。
  •       黄色(允许):这些是公共工具,虽然实用,但缺乏企业级控制。仅允许用于非敏感任务。无需登录。禁止输入任何内部数据。
  •       红色(已屏蔽):这些工具存在不可接受的风险。它们可能存在安全漏洞记录或激进的数据抓取策略。访问已在浏览器或网络层面被技术性屏蔽。

应对生成式人工智能安全策略风险

生成式人工智能(GenAI)引入了传统软件策略无法涵盖的独特风险。大型语言模型(LLM)的交互特性催生了新的攻击途径。专门的生成式人工智能安全策略必须能够应对这些特定威胁。仅仅确保访问权限是不够的,还必须保护交互本身的安全。

一个主要隐患是即时注入。当恶意指令隐藏在一段文本中时,就会发生这种情况。如果员工将这段文本粘贴到逻辑学习模型(LLM)中,模型可能会被诱骗而忽略其安全防护措施。您的策略需要警告用户不要将来自网络的不可信内容直接粘贴到内部人工智能工具中。它应该像对待来自未知发件人的电子邮件附件一样,对外部文本抱有同样的警惕性。

幻觉管理和输出完整性

生成式人工智能安全策略的另一个关键方面是输出验证。人工智能模型是概率性的,而非确定性的。它们可能会自信地将错误信息呈现为事实。这种现象被称为幻觉。在关键业务决策中使用未经验证的人工智能输出可能导致经济损失和声誉损害。该策略必须强制要求所有高价值输出都必须经过“人机交互”流程。人工智能生成的代码必须由高级工程师审查。人工智能起草的法律文件必须由律师核实。

企业环境中常见的AI安全策略违规行为

人工智能安全政策和治理框架

临时规则固然是好的开始,但要实现长期的稳健发展,则需要结构化的方法。遵循国际标准能将您的人工智能安全策略从一套规则提升为一套管理体系。这向监管机构、客户和董事会成员展现了您尽职尽责的态度。同时,它也将工作重心从被动应对危机转向主动风险管理。

目前,两大主要框架正在影响着行业讨论:ISO 42001 和 NIST 人工智能风险管理框架 (RMF)。采纳这些标准中的要素,可以确保您的人工智能安全政策和治理策略全面且站得住脚。它为组织内部讨论人工智能风险提供了一种通用语言。

实施 ISO 42001

ISO 42001 是人工智能管理体系的全球标准。它遵循与其他 ISO 标准相同的计划-执行-检查-改进 (PDCA) 循环。对于人工智能安全策略和治理方案而言,最相关的条款通常是领导层和运行层。

  •       领导力:本条款要求高层管理人员对人工智能管理系统的有效性负责。它确保资源到位,并确保政策与战略业务目标保持一致。
  •       操作:本条款侧重于人工智能风险的评估和应对。它要求各组织识别人工智能系统可能产生的意外后果,并实施相应的控制措施以减轻这些后果。

应用 NIST AI RMF

NIST AI RMF 是一个在美国公共和私营部门都备受推崇的自愿性框架。它围绕四个核心功能组织:治理、映射、衡量和管理。

  •       治理:这项职能旨在培养风险管理文化。它包括制定指导人工智能开发和使用的政策和程序。
  •       地图:此功能用于构建背景信息。它识别正在使用的具体人工智能系统及其相关潜在风险。
  •       衡量:此功能采用定量和定性方法分析风险。它回答以下问题:“我们实际承担了多大的风险?”
  •       管理:此功能旨在确定风险的优先级并加以应对。它涉及部署特定的控制措施,例如人工智能可接受使用政策本身,以将风险降低到可接受的水平。

浏览器安全在执法中的作用

制定企业级人工智能策略只是成功的一半,执行策略才是另一半。传统的网络安全工具难以应对现代人工智能的应用。它们可以屏蔽某个域名,但却无法了解会话内部的运作。它们无法区分用户是在向 ChatGPT 询问 cookie 配方,还是在粘贴客户数据库。这种粒度不足会导致过度屏蔽或出现危险的安全盲点。

浏览器已成为新的安全边界,几乎所有现代工作都通过它进行。为了有效实施人工智能安全策略,需要在浏览器内部部署控制功能。这样才能实时分析用户行为,并做出兼顾安全性和生产力的上下文感知决策。浏览器安全机制不再局限于“阻止或允许”的二元选择,而是可以提供更细致的控制选项,例如“允许只读”或“允许但编辑敏感数据”。

使用 LayerX 实现策略自动化

LayerX 提供将您的 AI 安全策略转化为现实所需的技术能力。它以企业级浏览器扩展的形式运行。这种独特的定位使其能够监控和控制用户与任何 Web 应用程序的交互,包括已获授权和未获授权的 AI 工具。LayerX 充当您治理策略的执行力量。

LayerX 的一项关键功能是发现“影子 AI”。它会自动记录员工访问的每个 AI 站点,并提供全面的清单,让您准确了解正在使用的工具。这种可视性对于更新 AI 安全策略模板并使其保持有效至关重要。您无法管理您不知道存在的东西。LayerX 能揭示您 SaaS 生态系统中那些隐蔽的角落。

实时数据防泄漏和教育

LayerX 的功能远不止简单的发现。它提供专为 GenAI 定制的主动式数据防泄漏 (DLP) 功能。当用户尝试粘贴违反 AI 可接受使用策略的数据时,LayerX 会进行干预。它可以完全阻止粘贴操作,也可以选择性地编辑敏感字符串(例如信用卡号或个人身份信息),同时允许用户继续执行其他提示。这使得员工能够安全地使用该工具,而不会给组织带来风险。此外,LayerX 还可以显示自定义弹出窗口来解释违规行为。这使得每次被阻止的操作都成为一次微培训机会,实时强化 AI 安全策略。

人工智能安全政策实施清单

请使用以下清单确保您的策略涵盖所有关键领域。此表将具体的策略组成部分与实施这些策略所需的相应技术控制措施进行了对应。

政策组成部分 关键要求 LayerX 强制执行能力
工具清单 维护一份实时更新的已制裁和已屏蔽工具列表。 实时发现企业内所有 Shadow SaaS 和 AI 应用。
数据防泄漏 明确禁止人工智能输入的具体数据类型。 阻止粘贴或上传已定义的敏感数据类型 
身份管理 强制所有人工智能账户启用企业级单点登录。 检测并阻止企业应用程序使用个人电子邮件帐户。
扩展控制 禁止所有浏览器插件访问人工智能数据。 风险评分和恶意或高风险扩展程序的拦截。
审计追踪 为了合规性,请记录所有提示和人工智能交互。 用于审计目的的用户-AI交互的细粒度取证日志 
基于角色的访问 明确规定哪些人可以使用哪些工具以及如何使用。 基于用户组和Active Directory强制执行访问策略。

 

期待人工智能在企业安全领域的应用

生成式人工智能的采用并非昙花一现的潮流,而是商业运作方式的根本性转变。企业人工智能政策是确保组织安全应对这一转变的机制。其目的并非设置障碍,而是构建保障措施。通过制定清晰的人工智能可接受使用指南,并辅以强有力的技术控制,您可以赋能员工进行创新。

人工智能时代的安全需要清晰的治理和积极的执行相结合。静态的人工智能安全策略模板是一个良好的开端,但必须将其付诸实践。LayerX 提供浏览器级别的可见性和控制力,确保您的策略有效实施。它弥合了文档与用户之间的鸿沟,确保您的人工智能安全策略和治理工作能够真正降低风险。从可见性入手,定义规则,并在边缘端强制执行。这才是安全应用人工智能的正确途径。