GenAI 安全是指保护企业环境免受 ChatGPT、Gemini 和 Claude 等生成式 AI 工具带来的新兴风险的影响。随着这些工具的普及,它们带来了数据泄露、合规性和影子 AI 风险。本文定义了 GenAI 安全,并概述了企业确保安全、负责任地使用 AI 的策略。

GenAI 解释

GenAI 安全是一种识别并降低企业工作流程中由 ChatGPT、Copilot 和 Claude 等生成式 AI 工具引入的风险的实践。这些工具提升了效率和创新能力,但也带来了新的、快速发展的 AI 攻击面,而传统的网络安全解决方案往往无法覆盖这些攻击面。GenAI 安全通过管理敏感数据泄露、执行全组织范围的 AI 使用策略以及检测不安全、不合规或恶意的 AI 行为来弥补这一缺陷。它将数据丢失防护 (DLP)、基于浏览器的监控和访问控制等技术保障措施与符合公司政策和监管标准的强大 AI 治理框架相结合。与专注于保护模型训练和基础设施的 AI 开发安全不同,GenAI 安全保护的是使用层,即员工与外部 AI 工具交互的层,从而确保企业 AI 的安全、符合策略且负责任。

GenAI 在企业中的主要风险

随着企业加速采用生成式人工智能工具,它们也必须应对一类新的威胁。这些风险不仅来自恶意行为者,还源于生成式人工智能与数据、用户和外部环境的交互方式。以下是企业需要管理的最紧迫的人工智能漏洞和安全风险。

1. 知识产权和机密数据泄露

GenAI 最直接、最关键的风险之一是 AI数据泄露员工经常将客户 PII、源代码、商业计划或财务预测等机密信息粘贴到 ChatGPT 等 GenAI 工具中,却没有意识到其后果。这些信息可能会被存储、处理或用于进一步的训练,从而导致对这些数据的永久控制权丧失。即使供应商声称不会使用输入数据进行训练,这些数据仍可能被缓存或记录在会话历史记录中,从而为数据泄露或滥用打开方便之门。

例如::一位财务团队成员使用 ChatGPT 生成执行摘要,并将第四季度收入数据的电子表格粘贴到提示中。这些财务信息现在可能会被模型提供者存储,或者可能在其他用户未来的查询中暴露出来。

2. 监管与合规违规行为

不受监控的 GenAI 使用很容易导致违反数据保护法规,例如 《通用数据保护条例》(GDPR), HIPAA, PCI-DSSCCPA这些法律要求严格处理个人、健康或支付数据,而大多数第三方人工智能工具在合同或架构上都没有做好确保这一点的准备。

例如::一家医疗保健提供商使用人工智能写作助手起草一份包含病史的患者护理总结。即使只是一条包含与外部人工智能工具共享的受保护健康信息 (PHI) 的提示,也可能构成可报告的 HIPAA 违规行为,从而面临监管罚款和声誉损害的风险。在监管严格的行业中,仅仅一起此类事件就可能引发监管机构和审计师的持续关注。

企业必须将人工智能提示视为对外沟通,并应用相同的 人工智能政策数据治理 严格遵守规定。

3. 影子人工智能的使用

员工经常使用个人账户或 未经授权的人工智能工具 缺乏IT知识的影子AI环境。虽然影子AI通常出于良好的初衷,并已深深嵌入工作流程以提高生产力,但它们最终却脱离了安全策略,缺乏监控或日志记录,使其成为违规行为和AI数据泄露的温床,并成为安全和数据保护团队的盲点。

例如::销售团队开始使用 ChatGPT 的消费者版本起草客户提案。随着时间的推移,他们开始输入定价策略、合同条款和内部绩效指标,而这些都不受企业 DLP 工具的保护。

4. 有风险的第三方插件和扩展

人工智能驱动的浏览器扩展和插件带来了严重的 人工智能漏洞 由于设计过于宽松,许多应用程序可以访问所有浏览活动、剪贴板数据或会话 cookie 来运行,这使得它们成为极具吸引力的攻击目标。 

风险包括:

  • AI注入攻击:恶意网站或脚本操纵插件提示来提取或泄露数据。
  • 会话劫持:具有会话令牌访问权限的插件可能会被利用来冒充用户。
  • 静默数据收集:扩展程序可能会在用户不知情的情况下读取或传输数据。

大多数插件由第三方创建,可能无法像内部工具那样接受相同的安全审查。未经审查的插件使用可能导致不受控制的数据泄露,并将受监管的信息暴露给未知的参与者,这对企业而言是一个重大的生成性人工智能数据风险。

例如::用户安装的 AI 摘要器扩展程序拥有读取所有标签页的权限。攻击者利用该插件中的漏洞提取用户查看的敏感 CRM 数据,而无需触发传统的 DLP 或防病毒警报。

5. 内部安全态势的削弱

不受监控的人工智能使用会削弱企业的整体安全态势。当员工通过不受管理的浏览器或个人账户使用公共人工智能工具时,敏感数据会绕过防火墙、端点保护或云数据泄露防护 (DLP) 等传统安全控制措施。安全团队无法了解数据的处理方式和位置。随着时间的推移,这会削弱组织检测漏洞、保持审计准备和执行安全策略的能力,使企业容易受到内部和外部威胁。这些 安全盲区 为攻击者或粗心的内部人员提供一条利用数据的途径,而无需触发标准防御措施—— 生成式人工智能安全 当务之急。

例如::

员工在个人设备上使用 ChatGPT 等 GenAI 工具共享永远不会接触公司基础设施的客户数据,因此 IT 和合规团队无法看到这些数据。

6. 运营和法律中断

通过 GenAI 工具泄露数据可能会引发法律诉讼、审计和内部调查,从而导致资源浪费、项目延误,扰乱日常运营,并在寻求问责和缓解措施的团队之间造成内部摩擦。除了交易破裂造成的经济损失外,组织还可能面临法律索赔、罚款条款或仲裁程序。 

例如::

一家制造公司发现敏感的供应商条款被输入到 ChatGPT 中,并可能被泄露。采购团队被迫重新协商合同,而法务部门则负责处理供应商问询和责任评估。

这些风险凸显了为什么传统的安全控制在生成式人工智能时代已不再有效。从人工智能数据泄露和影子人工智能,到监管违规和基于插件的威胁,企业必须重新思考如何监控、管理和保护整个企业的人工智能使用。想要深入了解这些不断演变的威胁及其应对方法,请阅读全文 生成式人工智能风险.

是什么推动了企业人工智能攻击面的扩大

生成式人工智能的迅速崛起从根本上重塑了企业威胁格局。曾经清晰界定的边界如今被越来越多的人工智能工具、插件和云端工作流程所打破。这些技术提升了生产力,但也极大地扩展了 人工智能攻击面引入了传统防御措施无法解决的新型安全盲点。

人工智能工具和人工智能集成 SaaS 应用的爆炸式增长

GenAI 并不等同于 ChatGPT。事实上,自 2022 年 XNUMX 月 ChatGPT 发布以来,GenAI 生态系统发生了翻天覆地的变化。自那时起,GenAI 生态系统以前所未有的速度发展。新的模型和 AI 驱动的工具每周、每月都在涌现,每个模型都比上一个模型提供更多功能和进步。创新速度如此之快,以至于根据 Gartner 的数据,它的速度远远超过了任何其他技术。 

企业正在将生成式人工智能集成到堆栈的每一层。从嵌入开发者环境中的人工智能副驾驶到 CRM 平台中的自动助理,普通员工现在可能每天都会与多个人工智能系统交互。从 Notion 和 Slack 到 Salesforce 和 Microsoft 365 等 SaaS 提供商都推出了 人工智能集成功能 旨在提升工作流程效率。对于用户而言,人工智能驱动的增强功能正成为一种标准期望,而非便捷的附加功能。GenAI 已成为工作场所不可或缺的一部分。但这些集成通常伴随着对内部数据、文档、日历和对话的广泛访问权限。

这种扩散 SaaS 人工智能工具 这意味着组织现在必须保护各种各样的外部平台,这些平台通常缺乏一致的日志记录、访问控制或可见性,从而获取敏感信息。每一次新的集成都会为 AI数据泄露,尤其是当默认设置优先考虑可用性而不是安全性时。

浏览器是新的人工智能工作空间

与传统的企业应用程序(作为专用桌面应用程序运行)不同,大多数 GenAI 交互都是通过 Web 浏览器进行的。大多数 AI 工具(例如 ChatGPT、Claude 和 Gemini)都是通过浏览器访问的。虽然方便,但这种基于浏览器的模型引入了独特的 浏览器AI风险 中间人(MITM)攻击, 如果会话没有被正确隔离,令牌盗窃,甚至浏览器扩展利用都会变得可行。

传统安全工具专为传统企业应用程序和受控环境而设计,无法检查或控制动态浏览器会话中的 AI 交互。它们无法区分安全输入和不安全输入、个人账户和企业账户的使用情况,也无法检测敏感数据被复制粘贴到 LLM 提示中。例如,用户可以轻松地将敏感的金融公司数据粘贴到 ChatGPT 中,或上传专有源代码而不会触发安全警报。这种浏览器层面缺乏实时、上下文感知的可视性和控制力,会造成重大风险,迫使企业重新思考在 AI 优先的工作场所中的安全策略。

人工智能驱动的生产力扩展

由生成式人工智能驱动的浏览器扩展程序(例如人工智能摘要器、写作助手或会议笔记器)通常会请求过多的权限。这些权限包括访问页面内容、Cookie,有时甚至是键盘输入。许多扩展程序是由第三方开发者创建的,其安全监管有限甚至完全没有。

这些扩展打开了 AI注入攻击, 静默数据抓取会话劫持尤其是在安装在非托管端点上时。一旦安装,它们就会静默运行,实时与用户数据交互,并将其传输到外部 API,而这通常超出了传统安全工具的覆盖范围。

云端 API 连接的工作流

在云原生环境中,AI 功能越来越多地通过 API 嵌入到自动化工作流中。开发人员可以将 LLM 连接到 CI/CD 管道、客户服务流程或数据处理管道,通常将结构化或非结构化数据传递给第三方 AI 模型进行汇总、翻译或分类。

这创造了一个基本上看不见的 人工智能攻击面敏感数据未经适当扫描或过滤便流入和流出 AI 服务。如果未经过适当验证,API 端点还可能被利用来注入对抗性输入、窃取内部数据或执行 AI 安全漏洞。

可观察性挑战

确保这一新的人工智能驱动格局的一大挑战是 缺乏实时可观察性传统安全工具无法原生检测 AI 提示、追踪 AI 工具使用情况,也无法识别浏览器会话或 API 交互中数据流的上下文。因此,组织无法了解数据何时、何地以及如何进入或退出 AI 层。 

 

为了防止现代 人工智能安全风险组织需要洞察用户与 AI 之间的每一次交互——无论是在浏览器标签页、SaaS 集成还是云 API 调用中。如果没有持续的监控、治理和执行,AI 层就会成为敏感数据泄露、转移或被利用的不受监控的门户。

GenAI 生态系统中基于浏览器的 DLP 和不安全的插件设计

随着企业加速采用生成式人工智能 (AI),浏览器已成为员工与 ChatGPT、Microsoft Copilot 以及数百个 AI 扩展程序等工具交互的中心访问点。但这种转变迫切需要重新思考传统的数据丢失防护 (DLP)。 浏览器 DLP 正在成为在越来越依赖 Chrome 扩展程序、SaaS 应用程序和 Web 集成插件的环境中监控和控制 AI 使用情况的重要安全层。

为什么浏览器级 DLP 在 GenAI 时代如此重要

与传统应用程序不同,GenAI 工具主要基于 Web,并且通常在受监管平台之外访问。员工经常使用浏览器扩展程序或 Web 应用来生成代码、内容或洞察。这种使用方式绕过了专注于端点、电子邮件或网络流量创建的传统 DLP 工具。 人工智能数据保护的盲点.

基于浏览器的 DLP 解决方案通过实时检查浏览器中的用户交互来弥补这些缺陷。这使得组织能够检测到敏感数据(例如源代码、客户记录或财务文档)何时被复制、输入或上传到 AI 提示中。结合策略执行,这使组织能够 在数据暴露之前阻止、编辑或警告危险行为.

不安全的AI插件和扩展的隐藏风险

AI浏览器扩展 启用或增强人工智能功能的扩展程序尤其成问题。许多扩展程序被设计为具有广泛的权限,可以访问剪贴板数据、操纵页面内容或拦截输入。如果没有经过适当的审查,这些扩展程序就会引入 基于插件的数据泄露 以及其他严重风险,例如:

  • 会话劫持 – 恶意插件可能会收集身份验证 cookie,从而授予攻击者访问 SaaS 应用程序或内部系统的权限。
  • AI注入攻击 – 扩展可以修改提示输入或响应,注入恶意命令或以不被注意的方式改变输出。
  • 静默数据泄露 – 一些插件会在用户不知情的情况下记录用户交互或提示内容并将其发送到第三方服务器。

这种风险并非空穴来风。2023 年,一款安装量超过 10,000 万次的热门 ChatGPT 扩展程序被发现窃取 Facebook 会话令牌,这证明了 GenAI 扩展风险 可能升级为全面的安全事件。

插件间数据泄露

AI 浏览器插件通常需要广泛的权限才能访问页面内容、输入字段、剪贴板或后台进程。当多个扩展程序在同一个浏览器中运行时,这些权限可能会重叠,从而导致 数据泄露的意外途径.

例如,写作助手可能会处理文档输入,而另一个插件可能会访问相同的 DOM 或本地存储。如果没有严格的数据隔离, 敏感内容可能会无意中在插件之间流动 即使两者都不是恶意的。 

这种风险会随着后台进程和共享 API 的出现而增大,因为一个插件可能会充当从另一个插件窃取数据的桥梁。因此,共存的 GenAI 扩展程序会模糊数据边界,使得插件隔离和基于浏览器的 DLP 至关重要。

浏览器应用商店的局限性

Chrome 和 Edge 扩展商店优先考虑的是消费者访问,而非企业安全。它们缺乏深度权限审核、安全开发标准和发布后监控。这使得 恶意或过度宽容的 GenAI 插件 保持在线状态,直到被用户或研究人员举报。许多应用是由不知名的开发者构建的,数据实践不透明,但却能访问关键工作流程。浏览器应用商店并非值得信赖的守门人。企业必须 预先审查、控制和监测 AI 插件本身。

将零信任原则应用于 AI 扩展

应用 零信任 浏览器扩展的思维模式至关重要,尤其是在 GenAI 大量使用的环境中。正如企业会仔细审查应用程序、用户和设备一样, 默认情况下,插件必须被视为不受信任.

意即:

  • 安装前验证发布者的真实性
  • 审核权限范围以避免超越范围(例如剪贴板、DOM、后台访问)
  • 持续监控插件行为,即使经过批准

在 GenAI 工作流中,插件经常访问敏感的文本输入,这种方法有助于防止静默数据泄露和权限滥用。企业不应完全信任任何插件。相反,他们必须将每个插件视为潜在风险,并强制执行 最低权限、身份验证访问。这种分层安全方法可确保企业能够享受 GenAI 带来的生产力提升,而不会为基于插件的入侵或未经授权的数据传输打开大门。

为什么人工智能治理对于安全至关重要

随着生成式人工智能工具逐渐融入日常业务流程,安全领导者面临的挑战不再是是否允许人工智能,而是如何负责任地控制它。这正是 人工智能治理 成为企业安全的核心,并提供框架来确保 安全使用人工智能在创新与风险管理之间取得平衡,在不损害数据完整性、合规性或信任的情况下提高生产力。

人工智能治理的核心是协调安全、法律和合规团队,围绕一个共同的目标 人工智能政策 它提供了一个必要的战略和运营框架,用于控制人工智能工具的访问、使用和监控方式,确保企业在人工智能应用规模扩大时做好准备。该框架必须包括: 

1. 制定人工智能使用政策

有效的人工智能治理始于清晰的 人工智能使用政策 它定义了哪些工具可以批准、哪些数据可以使用,以及在哪些情况下人工智能适用或受限。它消除了歧义,协调了利益相关者,并为跨团队安全、合规地采用人工智能奠定了基础。

2.基于角色的AI工具访问

基于角色的访问控制 (RBAC) 确保员工仅使用与其角色相符的 AI 工具,从而在保护敏感数据的同时提高生产力。它基于这样一个原则:并非所有员工都需要或应该在其工作范围内访问相同的 AI 功能或数据集。开发人员、营销人员和法务团队等均可获得量身定制的访问权限,从而降低风险并防止滥用。这些控制措施可防止意外滥用,同时根据业务功能和风险状况支持合法的生产力需求。

3. 使用批准和异常处理

AI治理框架还应包含管理异常和特殊用例的工作流程。如果员工或团队需要访问受限的AI工具或用例:

  • 他们应该提交正式请求。
  • 该请求应经过涉及安全或合规利益相关者的风险审查流程。
  • 可以在特定的防护措施下授予临时访问权限,例如额外的监控或手动输出审查。

这个系统 使用批准和异常处理 确保灵活性,同时不牺牲监督。

4. 人工智能交互的集中记录和审查

治理不仅要定义允许什么,还要确保了解实际发生的事情。 集中记录 人工智能工具交互提供了内部问责和外部合规所需的可审计性。

这包括记录提示和响应历史记录,捕获用户 ID、会话时间和浏览器上下文等元数据。这些记录有助于检测滥用、调查事件并随着时间的推移完善政策。

5. 监控违反政策或异常行为

为了在策略和保护之间建立闭环,AI治理必须与实时监控相结合。安全团队需要能够实现以下功能的系统:

  • 检测包含受限数据(例如关键字、正则表达式模式)的提示。
  • 在浏览器或非托管设备上标记或阻止未经授权的 AI 工具使用。
  • 读码器 异常行为,例如提示频率过高、访问时间异常或插件活动意外。

通过持续监控政策违规行为,治理从静态文档转变为主动、自适应的安全层。

使治理适应快速发展的人工智能格局

现有的治理框架,例如 ISO/IEC 42001(人工智能管理系统)和 NIST 的人工智能风险管理框架,提供了有用的起点,但必须进行调整,以适应 GenAI 工具独特的发展速度和行为。这些工具的运行方式与传统软件不同;它们实时演进,处理不可预测的输入,并且通常通过消费级界面使用。

因此,人工智能治理必须是迭代的、动态的。它应该经常进行审查,反映现实世界的使用模式,并与人工智能能力和威胁情报一起发展。 

治理:赋能与保护之间的桥梁

总而言之,AI治理是连接负责任的AI赋能与企业级保护的桥梁。它确保AI工具不仅被允许使用,而且能够安全、合乎道德地使用,并完全符合内部和外部的法规要求。如果没有正式的治理结构,企业将面临一个碎片化的环境,员工可以自由地尝试ChatGPT、Copilot和其他工具——他们经常将敏感数据粘贴到公共模型中,或使用未经审查的插件。这为违规行为、数据泄露以及不受监控的AI决策打开了大门,这些都可能影响运营或法律地位。因此,随着GenAI的不断发展,治理必须保持灵活性、可执行性,并深度融入组织更广泛的安全架构中。

GenAI 安全的最佳实践

  • 绘制组织内所有 AI 使用情况的地图

管理GenAI风险的第一步是规划其在公司范围内的使用情况。作为规划过程的一部分,组织必须监控:

  • 正在使用哪些 GenAI 工具? 它们是通过网络应用程序、浏览器扩展还是独立软件访问的?
  • 谁在使用它们? 他们在研发、市场、财务还是其他部门?
  • 他们使用 GenAI 来做什么? 诸如代码审查、数据分析和内容生成之类的任务?
  • 这些工具中输入了什么样的数据?  员工是否暴露代码、敏感业务数据或 PII?

一旦您有了这些问题的答案,您就可以开始构建清晰的使用情况配置文件,发现高风险区域,并制定在确保数据保护的同时提高生产力的计划。

  • 实施基于角色的访问并防止个人账户

入学申请 基于角色的访问控制 根据工作职能和数据敏感性风险限制暴露。开发人员可能需要访问AI代码助手,而法务或财务团队可能由于处理敏感数据而需要限制访问权限。使用审批工作流处理例外情况,在治理监督下实现灵活性。 

为了防止不安全的 LLM 租户获取敏感信息,组织应阻止个人登录,并强制通过具有安全功能(例如私人租户、零培训承诺、严格的数据保留控制和更强大的隐私保护)的公司帐户进行访问。

  • 部署浏览器级 AI DLP

生成式人工智能工具主要通过浏览器访问,这使得 人工智能DLP 在浏览器层面,这是一个关键的控制点。基于浏览器的数据丢失防护工具可以:

  • 检测敏感数据何时被输入到 AI 提示中
  • 实时屏蔽或编辑受监管信息
  • 提供日志交互以确保合规性和审计准备

基于浏览器的 DLP 控制对于监控绕过传统端点或网络安全工具的 AI 使用情况至关重要。

  • 监控和控制AI扩展

AI 驱动的浏览器扩展程序会过度访问网页、键盘输入和会话数据,从而带来风险。请应用以下 AI 扩展程序控制策略:

  • 限制安装未经批准或未知的插件
  • 审核正在使用的扩展并评估其权限
  • 阻止对企业应用程序具有过多访问权限的扩展

持续检查插件行为以检测异常活动或静默数据捕获。

  • 对员工进行安全使用人工智能的教育

企业的安全意识计划也必须包含安全使用 GenAI 的培训。企业必须培训员工做到以下几点:

  • 认识到哪些数据永远不应该与人工智能工具共享。
  • 使用批准的平台并遵循政策指南。
  • 报告可疑的滥用或未经授权的工具。

将人工智能安全纳入定期培训周期的一部分,以在人工智能工具不断发展的同时强化负责任的行为。

GenAI安全性不佳的现实影响

虽然像 ChatGPT 这样的 GenAI 工具可以提高生产力,但其滥用或不安全的部署已经导致了严重的数据泄露、合规违规和声誉损害。事实证明,薄弱的 AI 治理、过度宽松的扩展以及未经批准的工具使用是导致现实世界安全故障的主要原因,这也凸显了 GenAI 风险管理不再是可有可无的必要性。

1. 三星源代码泄露

2023年初,三星工程师将专有源代码粘贴到ChatGPT中以调试错误,此事引发了媒体关注。尽管此举旨在提高生产力,但其影响却立竿见影:高度机密的代码可能暴露在OpenAI的模型和存储系统中。这一事件引发了ChatGPT的内部禁令,并促使公司对AI工具的使用情况进行了全公司范围的审计。

带走: 如果没有定义和执行适当的使用界限,即使是善意使用 GenAI 也可能导致不可逆转的数据丢失。

2. ChatGPT 滥用导致 DWS 集团面临合规调查

德意志银行旗下资产管理子公司DWS集团因员工使用ChatGPT进行投资研究和客户沟通而受到调查。监管机构将此标记为合规失败,并指出金融机构必须审查人工智能工具,并确保其输出符合监管准确性和数据处理标准。

影响: 监管审查、声誉风险、合规政策收紧。

3. Teleperformance——人工智能监控工具引发的数据隐私担忧

全球客户服务提供商Teleperformance因使用人工智能监控工具监控在家办公的员工而面临审查。这些工具被发现在未经用户同意或采取安全措施的情况下获取个人敏感数据,包括视频片段。数据保护监管机构提出 人工智能滥用 和道德问题。

影响: 公众的强烈反对、数据保护审计以及人工智能工具部署的运营变化。

4. AI幻觉引发法律风险

一家国际咨询公司因内部研究中使用的生成式人工智能工具在交付给客户的可交付成果中返回了不准确的信息,导致公司声誉受损。这些虚假内容被当作事实呈现,导致客户关系受损,并导致合同损失。

带走: 生成性人工智能的影响不仅限于安全性,因为如果在未经适当审查的情况下使用生成有缺陷或误导性输出的工具,可能会引发声誉、运营和法律损害。

5.影子AI工具蔓延导致IT工作量增加

在缺乏集中控制的情况下,员工经常采用未经授权的AI工具和插件来提高生产力。这种蔓延给IT团队带来了跟踪、评估和缓解未知风险的负担。

计费示例: 一家财富 500 强公司发现各部门积极使用 40 多种未经批准的 AI 工具,每种工具都有不同的访问级别和不明确的数据处理实践。

影响: IT 开销增加,风险状况分散,迫切需要治理。

6. 恶意扩展或插件引发的安全事件

GenAI 浏览器扩展可能会引入 AI 注入、静默数据访问或会话劫持风险,尤其是在过于宽松或未经安全团队审查的情况下。

计费示例: Chrome 网上应用店中的 ChatGPT 扩展程序被发现窃取 Facebook 会话 cookie,从而授予攻击者完全帐户访问权限。

影响: 账户接管、浏览器级别违规、用户信任的侵蚀。

如果没有强大的 GenAI 安全和治理,企业面临的风险不仅仅是技术漏洞,还包括法律、声誉和运营方面的后果。主动利用使用层控制、数据泄露防护 (DLP) 和基于角色的治理来应对这些风险,对于安全高效地采用 AI 至关重要。

LayerX 如何确保 GenAI 的使用

随着企业纷纷采用 GenAI 工具,保护敏感数据免遭意外泄露的挑战也变得愈发紧迫。传统的安全工具并非专为 GenAI 交互的动态、基于浏览器的特性而构建。LayerX 应运而生——提供专用的浏览器原生防御方案,在不影响生产力的情况下,提供实时可见性、控制力和防护,防止意外数据泄露。

  • 用于 AI 提示的实时浏览器 DLP

LayerX 解决方案的核心是其 DLP(数据丢失防护)功能。与在网络或终端级别运行的传统 DLP 工具不同,LayerX 直接集成到浏览器——ChatGPT 等 AI 工具的主要界面。这使得它能够在数据离开企业边界之前实时检查和控制用户输入。当用户尝试将 PII、源代码、财务详细信息或机密文档等敏感数据粘贴或输入到 ChatGPT 中时,LayerX 会检测到这些数据。然后,它会强制执行基于策略的操作,例如编辑、警告提示或直接阻止。

成果:敏感数据在源头被阻止,防止意外或未经授权的泄露,同时不会中断用户的工作流程。

  • 生成式 AI 监控和影子 AI 可见性

LayerX 提供用户访问的所有 GenAI 工具、网站和 SaaS 应用的全面可视性,无论是授权访问还是影子访问。通过持续监控浏览器活动,它可以识别谁在使用哪些 AI 工具,以及通过哪些账户(企业账户、单点登录账户或个人账户)。它还可以检测输入的数据类型,无论是编写提示、粘贴客户数据还是上传敏感文件。 

结果: 这使得安全团队能够检测未经授权的使用,消除影子人工智能,监控敏感数据交互,识别高风险行为并在数据事件发生之前采取纠正措施。

  • 细粒度、情境感知的策略执行

借助 LayerX,企业可以针对 AI 用例定制情境感知策略。这些策略可以根据用户角色、应用情境、数据类型和会话属性在浏览器级别强制执行。例如,策略可以允许营销团队使用 ChatGPT 生成内容,同时阻止提交客户数据或内部文档。开发人员可以测试代码片段,但不能共享源代码存储库。LayerX 会强制执行基于策略的操作,例如编辑、在用户即将违反策略时发出警告提示,或直接阻止。

成果:人工智能赋能和企业人工智能保护,确保负责任地使用而不限制创新。

  • 插件和扩展治理

LayerX 还可以防范高风险的 AI 插件交互,这些交互可能会悄无声息地将提示内容泄露给第三方 API。它可以根据风险级别、来源和功能识别和分类 AI 浏览器扩展和插件。它还可以监控和管理插件行为,使管理员能够根据其数据处理实践批准、阻止或限制插件。 

成果:企业减少了基于插件的漏洞的暴露,并在整个组织内实施更强有力的人工智能数据治理。

结论:通过 LayerX 在整个企业范围内实现安全、可扩展的 AI

生成式人工智能 (Generative AI) 已成趋势,并正在重塑每个组织的工作方式。然而,如果没有适当的保障措施,像 ChatGPT 这样的生成式人工智能 (GenAI) 工具很快就会从生产力提升工具转变为数据泄露风险。LayerX 赋能企业自信地拥抱人工智能,提供所需的可视性、控制力和保护,确保敏感数据安全、使用合规,并控制风险。无论您是在对抗影子人工智能 (Shadow AI)、执行人工智能使用策略,还是防止实时数据泄露,LayerX 都能为安全且可扩展的人工智能应用提供安全基础。 

不要让 AI 创新超越您的安全策略。立即采用 LayerX,将 AI 从风险转化为竞争优势。

预约演示 查看 LayerX 的实际运行情况。