GenAI 已成为员工工具包中必不可少的组成部分。然而,除了这些夸张的标题之外,关于如何使用 AI 应用程序的实际定量数据仍然出奇地稀少。在 LayerX,我们的企业浏览器扩展程序让我们能够查看用户在浏览器中的活动,其中 GenAI 应用程序使用 发生。 我们可以利用这种可见性来全面了解 GenAI 工具和支持 AI 的 SaaS 应用程序的使用情况。
为了阐明 GenAI 的使用情况,造福安全社区,我们汇编并分析了这些数据,创建了一个 报告 关于企业用户如何在工作场所使用 AI 的 (令人惊讶的) 发现。基于从 LayerX Security 客户群收集的真实数据和遥测数据,这是第一份也是独一无二的企业使用 GenAI 的报告。
以下是我们得出的一些重要结论。要阅读全文“2025 年企业 GenAI 数据安全报告”报告,包括所有数据点和高级分析, 点击此处.
GenAI 的使用范围有多广泛?
虽然 ChatGPT、Gemini 和 Copilot 等 GenAI 工具已成为人们日常谈论的话题,但 LayerX 发现实际使用情况仍然很随意。只有 14.5% 的企业用户每周使用这些工具。大部分活动是通过 ChatGPT 进行的。软件开发人员是最常见的用户(39%),其次是销售和营销人员(28%)。
这表明,尽管 GenAI 自 2022 年底以来取得了重大进展,但它尚未成为大多数人日常工作流程不可或缺的一部分。不过,采用率预计会增长,组织应该跟踪使用情况,以更好地了解 AI 在不同角色中的应用情况。
哪些 AI SaaS 应用程序正在使用?
LayerX 数据显示,AI 应用的使用量高度集中在少数几个主导工具上,仅 ChatGPT 就占了所有 AI 相关网站请求的近 52%。Gemini、Claude 和 Copilot 等排名前五的 AI 应用占 AI 使用量的 86%,而排名后 50 的 AI 应用合计占比不到 1%。
从安全和 IT 角度来看,这会产生“影子 AI”问题,即许多鲜为人知的 AI 应用程序在几乎没有监督的情况下秘密运行,可能会暴露敏感数据并造成安全风险。为了缓解这种情况,建议安全团队实施监控和治理,以跟踪所有 SaaS 应用程序中的 AI 使用情况。
组织是否了解工作场所 AI 的使用情况?
工作场所 AI 的绝大部分使用都发生在组织监督之外,71.6% 的 GenAI 工具访问是通过非公司账户进行的。即使在使用公司账户的用户中,也只有 11.7% 的总登录次数符合 SSO 支持的公司账户的安全标准。 这实际上使得近 90% 的 AI 工具使用情况对组织来说是不可见的。
使用个人账户使用 GenAI 工具的员工会绕过公司安全措施,使公司数据面临潜在的安全风险,包括未经授权的数据用于 AI 模型训练。即使使用公司账户,如果不使用 SSO,组织也会失去对 AI 交互的可见性。
哪些信息正在被共享?
一小部分企业用户负责使用 GenAI 工具共享大量数据。但是,那些确实参与此活动的用户往往非常频繁地这样做——重度用户平均每天粘贴数据 6.8 次,其中超过 50% 的粘贴内容包含公司信息。文件上传虽然不太常见,但也发生率很高。
主要风险来自复制/粘贴和文件上传,因为它们使大量敏感的公司数据能够快速共享。同样,文件上传可能涉及大型数据集,如果不加以监控,可能会带来安全风险。为了减轻潜在的数据暴露,组织应密切监控用户与 GenAI 工具的交互,跟踪数据共享活动,并实施控制措施以防止未经授权披露公司信息。
AI 浏览器扩展的问题
支持 GenAI 浏览器扩展 对企业构成重大但经常被忽视的安全风险。我们的研究表明,超过 20% 的用户安装了至少一个基于 AI 的浏览器扩展,其中近一半的用户使用多个扩展。令人震惊的是,58% 的扩展请求“高”或“关键”权限,授予对敏感数据(如 cookie、浏览活动和用户身份)的访问权限。更令人担忧的是,5.6% 的基于 AI 的扩展被归类为恶意扩展,使其成为数据盗窃的潜在载体。
浏览器扩展安全是组织整体 GenAI 安全策略不可或缺的一部分。安全团队必须对支持 AI 的浏览器扩展实施控制,确保它们受到与直接 GenAI 访问相同的审查,以减轻潜在威胁。
组织的下一步是什么
根据报告,组织似乎缺乏对 AI SaaS 应用程序的登录和访问、使用非最流行的应用程序以及 AI 浏览器扩展的可见性。了解这些隐藏威胁面的各个方面应该是每个组织的首要任务。由于消费是通过浏览器进行的,因此防止 GenAI 数据泄露需要 浏览器优先的安全策略 重点关注用户在何处以及如何使用 GenAI 工具,并部署相应实施安全保护的安全工具。