作为浏览器安全领域的行业领导者,我们致力于揭示与 GenAI 工具等革命性技术相关的风险。我们最新的研究, “揭示真正的 GenAI 数据暴露风险”, 提供对这些风险的范围和性质的重要见解。具体来说,我们研究了通过 GenAI 进行数据泄露的令人不安的风险。

为了创建这份报告,我们分析了 10,000 名员工如何使用 ChatGPT 和其他生成式 AI 应用程序。数据来自安装了 LayerX 扩展的设备。在这篇博文中,我们深入研究了该报告的主要发现,并讨论了组织如何利用这些信息来保护敏感数据。要阅读完整报告的更多详细信息, 点击此处.

GenAI 的 5 个关键使用发现

1. 过去 44 个月 GenAI API 使用量增长 3%

毫不奇怪,过去几个月 GenAI 的使用量显着增加。这主要归功于 ChatGPT 的迅速普及。可以合理地假设使用量只会增长。

2. 15%的员工已将数据粘贴到GenAI中

为了充分利用 GenAI 应用程序,员工不仅要输入提示,还要粘贴数据。提醒一下,这些数据可能会用于训练这些应用程序,这意味着它可能会在其他用户的响应中弹出。这使得粘贴操作很可能成为数据泄露的来源。

3. 研发、营销和销售以及财务是 GenAI 用户最多的领域。

GenAI 的“重度”用户中,50% 来自研发部门,23.8% 来自营销和销售部门,14.3% 来自财务部门。这意味着这些部门构成组织面临的最高风险。

4. 6% 的员工曾将敏感数据粘贴到 GenAI 中,4% 的员工每周都会将敏感数据粘贴到 GenAI 中。

请注意这个统计数据,这非常令人震惊 – A 很大一部分 GenAI 用户将敏感的公司数据暴露给 GenAI。虽然这可能是无辜的行为,但这是反复出现的行为,增加了数据泄露的风险。

5. 31%的暴露数据是源代码

43% 是内部业务数据,12% 是 PII。组织正在投入努力和资源来保护他们的皇冠上的宝石,但在开放空间的另一边,他们的皇冠上的宝石正在被粘贴到公共工具中。

阅读完整报告

GenAI 正在为生产力、创造力和创新开辟新的机遇。然而,重要的是要承认 GenAI 带来的风险。具体来说,是那些与敏感数据的安全和隐私相关的数据。

本报告的目的是揭露粘贴与 GenAI 相关的敏感数据的潜在危险。正如我们所展示的,业务计划、源代码和 PII 正在被粘贴到这些公共资源中。预计这个数字只会增加。 

阅读整个调查,获取更多详细信息,帮助您制定 GenAI 安全策略。获得更多见解,例如:

  • 有多少员工每天发布敏感数据
  • 每天有多少次数据被粘贴到 GenAI 应用程序中
  • 如何防止敏感数据粘贴
  • 还有更多

阅读完整的报告。