LayerX Labs 发现了一种新的攻击媒介,恶意行为者会试图从毫无戒心的用户那里提取敏感数据:GPT Masquareding 攻击。 

在此次攻击中,黑客冒充托管在 OpenAI 的 ChatGPT 平台上的合法 GPT,以诱骗用户使用这些 GPT 的伪造版本,并将用户与 GPT 共享的数据发送到远程服务器,以此方式提取敏感数据。

人工智能 (AI) 工具改变了我们与技术互动的方式,为从医疗保健到金融等各个领域提供创新解决方案。这些工具可提高效率、自动执行任务并提供以前无法获得的见解。人工智能最显著的进步之一是生成式预训练 Transformers (GPT),它处于自然语言处理的前沿。

什么是 GPT?

OpenAI 最近添加了新功能,可以在其平台上创建自定义 GTP,并向 OpenAI 用户开放它们,类似于应用程序市场。

生成式预训练 Transformers (GPT) 是先进的 AI 模型,旨在理解和生成人类语言。它们由 OpenAI 开发,在涵盖广泛主题的大量数据集上进行训练,使其能够根据用户提示生成连贯且与上下文相关的文本。通过分析语言模式,GPT 可以参与对话、回答问题并创建反映人类交流的内容。

GPT 的多功能性使其可以应用于许多方面,包括用于客户服务的聊天机器人、用于博客和文章的内容创建、语言翻译,甚至编码协助。随着这些模型的不断发展,它们越来越善于理解语言中的上下文和细微差别,使其成为个人和专业环境中的宝贵工具。 

然而,自定义 GPT 提供的生产力优势也是用户可能遭受 GPT Masquareding 攻击的原因。

网络犯罪分子的伎俩:利用 GPT

随着生成式预训练 Transformer (GPT) 的功能不断扩展,网络犯罪分子利用这些技术进行恶意攻击的可能性也在不断增加。LayerX Labs 发现的一种重要攻击媒介(称为 GPT Masquareing 攻击)是恶意行为者能够创建与合法 GPT 模型完全相同或看似相似的版本,以诱骗合法用户共享敏感信息。

通过复制这些模型,他们可以操纵用户,让他们相信自己正在与值得信赖的人工智能进行交互,从而获得对敏感数据和信息的未经授权的访问。

 

攻击者如何创建Masquareding GPT:

  1. 确定他们想要复制的现有合法 GPT。 这可以是知名品牌的 GPT,也可以是许多用户可能有兴趣使用的特别受欢迎或有用的工具。
  2. 创建外观相似、具有相同名称、图标和描述的 GPT对于外部观察者来说,这个 GPT 看起来与原始(合法)GPT 完全相同。
  3. 等待用户搜索合法的GPT。 区分不同的 GPT 非常困难,用户可以轻松点击进入伪装的 GPT。
  4. 将 GPT 中输入或上传的信息发送到外部服务器。系统将提示用户同意与外部服务器共享信息,但如果他们期待这种行为(或者不太了解),他们将无法控制这些数据被发送到哪里。
  5. 一旦信息被发送到第三方服务器,它就脱离了用户的掌控,落入了攻击者的手中。虽然大多数信息可能是无害的,但它可能包含敏感信息,如专有源代码、用于分析的客户信息等。

 

网络犯罪分子可以设置看似使用合法 GPT 的虚假平台或应用程序。通过模仿知名 AI 服务的界面和功能,他们可以诱骗毫无戒心的用户分享个人信息或凭证。一旦用户使用这些假冒模型,输入的任何数据(例如登录凭证、付款信息或私人消息)都可能被传输到犯罪分​​子的服务器。这会带来巨大风险,因为用户可能直到为时已晚才意识到自己已成为骗局的受害者。

而且,这些 欺诈性 GPT 可以设计成以鼓励进一步披露数据的方式吸引用户。例如,它们可能会模拟客户支持互动,以解决问题为幌子诱使用户提供更详细的个人信息。GPT 能够生成类似人类的文本,这使得用户难以辨别合法和恶意互动,从而增加了数据被盗的风险。

组织内部的威胁

GPT 已成为开发人员必不可少的工具,可帮助开发人员进行编码、调试和文档编制。因此,这些 GPT 的欺诈版本可能会针对开发人员提取敏感的内部代码,从而给组织带来巨大的经济和声誉损害。

这些恶意的 GPT 可以被设计成与受信任的开发工具非常相似,从而很容易误导毫无戒心的开发人员。例如,攻击者可以部署一个伪造的人工智能助手,该助手的功能似乎与现有的编码助手类似,诱使开发人员与其交互。一旦参与其中,这些欺诈模型就可以以改进功能或修复错误的幌子促使用户分享代码片段或专有算法。

 

下面是创建冒充 Code CoPilot GPT 的 Masquerading GPT 的示例:

 

在协作环境中,风险尤其严重,因为开发人员经常寻求人工智能工具的帮助来完成复杂的任务: 当开发人员在不知情的情况下将敏感的内部代码提交给欺诈性 GPT 时,攻击者便可以访问组织软件中的关键知识产权和潜在可利用的漏洞。这不仅危及公司的竞争优势,也增加了进一步遭受网络攻击的可能性。

此外,网络犯罪分子可以自动分发这些假冒 GPT,同时针对多个组织和开发人员。通过精心设计强调使用假冒工具的好处的消息,他们可以有效地引诱渴望获得支持的开发人员。这些人工智能模型的复杂性使他们能够生成看似可信和相关的响应,进一步模糊了合法援助与恶意意图之间的界限。

结语

GPT 的兴起无疑改变了我们与技术的互动方式,提高了各个领域的生产力和效率。然而,这种进步也带来了巨大的风险,特别是当网络犯罪分子利用这些工具进行恶意目的时。通过创建模仿合法 GPT 的欺诈版本,攻击者可以欺骗用户和组织,导致数据被盗、财务损失和声誉受损。

为了应对这些风险,LayerX 提供了几种关键的缓解策略,旨在保护组织免受与 AI 模型的不必要交互:

  1. 我们独特的浏览器安全解决方案 – 实施 LayerX 的浏览器安全解决方案来监控和过滤网络交互。这些工具可以检测欺诈性网站,并在用户接触恶意 GPT 之前发出警报。
  2. 存取控制 – 使用 LayerX 的访问管理功能来限制员工使用未经授权的 AI 工具。通过控制哪些应用程序可以通过公司网络访问,组织可以降低接触假冒模型的风险。
  3. 行为分析 – 利用 LayerX 的行为分析功能来识别与 AI 工具交互的异常模式。这有助于检测潜在的网络钓鱼尝试或对敏感代码的未经授权的请求。
  4. 实时警报 – 设置实时警报,通知安全团队任何与 AI 交互相关的可疑活动。这种主动方法将使您的组织能够快速应对潜在威胁。

通过将这些策略集成到您的安全框架中,您的组织可以更好地防范 AI 技术的利用。随着 GPT 技术的不断发展,利用 LayerX 的专业解决方案对于维护安全环境和保护敏感信息至关重要。