LayerX Labs identifikovalo nový vektor útoku pro zlomyslné aktéry, aby se pokusili získat citlivá data z nic netušících uživatelů: GPT Masquareding Attacks.
V tomto útoku se hackeři vydávají za legitimní GPT hostované na platformě ChatGPT OpenAI, aby nalákali uživatele na falešné verze těchto GPT a odeslali data, která uživatelé sdíleli s GPT, na vzdálený server, a tak extrahovali citlivá data.
Nástroje umělé inteligence (AI) změnily způsob, jakým interagujeme s technologiemi, a nabízejí inovativní řešení v různých oblastech, od zdravotnictví po finance. Tyto nástroje zvyšují efektivitu, automatizují úkoly a poskytují poznatky, které byly dříve nedosažitelné. Mezi nejpozoruhodnější pokroky v AI patří Generative Pre-trained Transformers (GPT), které jsou v popředí zpracování přirozeného jazyka.
Co jsou značky GPT?
OpenAI nedávno přidala novou funkci pro vytváření vlastních GTP na jejich platformě a jejich otevření uživatelům OpenAI, podobně jako na trhu aplikací.
Generativní předtrénované transformátory (GPT) jsou pokročilé modely umělé inteligence navržené tak, aby rozuměly a generovaly lidský jazyk. Vyvinuto OpenAI a jsou školeni na rozsáhlých souborech dat, které zahrnují širokou škálu témat, což jim umožňuje vytvářet koherentní a kontextově relevantní text na základě uživatelských výzev. Analýzou jazykových vzorců se mohou značky GPT zapojit do konverzací, odpovídat na otázky a vytvářet obsah, který odráží lidskou komunikaci.
Všestrannost značek GPT umožňuje jejich použití mnoha způsoby, včetně chatbotů pro zákaznický servis, vytváření obsahu pro blogy a články, jazykového překladu a dokonce i pomoci s kódováním. Jak se tyto modely neustále vyvíjejí, stávají se zběhlejšími v porozumění kontextu a nuancím v jazyce, což z nich dělá neocenitelné nástroje v osobním i profesionálním prostředí.
Výhody produktivity poskytované vlastními GPT jsou však důvodem, proč uživatelé mohou podlehnout GPT Masquareding Attacks.
Příručka pro kyberzločince: Využívání značek GPT
S tím, jak se neustále rozšiřují možnosti generativních předtrénovaných transformátorů (GPT), roste i potenciál kyberzločinců využívat tyto technologie ke škodlivým účelům. Jedním z významných vektorů útoků identifikovaných laboratořemi LayerX – a nazývanými GPT Masquareing Attacks – je schopnost zlomyslných aktérů vytvářet identické nebo klamně podobné verze legitimních modelů GPT, aby nalákali legitimní uživatele ke sdílení citlivých informací.
Replikováním těchto modelů mohou uživatele zmanipulovat, aby uvěřili, že interagují s důvěryhodnou AI, čímž získá neoprávněný přístup k citlivým údajům a informacím.
Jak útočníci vytvářejí maskované značky GPT:
- Identifikujte existující legitimní značku GPT, kterou chtějí replikovat. Může to být buď značka GPT od známé značky, nebo obzvláště oblíbený nebo užitečný nástroj, o který může mít zájem mnoho uživatelů.
- Vytvořte podobně vypadající GPT se stejným názvem, ikonou a popisem. Vnějšímu pozorovateli se tato značka GPT bude jevit zcela identická s původní (legitimní) značkou GPT.
- Počkejte, až uživatelé vyhledá legitimní značku GPT. Rozlišení mezi různými značkami GPT je velmi obtížné a uživatelé mohou snadno kliknout na maskovanou značku GPT.
- Odesílejte informace zadané nebo nahrané do GPT na externí server. Uživatelé budou vyzváni ke schválení sdílení informací s externím serverem, ale pokud očekávají tento typ chování (nebo nevědí lépe), nebudou mít žádnou kontrolu nad tím, kam se tato data posílají.
- Jakmile jsou informace odeslány na server třetí strany, jsou mimo ruce uživatelů a v rukou útočníků. Zatímco většina informací bude pravděpodobně neškodných, mohou obsahovat citlivé informace, jako je vlastní zdrojový kód, informace o zákaznících pro analýzu a další.
Kyberzločinci mohou nastavit falešné platformy nebo aplikace, které vypadají, že používají legitimní GPT. Napodobením rozhraní a funkcí známé služby umělé inteligence mohou nalákat nic netušící uživatele ke sdílení osobních údajů nebo přihlašovacích údajů. Jakmile se uživatelé zapojí do těchto padělaných modelů, všechna zadaná data, jako jsou přihlašovací údaje, platební údaje nebo soukromé zprávy, mohou být přenesena na servery zločinců. To vytváří značné riziko, protože uživatelé si nemusí uvědomit, že se stali obětí podvodu, dokud není příliš pozdě.
Navíc, tyto podvodné značky GPT mohou být navrženy tak, aby uživatele zaujaly způsoby, které podněcují další zveřejňování údajů. Mohou například simulovat interakce se zákaznickou podporou a přesvědčit uživatele, aby pod rouškou vyřešení problémů poskytli podrobnější osobní údaje. Schopnost značek GPT generovat lidský text ztěžuje uživatelům rozlišovat mezi legitimními a škodlivými interakcemi, čímž se zvyšuje riziko krádeže dat.
Hrozba uvnitř organizace
Značky GPT se staly základními nástroji pro vývojáře, které pomáhají při kódování, ladění a dokumentaci. V důsledku toho mohou podvodné verze těchto GPT významně poškodit organizace jak finančně, tak i pověsti tím, že se zaměřují na vývojáře, aby extrahovali citlivý interní kód.
Tyto škodlivé značky GPT mohou být navrženy tak, aby se co nejvíce podobaly důvěryhodným vývojářským nástrojům, což usnadňuje oklamání nic netušících vývojářů.. Útočník by například mohl nasadit padělaného asistenta umělé inteligence, který vypadá, že funguje podobně jako zavedený pomocník s kódováním, a láká vývojáře, aby s ním interagovali. Po zapojení mohou tyto podvodné modely vyzvat uživatele ke sdílení úryvků kódu nebo proprietárních algoritmů pod zástěrkou vylepšení funkčnosti nebo opravy chyb.
Níže je uveden příklad vytvoření maskovací značky GPT, která se vydává za značku Code CoPilot GPT:
Riziko je zvláště akutní v prostředích pro spolupráci, kde vývojáři často hledají pomoc od nástrojů AI pro složité úkoly: Když vývojář nevědomky odešle citlivý interní kód podvodnému GPT, útočník získá přístup ke kritickému duševnímu vlastnictví a potenciálně zneužitelným zranitelnostem v softwaru organizace.. To nejen ohrožuje konkurenční výhodu společnosti, ale také zvyšuje pravděpodobnost dalších kybernetických útoků.
Kromě toho mohou kyberzločinci automatizovat distribuci těchto falešných značek GPT a zaměřovat se na více organizací a vývojářů současně. Vytvářením zpráv, které zdůrazňují výhody používání jejich padělaných nástrojů, mohou efektivně přilákat vývojáře, kteří touží po podpoře. Sofistikovaná povaha těchto modelů umělé inteligence jim umožňuje generovat odpovědi, které se zdají být důvěryhodné a relevantní, čímž se dále stírají hranice mezi legitimní pomocí a zlými úmysly.
Závěr
Vzestup značek GPT nepochybně změnil způsob, jakým interagujeme s technologiemi, a zvýšil produktivitu a efektivitu v různých oblastech. Tento pokrok však také přináší značná rizika, zejména když kyberzločinci zneužívají tyto nástroje ke škodlivým účelům. Vytvořením podvodných verzí značek GPT, které napodobují ty legitimní, mohou útočníci klamat uživatele a organizace, což vede ke krádeži dat, finanční ztrátě a poškození pověsti.
K řešení těchto rizik nabízí LayerX několik klíčových strategií zmírňování šitých na míru k ochraně organizací před nežádoucími interakcemi s modely AI:
- Naše jedinečné řešení zabezpečení prohlížeče – Implementujte řešení zabezpečení prohlížeče LayerX pro sledování a filtrování webových interakcí. Tyto nástroje dokážou odhalit podvodné stránky a upozornit uživatele dříve, než se zapojí do škodlivých značek GPT.
- Řízení přístupu – Použijte funkce správy přístupu LayerX k omezení zaměstnanců v používání neautorizovaných nástrojů AI. Řízením toho, ke kterým aplikacím lze přistupovat prostřednictvím podnikových sítí, mohou organizace snížit riziko vystavení padělaným modelům.
- Analýza chování – Využijte schopnosti analýzy chování LayerX k identifikaci neobvyklých vzorců interakce s nástroji AI. To může pomoci odhalit potenciální pokusy o phishing nebo neoprávněné požadavky na citlivý kód.
- Upozornění v reálném čase – Nastavte výstrahy v reálném čase, které upozorní bezpečnostní týmy na jakoukoli podezřelou aktivitu související s interakcemi AI. Tento proaktivní přístup umožní vaší organizaci rychle reagovat na potenciální hrozby.
Integrací těchto strategií do vašeho bezpečnostního rámce se vaše organizace může lépe chránit před zneužitím technologií AI. Vzhledem k tomu, že se technologie GPT neustále vyvíjí, bude využití specializovaných řešení od LayerX zásadní pro udržení bezpečného prostředí a ochranu citlivých informací.
