LayerX Labs heeft een nieuw aanvalskanaal geïdentificeerd waarmee kwaadwillenden vertrouwelijke gegevens van nietsvermoedende gebruikers kunnen ontfutselen: GPT Masquareding-aanvallen.
Bij deze aanval doen hackers zich voor als legitieme GPT's die worden gehost op het ChatGPT-platform van OpenAI. Op die manier proberen ze gebruikers te lokken naar nepversies van die GPT's en sturen ze de gegevens die gebruikers met de GPT delen naar een externe server. Op die manier kunnen ze gevoelige gegevens buitmaken.
Tools voor kunstmatige intelligentie (AI) hebben de manier waarop we omgaan met technologie getransformeerd en bieden innovatieve oplossingen in verschillende domeinen, van gezondheidszorg tot financiën. Deze tools verbeteren de efficiëntie, automatiseren taken en bieden inzichten die voorheen onbereikbaar waren. Tot de meest opvallende ontwikkelingen in AI behoren Generative Pre-trained Transformers (GPT's), die vooroplopen in natuurlijke taalverwerking.
Wat zijn GPT's?
OpenAI heeft onlangs een nieuwe functie toegevoegd waarmee u aangepaste GTP's op uw platform kunt maken en deze beschikbaar kunt stellen aan OpenAI-gebruikers, vergelijkbaar met een marktplaats voor applicaties.
Generative Pre-trained Transformers (GPT's) zijn geavanceerde AI-modellen die zijn ontworpen om menselijke taal te begrijpen en te genereren. Ze zijn ontwikkeld door OpenAI en worden getraind op uitgebreide datasets die een breed scala aan onderwerpen omvatten, waardoor ze coherente en contextueel relevante tekst kunnen produceren op basis van gebruikersprompts. Door taalpatronen te analyseren, kunnen GPT's gesprekken voeren, vragen beantwoorden en content creëren die menselijke communicatie weerspiegelt.
De veelzijdigheid van GPT's zorgt ervoor dat ze op talloze manieren kunnen worden toegepast, waaronder chatbots voor klantenservice, contentcreatie voor blogs en artikelen, taalvertaling en zelfs coderingshulp. Naarmate deze modellen zich blijven ontwikkelen, worden ze steeds bedrevener in het begrijpen van context en nuances in taal, waardoor ze onschatbare hulpmiddelen worden in zowel persoonlijke als professionele settings.
De productiviteitsvoordelen die aangepaste GPT's bieden, zijn echter de reden waarom gebruikers het slachtoffer kunnen worden van GPT Masquareding-aanvallen.
Cybercriminelenhandboek: GPT's uitbuiten
Naarmate de mogelijkheden van Generative Pre-trained Transformers (GPT's) blijven toenemen, groeit ook het potentieel voor cybercriminelen om deze technologieën te misbruiken voor kwaadaardige doeleinden. Een belangrijke aanvalsvector die door LayerX Labs is geïdentificeerd – en die GPT Masquareing Attacks wordt genoemd – is het vermogen van kwaadwillende actoren om identieke of misleidend vergelijkbare versies van legitieme GPT-modellen te creëren, om legitieme gebruikers ertoe te verleiden gevoelige informatie te delen.
Door deze modellen te repliceren, kunnen ze gebruikers manipuleren om te geloven dat ze met een vertrouwde AI interacteren., waardoor ongeautoriseerde toegang tot gevoelige gegevens en informatie ontstaat.
Hoe aanvallers Masquareding GPT's creëren:
- Identificeer een bestaande, legitieme GPT die ze willen repliceren. Dit kan een GPT van een bekend merk zijn, of een bijzonder populaire of nuttige tool die veel gebruikers graag willen gebruiken.
- Maak een GPT die er hetzelfde uitziet met dezelfde naam, hetzelfde pictogram en dezelfde beschrijvingVoor een buitenstaander zal deze GPT er volledig identiek uitzien aan de originele (legitieme) GPT.
- Wacht tot gebruikers naar de legitieme GPT zoeken. Het is erg lastig om onderscheid te maken tussen de verschillende GPT's. Gebruikers kunnen eenvoudig op de mastering GPT klikken.
- Stuur informatie die in de GPT is ingevoerd of geüpload naar een externe serverGebruikers worden gevraagd om toestemming te geven voor het delen van informatie met een externe server, maar als ze dit soort gedrag verwachten (of het niet beter weten), hebben ze geen controle over waar deze gegevens naartoe worden gestuurd.
- Zodra informatie naar een server van derden wordt verzonden, is deze niet langer in handen van de gebruikers, maar in handen van aanvallers.Hoewel de meeste informatie waarschijnlijk onschuldig zal zijn, kan het gevoelige informatie bevatten, zoals gepatenteerde broncode, klantgegevens voor analyse en meer.
Cybercriminelen kunnen nepplatforms of -applicaties opzetten die lijken op een legitieme GPT. Door de interface en functionaliteiten van een bekende AI-service na te bootsen, kunnen ze nietsvermoedende gebruikers verleiden om persoonlijke informatie of inloggegevens te delen. Zodra gebruikers met deze namaakmodellen in aanraking komen, kunnen alle ingevoerde gegevens, zoals inloggegevens, betalingsgegevens of privéberichten, worden overgedragen naar de servers van de criminelen. Dit creëert een aanzienlijk risico, omdat gebruikers zich er mogelijk pas van bewust zijn dat ze het slachtoffer zijn geworden van een scam als het te laat is.
Bovendien deze frauduleuze GPT's kunnen zo worden ontworpen dat ze gebruikers op een manier betrekken die verdere openbaarmaking van gegevens aanmoedigt. Ze kunnen bijvoorbeeld interacties met klantenondersteuning simuleren, waarbij gebruikers worden overtuigd om meer gedetailleerde persoonlijke informatie te verstrekken onder het mom van het oplossen van problemen. Het vermogen van GPT's om mensachtige tekst te genereren, maakt het voor gebruikers lastig om onderscheid te maken tussen legitieme en kwaadaardige interacties, waardoor het risico op gegevensdiefstal toeneemt.
De dreiging binnen de organisatie
GPT's zijn essentiële tools geworden voor ontwikkelaars, die helpen bij het coderen, debuggen en documenteren. Als gevolg hiervan kunnen frauduleuze versies van deze GPT's organisaties zowel financieel als qua reputatie aanzienlijk schaden door ontwikkelaars te targeten om gevoelige interne code te extraheren.
Deze kwaadaardige GPT's kunnen zo worden ontworpen dat ze sterk lijken op vertrouwde ontwikkeltools, waardoor nietsvermoedende ontwikkelaars gemakkelijk op het verkeerde been kunnen worden gezet.. Een aanvaller kan bijvoorbeeld een namaak-AI-assistent inzetten die lijkt te functioneren als een gevestigde codeerhulp, en ontwikkelaars verleiden om ermee te interacteren. Eenmaal betrokken, kunnen deze frauduleuze modellen gebruikers ertoe aanzetten om codefragmenten of propriëtaire algoritmen te delen onder het mom van het verbeteren van de functionaliteit of het oplossen van bugs.
Hieronder ziet u een voorbeeld van het maken van een Masquerading GPT die de Code CoPilot GPT imiteert:
Het risico is vooral groot in omgevingen waar wordt samengewerkt en waar ontwikkelaars vaak de hulp van AI-tools inroepen voor complexe taken: Wanneer een ontwikkelaar onbewust gevoelige interne code indient bij een frauduleuze GPT, krijgt de aanvaller toegang tot kritieke intellectuele eigendommen en mogelijk te exploiteren kwetsbaarheden in de software van de organisatie.Dit brengt niet alleen het concurrentievoordeel van het bedrijf in gevaar, maar vergroot ook de kans op verdere cyberaanvallen.
Bovendien kunnen cybercriminelen de distributie van deze nep-GPT's automatiseren, waarbij ze meerdere organisaties en ontwikkelaars tegelijk targeten. Door berichten te maken die de voordelen van het gebruik van hun namaaktools benadrukken, kunnen ze ontwikkelaars die graag ondersteuning willen, effectief lokken. De geavanceerde aard van deze AI-modellen stelt hen in staat om reacties te genereren die geloofwaardig en relevant lijken, waardoor de grenzen tussen legitieme assistentie en kwaadaardige bedoelingen verder vervagen.
Conclusie
De opkomst van GPT's heeft ongetwijfeld de manier waarop we omgaan met technologie veranderd, waardoor de productiviteit en efficiëntie in verschillende domeinen is verbeterd. Deze vooruitgang brengt echter ook aanzienlijke risico's met zich mee, met name omdat cybercriminelen deze tools misbruiken voor kwaadaardige doeleinden. Door frauduleuze versies van GPT's te creëren die legitieme versies nabootsen, kunnen aanvallers gebruikers en organisaties misleiden, wat leidt tot gegevensdiefstal, financieel verlies en reputatieschade.
Om deze risico's aan te pakken, biedt LayerX verschillende belangrijke mitigatiestrategieën die zijn afgestemd op het beschermen van organisaties tegen ongewenste interacties met AI-modellen:
- Onze unieke browserbeveiligingsoplossing – Implementeer de browserbeveiligingsoplossing van LayerX om webinteracties te monitoren en filteren. Deze tools kunnen frauduleuze sites detecteren en gebruikers waarschuwen voordat ze zich bezighouden met kwaadaardige GPT's.
- Toegangscontrole – Gebruik de toegangsbeheerfuncties van LayerX om te voorkomen dat werknemers ongeautoriseerde AI-tools gebruiken. Door te bepalen welke applicaties toegankelijk zijn via bedrijfsnetwerken, kunnen organisaties het risico op blootstelling aan namaakmodellen verkleinen.
- Gedragsanalyse – Maak gebruik van LayerX's gedragsanalysemogelijkheden om ongebruikelijke patronen van interactie met AI-tools te identificeren. Dit kan helpen bij het detecteren van potentiële phishingpogingen of ongeautoriseerde verzoeken voor gevoelige code.
- Realtime waarschuwingen – Stel realtime waarschuwingen in om beveiligingsteams op de hoogte te stellen van verdachte activiteiten met betrekking tot AI-interacties. Deze proactieve aanpak stelt uw organisatie in staat om snel te reageren op potentiële bedreigingen.
Door deze strategieën te integreren in uw beveiligingsframework, kan uw organisatie zich beter beschermen tegen de exploitatie van AI-technologieën. Naarmate GPT-technologie zich blijft ontwikkelen, zal het benutten van gespecialiseerde oplossingen van LayerX essentieel zijn voor het handhaven van een veilige omgeving en het beschermen van gevoelige informatie.
