Generative KI-Tools wie ChatGPT erobern die Welt im Sturm. Wie bei jeder neuen Technologie müssen CISOs Wege finden, die Chancen zu nutzen und gleichzeitig das Unternehmen vor den Risiken von generativer KI und ChatGPT zu schützen. In diesem Artikel beleuchten wir die Chancen und bewährten Sicherheitspraktiken.

Was ist generative KI?

Generative KI ist eine KI-Form, die sich auf die Erstellung und Generierung neuer Inhalte mithilfe von Machine-Learning-Techniken konzentriert. Dies können Bilder, Texte, Musik oder Videos sein. Im Gegensatz zu den meisten KI-Ansätzen, die Muster erkennen oder Vorhersagen auf Basis vorhandener Daten treffen, zielt generative KI darauf ab, originelle und kreative Ergebnisse zu erzeugen.

Generative KI-Modelle basieren auf großen Sprachmodellen (LLMs), d. h. sie werden mit großen Datensätzen trainiert. Sie lernen die zugrundeliegenden Muster und Strukturen der Daten und wandeln diese in Wahrscheinlichkeitsmodelle um. Anschließend nutzen sie, auf eine bestimmte Aufgabe hin, das erlernte Wissen, um neue Inhalte zu generieren, die den Trainingsdaten ähneln, aber keine exakte Kopie sind. Dadurch können generative KI-Modelle realistische Bilder gestalten, zusammenhängende Geschichten oder Gedichte schreiben, Musik komponieren und sogar realistische und menschenähnliche Dialoge führen.

Eines der gängigen Frameworks für generative KI ist das GAN (Generative Adversarial Network). GANs bestehen aus zwei neuronalen Netzen: einem Generator- und einem Diskriminatornetzwerk. Das Generatornetzwerk erzeugt neue Inhalte, während das Diskriminatornetzwerk diese bewertet und versucht, sie von realen Daten zu unterscheiden. Die beiden Netzwerke werden in einem kompetitiven Prozess gemeinsam trainiert. Der Generator versucht dabei, immer realistischere Inhalte zu erzeugen, die den Diskriminator täuschen, und der Diskriminator optimiert seine Fähigkeit, generierte Inhalte zu erkennen. Dieses adversarielle Training führt zur Erstellung hochwertiger und vielfältiger Inhalte.

Generative KI-Tools bieten vielfältige Anwendungsmöglichkeiten, unter anderem in Kunst, Design, Unterhaltung und sogar Medizin. Allerdings wirft generative KI auch ethische Fragen auf, beispielsweise die Möglichkeit der Generierung gefälschter Inhalte, den Missbrauch der Technologie, Verzerrungen und Cybersicherheitsrisiken.

ChatGPT ist ein äußerst beliebter generativer KI-Chatbot, der im November 2022 veröffentlicht wurde und dem Konzept und den Fähigkeiten generativer KI-Tools große Aufmerksamkeit verschaffte.

ChatGPT Cybersicherheitsrisiken

Welche Risiken birgt generative KI?

Generative KI birgt verschiedene Risiken, die Sicherheitsteams kennen müssen, wie beispielsweise Datenschutzbedenken und Phishing. Zu den wichtigsten Sicherheitsrisiken zählen:

Datenschutzerklärung

Generative KI-Modelle werden mit großen Datenmengen trainiert, die auch nutzergenerierte Inhalte enthalten können. Werden diese Daten nicht ausreichend anonymisiert, können sie während des Trainingsprozesses und der Inhaltsentwicklung offengelegt werden, was zu Datenschutzverletzungen führen kann. Solche Verletzungen können unbeabsichtigt erfolgen, d. h. Informationen werden bereitgestellt, ohne dass der Nutzer deren öffentliche Verbreitung beabsichtigt, oder vorsätzlich, beispielsweise durch Inferenzangriffe, in böswilliger Absicht, sensible Informationen preiszugeben. 

Erst kürzlich haben Samsung-Mitarbeiter sensible Daten in ChatGPT eingefügtDies umfasst vertraulichen Quellcode und private Besprechungsnotizen. Diese Daten werden nun für ChatGPT-Schulungen verwendet und können in den von ChatGPT bereitgestellten Antworten Verwendung finden. 

Phishing-E-Mails und Schadsoftware

Generative KI kann von Angreifern genutzt werden, um überzeugende und irreführende Inhalte zu erstellen, darunter Phishing-E-Mails, Phishing-Websites oder Phishing-Nachrichten in verschiedenen Sprachen. Sie kann auch dazu verwendet werden, sich als vertrauenswürdige Institutionen und Personen auszugeben. Dies kann die Erfolgsrate von Phishing-Angriffen erhöhen. Phishing-Attacken und zu einer Gefährdung persönlicher Daten oder Zugangsdaten führen.

Generative KI kann zudem zur Erzeugung von Schadcode oder Malware-Varianten eingesetzt werden. Solche KI-gestützte Malware kann sich basierend auf der Interaktion mit dem Zielsystem anpassen und weiterentwickeln, wodurch ihre Fähigkeit, Abwehrmechanismen zu umgehen und Systeme anzugreifen, verbessert wird und es Sicherheitsvorkehrungen erschwert wird, sie abzuwehren.

Zugriffsverwaltung

Angreifer können generative KI nutzen, um realistische Zugangsdaten wie Benutzernamen und Passwörter zu simulieren oder zu generieren. Diese können zum Erraten von Passwörtern verwendet werden. Zeugnisfüllung und Brute-Force-Angriffe, die unbefugten Zugriff auf Systeme, Konten oder sensible Daten ermöglichen. Darüber hinaus kann generative KI betrügerische Konten oder Profile erstellen, die dazu genutzt werden können, Verifizierungsprozesse und -systeme zu umgehen und auf Ressourcen zuzugreifen.

Insider-Bedrohungen

Generative KI-Tools können von Einzelpersonen innerhalb einer Organisation für unautorisierte Aktivitäten missbraucht werden. Beispielsweise könnte ein Mitarbeiter gefälschte Dokumente erstellen oder Daten manipulieren, was zu Betrug, Datenmanipulation oder Diebstahl geistigen Eigentums führen kann. Mitarbeiter können auch unbeabsichtigt Daten an diese Tools weitergeben und so Datenschutzverletzungen verursachen.

Erhöhte Angriffsfläche

Unternehmen, die generative KI-Tools in ihre IT-Infrastruktur integrieren, schaffen potenziell neue Sicherheitslücken. Diese Tools können mit Systemen und APIs interagieren und so zusätzliche Angriffspunkte für Angreifer generieren.

Möglichkeiten für Unternehmen zur Minderung der Sicherheitsrisiken von generativer KI und ChatGPT

Generative KI birgt Chancen und Sicherheitsrisiken. Unternehmen können folgende Maßnahmen ergreifen, um die Produktivitätsvorteile und die Sicherheit von ChatGPT zu nutzen, ohne den Risiken ausgesetzt zu sein:

Risikobewertung

Beginnen Sie mit der Erfassung der potenziellen Sicherheitsrisiken, die mit dem Einsatz generativer KI-Tools in Ihrem Unternehmen verbunden sind. Identifizieren Sie die Bereiche, in denen generative KI Sicherheitslücken oder potenziellen Missbrauch verursacht. Beispielsweise könnten Sie die Entwicklungsabteilung als gefährdete Gruppe hervorheben, die sensiblen Code preisgeben könnte. Oder Sie könnten Browsererweiterungen wie ChatGPT als Risiko identifizieren und deren Deaktivierung fordern.

Zugriffskontrolle, Authentifizierung und Autorisierung

Implementieren Sie strenge Zugriffskontrollen und Verifizierungsmechanismen, um den Zugriff auf Ihre Systeme sowie die Aktionen Ihrer Mitarbeiter in generativen KI-Tools zu regeln. Zum Beispiel: Browser-Sicherheitsplattform kann verhindern, dass Ihre Mitarbeiter sensiblen Code in Tools wie ChatGPT einfügen.

Regelmäßige Software-Updates und Patches

Halten Sie Ihre Systeme stets mit den neuesten Versionen und Sicherheitspatches auf dem Laufenden. Installieren Sie Updates umgehend, um bekannte Schwachstellen zu beheben und sich vor neuen Bedrohungen zu schützen. So verbessern Sie Ihre Sicherheitslage und schützen sich vor allen Bedrohungen, einschließlich derer durch Angreifer, die generative KI einsetzen.

Überwachung und Anomalieerkennung

Setzen Sie Überwachungslösungen ein, um potenzielle Sicherheitsvorfälle oder ungewöhnliche Aktivitäten im Zusammenhang mit generativen KI-Tools zu erkennen und darauf zu reagieren. Implementieren Sie Echtzeit-Anomalieerkennungsmechanismen, um verdächtiges Verhalten wie unautorisierte Zugriffsversuche oder ungewöhnliche Datenmuster zu identifizieren.

Benutzerschulung und -bewusstsein

Schulen Sie Mitarbeiter und Benutzer hinsichtlich der Risiken, die mit generativer KI verbunden sind, einschließlich Phishing. Social Engineeringund andere Sicherheitsbedrohungen. Geben Sie Richtlinien an, wie potenzielle Angriffe oder verdächtige Aktivitäten erkannt und darauf reagiert werden kann. Stärken Sie das Sicherheitsbewusstsein regelmäßig durch Schulungsprogramme und Sensibilisierungskampagnen.

Ergänzend zu diesen Schulungen kann eine Browser-Sicherheitsplattform helfen, indem sie die Zustimmung oder Begründung des Nutzers für die Verwendung eines generativen KI-Tools verlangt.

Sicherheitsbewertung von Anbietern

Wenn Sie generative KI-Tools von Drittanbietern beziehen, führen Sie eine gründliche Sicherheitsprüfung ihrer Angebote durch. Bewerten Sie deren Sicherheitspraktiken, Datenverarbeitungsverfahren und die Einhaltung von Branchenstandards. Stellen Sie sicher, dass die Anbieter der Sicherheit höchste Priorität einräumen und über ein robustes Sicherheitskonzept verfügen.

Reaktion und Wiederherstellung bei Vorfällen

Entwickeln Sie einen Notfallplan speziell für Sicherheitsvorfälle im Zusammenhang mit generativer KI. Legen Sie klare Verfahren zur Erkennung, Eindämmung und Behebung von Sicherheitsverletzungen oder Angriffen fest. Testen und aktualisieren Sie den Notfallplan regelmäßig, um ihn an sich verändernde Bedrohungen anzupassen.

Zusammenarbeit mit Sicherheitsexperten

Ziehen Sie Sicherheitsexperten oder Berater zu Rate, die auf KI- und Machine-Learning-Sicherheit spezialisiert sind. Sie können Ihnen helfen, potenzielle Risiken zu identifizieren, Best Practices zu implementieren und sicherzustellen, dass Ihre generativen KI-Systeme angemessen geschützt sind.

Wie LayerX Datenlecks auf ChatGPT und anderen generativen KI-Plattformen verhindern kann

LayerX's Browser-Sicherheitsplattform Minimiert das Risiko der Offenlegung von Unternehmensdaten wie Kundendaten und geistigem Eigentum durch ChatGPT und andere generative KI-Plattformen. Dies wird durch die Konfiguration von Richtlinien unterstützt, die das Einfügen von Textzeichenfolgen verhindern, detaillierte Einblicke in alle Benutzeraktivitäten im Browser ermöglichen, Browsererweiterungen wie ChatGPT erkennen und deaktivieren, die Zustimmung oder Begründung der Benutzer für die Verwendung eines generativen KI-Tools erfordern und die sichere Datennutzung in all Ihren SaaS-Anwendungen gewährleisten. Profitieren Sie von der Produktivität, die generative KI-Tools ermöglichen – ohne das damit verbundene Risiko.