Als Branchenführer im Bereich Browsersicherheit setzen wir uns dafür ein, die mit revolutionären Technologien wie GenAI-Tools verbundenen Risiken aufzuzeigen. Unsere neueste Forschung, „Das wahre GenAI-Datenexpositionsrisiko aufdecken“, bietet kritische Einblicke in den Umfang und die Art dieser Risiken. Konkret untersuchen wir das besorgniserregende Risiko der Datenexfiltration durch GenAI.

Um den Bericht zu erstellen, haben wir analysiert, wie 10,000 Mitarbeiter ChatGPT und andere generative KI-Apps nutzten. Die Daten stammten von Geräten, auf denen die LayerX-Erweiterung installiert war. In diesem Blogbeitrag gehen wir auf die wichtigsten Ergebnisse des Berichts ein und diskutieren, wie Unternehmen diese Informationen zum Schutz sensibler Daten nutzen können. Um den vollständigen Bericht mit weiteren Details zu lesen, hier klicken.

5 wichtige Erkenntnisse zur GenAI-Nutzung

1. 44 % Anstieg der GenAI-API-Nutzung in den letzten 3 Monaten

Es überrascht nicht, dass die GenAI-Nutzung in den letzten Monaten deutlich zugenommen hat. Dies ist vor allem auf die rasante Popularität von ChatGPT zurückzuführen. Es ist davon auszugehen, dass die Nutzung weiter zunehmen wird.

2. 15 % der Mitarbeiter haben Daten in GenAI eingefügt

Um die GenAI-Apps optimal zu nutzen, müssen Mitarbeiter nicht nur Eingabeaufforderungen eingeben, sondern auch Daten einfügen. Zur Erinnerung: Diese Daten könnten für das Training dieser Apps verwendet werden, was bedeutet, dass sie in einer Antwort für andere Benutzer auftauchen könnten. Dies macht Einfügeaktionen zu einer höchstwahrscheinlichen Quelle für die Offenlegung von Daten.

3. Forschung und Entwicklung, Marketing und Vertrieb sowie Finanzen sind die häufigsten GenAI-Nutzer.

50 % der „starken“ GenAI-Benutzer kommen aus der Forschung und Entwicklung, 23.8 % aus Marketing und Vertrieb und 14.3 % aus Finanzabteilungen. Dies bedeutet, dass diese Abteilungen die größte Risikoexposition für Unternehmen darstellen.

4. 6 % der Mitarbeiter haben vertrauliche Daten in GenAI eingefügt, 4 % der Mitarbeiter fügen wöchentlich vertrauliche Daten in GenAI ein.

Beachten Sie diese Statistik, sie ist ziemlich alarmierend – A Ein erheblicher Prozentsatz der GenAI-Benutzer gibt vertrauliche Unternehmensdaten an GenAI weiter. Obwohl es sich wahrscheinlich um eine harmlose Handlung handelt, handelt es sich dabei um ein wiederkehrendes Verhalten, das das Risiko einer Offenlegung von Daten erhöht.

5. 31 % der offengelegten Daten sind Quellcode

43 % sind interne Geschäftsdaten und 12 % sind personenbezogene Daten. Organisationen investieren Anstrengungen und Ressourcen, um ihre Kronjuwelen zu schützen, aber auf der anderen Seite des offenen Raums werden ihre Kronjuwelen in öffentliche Werkzeuge geklebt.

Lesen Sie den vollständigen Bericht

GenAI eröffnet neue Möglichkeiten für Produktivität, Kreativität und Innovation. Es ist jedoch wichtig, die mit GenAI verbundenen Risiken anzuerkennen. Insbesondere diejenigen, die mit der Sicherheit und dem Datenschutz sensibler Daten verbunden sind.

Der Zweck dieses Berichts besteht darin, die potenziellen Gefahren des Einfügens sensibler Daten im Zusammenhang mit GenAI aufzuzeigen. Wie wir gezeigt haben, werden Geschäftspläne, Quellcode und personenbezogene Daten in diese öffentlichen Quellen eingefügt. Es wird erwartet, dass die Zahlen nur noch steigen. 

Lesen Sie die gesamte Umfrage, um weitere Details zu erhalten, die Ihnen beim Aufbau Ihrer GenAI-Sicherheitsstrategie helfen. Erhalten Sie zusätzliche Einblicke wie:

  • Wie viele Mitarbeiter veröffentlichen täglich sensible Daten?
  • Wie oft am Tag werden Daten in GenAI-Apps eingefügt?
  • So schützen Sie sich vor dem Einfügen vertraulicher Daten
  • Und mehr

Lesen Sie den vollständigen Bericht.