GenAI ist zu einem wesentlichen Bestandteil des Mitarbeiter-Toolkits geworden. Doch abgesehen von bombastischen Schlagzeilen wie diesen sind tatsächliche quantitative Daten über die Nutzung von KI-Anwendungen nach wie vor überraschend rar. Bei LayerX bietet uns unsere Enterprise-Browsererweiterung Einblick in die Aktivitäten der Benutzer im Browser, wo Verwendung der GenAI-Anwendung stattfindet. Wir können diese Transparenz nutzen, um umfassende Erkenntnisse zur Nutzung von GenAI-Tools und KI-gestützten SaaS-Anwendungen zu gewinnen.

Um Licht in die Nutzung von GenAI zum Nutzen der Sicherheitsgemeinschaft zu bringen, haben wir diese Daten zusammengestellt und analysiert und eine berichten mit (überraschenden) Erkenntnissen darüber, wie Unternehmensbenutzer KI am Arbeitsplatz nutzen. Basierend auf realen Daten und Telemetriedaten, die vom Kundenstamm von LayerX Security gesammelt wurden, ist dies der erste und einzigartige Bericht über die Unternehmensnutzung von GenAI.

Nachfolgend finden Sie einige der wichtigsten Ergebnisse. Lesen Sie den vollständigen Bericht „Enterprise GenAI-Datensicherheitsbericht 2025”-Bericht, einschließlich aller Datenpunkte und erweiterter Analysen, hier klicken.

Wie weit verbreitet ist die Nutzung von GenAI?

Während GenAI-Tools wie ChatGPT, Gemini und Copilot zu einem regelmäßigen Gesprächsthema an der Kaffeemaschine werden, hat LayerX festgestellt, dass die tatsächliche Nutzung eher gelegentlich erfolgt. Nur 14.5 % der Unternehmensbenutzer nutzen diese Tools wöchentlich. Der Großteil dieser Aktivitäten erfolgt über ChatGPT. Softwareentwickler sind die häufigsten Benutzer (39 %), gefolgt von Vertrieb und Marketing (28 %).

Dies deutet darauf hin, dass GenAI seit Ende 2022 zwar erhebliche Fortschritte gemacht hat, aber für die meisten noch kein fester Bestandteil der täglichen Arbeitsabläufe geworden ist. Es wird jedoch erwartet, dass die Akzeptanz zunimmt, und Unternehmen sollten die Nutzung verfolgen, um besser zu verstehen, wie KI in verschiedenen Rollen eingesetzt wird.

Welche KI-SaaS-Anwendungen sind im Einsatz?

LayerX-Daten zeigen, dass sich die Nutzung von KI-Anwendungen stark auf einige wenige dominante Tools konzentriert. ChatGPT allein macht fast 52 % aller KI-bezogenen Website-Anfragen aus. Die fünf wichtigsten KI-Anwendungen, darunter Gemini, Claude und Copilot, machen 86 % der KI-Nutzung aus, während die unteren 50 zusammen weniger als 1 % ausmachen.

Aus Sicherheits- und IT-Sicht entsteht dadurch ein „Schatten-KI“-Problem, bei dem zahlreiche weniger bekannte KI-Anwendungen ohne große Aufsicht unter dem Radar laufen, wodurch möglicherweise vertrauliche Daten offengelegt und Sicherheitsrisiken geschaffen werden. Um dies zu mildern, wird Sicherheitsteams empfohlen, Überwachung und Governance zu implementieren, um die KI-Nutzung in allen SaaS-Anwendungen zu verfolgen.

Haben Unternehmen Einblick in die KI-Nutzung am Arbeitsplatz?

Der überwiegende Teil der KI-Nutzung am Arbeitsplatz erfolgt außerhalb der organisatorischen Aufsicht, wobei 71.6 % der GenAI-Tool-Zugriffe über Nicht-Unternehmenskonten erfolgen. Selbst unter den Benutzern, die Unternehmenskonten verwenden, erfüllen nur 11.7 % aller Anmeldungen den Sicherheitsstandard von Unternehmenskonten, die durch SSO unterstützt werden. Dadurch bleiben fast 90 % der KI-Tool-Nutzung für Unternehmen unsichtbar.

Mitarbeiter, die persönliche Konten für GenAI-Tools verwenden, umgehen die Sicherheitsvorkehrungen des Unternehmens und setzen Unternehmensdaten potenziellen Sicherheitsrisiken aus, darunter der unbefugten Datenverwendung für das Training von KI-Modellen. Selbst wenn Unternehmenskonten verwendet werden, verlieren Unternehmen ohne SSO den Überblick über KI-Interaktionen.

Welche Informationen werden weitergegeben?

Ein kleiner Prozentsatz der Unternehmensbenutzer ist für die Weitergabe großer Datenmengen an GenAI-Tools verantwortlich. Diejenigen, die diese Aktivität durchführen, tun dies jedoch häufig – Vielnutzer fügen durchschnittlich 6.8 Mal pro Tag Daten ein, wobei über 50 % dieser Einfügungen Unternehmensinformationen enthalten. Datei-Uploads kommen zwar weniger häufig vor, kommen aber ebenfalls in nennenswertem Umfang vor.

Das größte Risiko geht von Kopieren/Einfügen und Datei-Uploads aus, da hierdurch große Mengen vertraulicher Unternehmensdaten schnell geteilt werden können. Ebenso beinhalten Datei-Uploads wahrscheinlich große Datensätze, die, wenn sie nicht überwacht werden, Sicherheitsrisiken bergen können. Um eine potenzielle Datenfreigabe zu verringern, sollten Unternehmen die Benutzerinteraktionen mit GenAI-Tools genau überwachen, Datenfreigabeaktivitäten verfolgen und Kontrollen implementieren, um die unbefugte Offenlegung von Unternehmensinformationen zu verhindern.

Das Problem mit KI-Browsererweiterungen

GenAI-fähig Browser-Erweiterungen stellen ein erhebliches, aber oft übersehenes Sicherheitsrisiko für Unternehmen dar. Unsere Untersuchungen zeigen, dass über 20 % der Benutzer mindestens eine KI-gestützte Browsererweiterung installiert haben und fast die Hälfte von ihnen mehrere Erweiterungen verwendet. Alarmierend ist, dass 58 % dieser Erweiterungen „hohe“ oder „kritische“ Berechtigungen anfordern und damit Zugriff auf vertrauliche Daten wie Cookies, Browseraktivitäten und Benutzeridentitäten gewähren. Noch besorgniserregender ist, dass 5.6 % der KI-gestützten Erweiterungen als bösartig eingestuft werden, was sie zu einem potenziellen Vektor für Datendiebstahl macht.

Die Sicherheit von Browsererweiterungen ist ein wesentlicher Bestandteil der gesamten GenAI-Sicherheitsstrategie des Unternehmens. Sicherheitsteams müssen Kontrollen für KI-fähige Browsererweiterungen implementieren und sicherstellen, dass diese der gleichen Prüfung unterzogen werden wie der direkte GenAI-Zugriff, um potenzielle Bedrohungen einzudämmen.

Was kommt als Nächstes für Organisationen?

Dem Bericht zufolge scheint es Organisationen an Transparenz bei Anmeldungen und Zugriffen auf KI-SaaS-Anwendungen, der Nutzung nicht besonders beliebter Anwendungen und KI-Browsererweiterungen zu mangeln. Die Gewinnung von Einblicken in jeden Aspekt dieser versteckten Bedrohungsflächen sollte für jede Organisation Priorität haben. Da die Nutzung über den Browser erfolgt, erfordert die Verhinderung von GenAI-Datenlecks eine Browser-First-Sicherheitsstrategie Dabei liegt der Schwerpunkt darauf, wo und wie Benutzer GenAI-Tools nutzen, und auf der Bereitstellung von Sicherheitstools, die den Sicherheitsschutz entsprechend durchsetzen.

Lesen Sie den vollständigen Bericht.