GenAI се превърна в основен компонент в инструментариума на служителите. И все пак, излизайки отвъд бомбастични заглавия като тези, действителните количествени данни за това как се използват AI приложенията остават изненадващо оскъдни. В LayerX нашето корпоративно разширение за браузър ни предоставя видимост на дейностите на потребителите в браузъра, където Използване на приложението GenAI се осъществява. Можем да използваме тази видимост, за да извлечем изчерпателна представа за използването на инструменти на GenAI и активирани от AI SaaS приложения.
За да хвърлим светлина върху използването на GenAI в полза на общността за сигурност, ние събрахме и анализирахме тези данни, създавайки докладва с (изненадващи) открития за това как корпоративните потребители използват AI на работното място. Въз основа на реални данни и телеметрия, събрани от клиентската база на LayerX Security, това е първият и единствен по рода си доклад за корпоративното използване на GenAI.
По-долу представяме някои от основните констатации. За да прочетете целия "Доклад за сигурността на данните на Enterprise GenAI за 2025 г”, включително всички точки от данни и разширен анализ, Натисни тук.
Колко разпространено е използването на GenAI?
Докато инструменти на GenAI като ChatGPT, Gemini и Copilot се превръщат в редовни разговори за водно охлаждане, LayerX установи, че действителното потребление остава случайно. Само 14.5% от корпоративните потребители се ангажират с тези инструменти всяка седмица. По-голямата част от тази дейност е чрез ChatGPT. Разработчиците на софтуер са най-честите потребители (39%), следвани от продажбите и маркетинга (28%).
Това предполага, че въпреки че GenAI е направил значителен напредък от края на 2022 г., той все още не се е превърнал в неразделна част от ежедневните работни процеси за повечето. Въпреки това се очаква приемането да расте и организациите трябва да проследяват използването, за да разберат по-добре как AI се използва в различни роли.
Кои AI SaaS приложения се използват?
Данните на LayerX разкриват, че използването на AI приложения е силно концентрирано сред няколко доминиращи инструмента, като само ChatGPT представлява близо 52% от всички свързани с AI заявки за уебсайтове. Петте водещи AI приложения, включително Gemini, Claude и Copilot, съставляват 86% от използването на AI, докато най-долните 50 общо представляват по-малко от 1%.
От гледна точка на сигурността и ИТ, това създава проблем с „сенчестия AI“, при който многобройни по-малко известни AI приложения работят под радара с малко надзор, потенциално излагайки чувствителни данни и създавайки рискове за сигурността. За да се смекчи това, се препоръчва екипите по сигурността да внедрят мониторинг и управление, за да проследяват използването на AI във всички SaaS приложения.
Имат ли организациите видимост за използването на ИИ на работното място?
По-голямата част от използването на AI на работното място се случва извън организационния надзор, като 71.6% от достъпа до инструмента на GenAI се осъществява чрез некорпоративни акаунти. Дори сред потребителите, които използват корпоративни акаунти, само 11.7% от общите влизания отговарят на стандарта за сигурност на корпоративните акаунти, поддържани от SSO. Това на практика оставя почти 90% от използването на AI инструмента невидимо за организациите.
Служителите, използващи лични акаунти за инструменти на GenAI, заобикалят корпоративните предпазни мерки, излагайки фирмените данни на потенциални рискове за сигурността, включително неоторизирано използване на данни за обучение на AI модели. Дори когато се използват корпоративни акаунти, ако не използват SSO, организациите губят видимост за взаимодействията с AI.
Каква информация се споделя?
Малък процент от корпоративните потребители са отговорни за споделянето на големи количества данни с инструменти на GenAI. Въпреки това, тези, които участват в тази дейност, са склонни да го правят често – тежките потребители поставят данни средно 6.8 пъти на ден, като над 50% от тези поставяния съдържат корпоративна информация. Качването на файлове, макар и по-рядко, също се извършва със забележима честота.
Основният риск идва от копиране/поставяне и качване на файлове, тъй като те позволяват бързо споделяне на големи количества чувствителни корпоративни данни. По същия начин, качването на файлове вероятно включва големи набори от данни, които, ако не бъдат наблюдавани, могат да представляват риск за сигурността. За да намалят потенциалното излагане на данни, организациите трябва да наблюдават отблизо взаимодействията на потребителите с инструментите на GenAI, да проследяват дейностите по споделяне на данни и да прилагат контроли за предотвратяване на неоторизирано разкриване на корпоративна информация.
Проблемът с разширенията на AI браузъра
GenAI-активиран разширения на браузъра представляват значителен, но често пренебрегван риск за сигурността на предприятията. Нашето изследване показва, че над 20% от потребителите са инсталирали поне едно разширение за браузър, задвижвано от изкуствен интелект, а почти половината от тях използват множество разширения. Тревожно е, че 58% от тези разширения изискват „високи“ или „критични“ разрешения, предоставящи достъп до чувствителни данни като бисквитки, активност на сърфиране и самоличност на потребителите. Още по-притеснително е, че 5.6% от разширенията, базирани на AI, са класифицирани като злонамерени, което ги прави потенциален вектор за кражба на данни.
Сигурността на разширението на браузъра е неразделна част от цялостната стратегия за сигурност на GenAI на организацията. Екипите по сигурността трябва да въведат контрол върху разширенията на браузъра с активиран AI, като гарантират, че получават същия контрол като директния достъп на GenAI за смекчаване на потенциални заплахи.
Какво следва за организациите
Въз основа на доклада изглежда, че организациите нямат видимост за влизане и достъп до AI SaaS приложения, използването на приложения, които не са най-популярните, и AI разширенията на браузъра. Получаването на видимост във всеки аспект на тези скрити заплахи трябва да бъде приоритет за всяка организация. Тъй като потреблението става през браузъра, предотвратяването на изтичане на данни от GenAI изисква a стратегия за сигурност на първо място в браузъра който се фокусира върху това къде – и как – потребителите използват GenAI инструменти и внедряването на инструменти за сигурност, които съответно налагат защита на сигурността.