Възприемането на генеративния изкуствен интелект създаде парадокс в сигурността. Екипите работят по-бързо и произвеждат повече код, но тази скорост въвежда тих, постоянен риск отвътре. Вътрешните заплахи за изкуствен интелект рядко започват със злонамерени намерения. Те обикновено започват с усърден служител, който се опитва да отстрани грешки в скрипт или да форматира отчет за продажби, използвайки инструмент, който екипът му по сигурност никога не е проверявал.

Когато разработчик вмъкне собствени алгоритми в публичен чатбот, тези данни напускат организацията незабавно. Това е същността на вътрешната заплаха, свързана с изкуствения интелект: неоторизиран трансфер на чувствителни активи, като интелектуална собственост или лична информация, към външни модели на изкуствен интелект. Тези модели могат да съхраняват, обработват или дори да се обучават върху тази информация.

Механиката на злоупотребата с изкуствен интелект от служителите

Традиционните вътрешни рискове често включват изтегляне на файлове на USB устройства. За разлика от това, злоупотребата с изкуствен интелект от страна на служителите се случва директно в браузъра. Това е безпроблемно и невидимо за наследените защитни стени. Инструментите за предотвратяване на загуба на данни (DLP) не могат ефективно да инспектират контекста на сесията на браузъра. Ръководителите по сигурността сега са изправени пред предизвикателството да управляват как данните се движат към екосистемата „Shadow SaaS“, без да нарушават работните процеси.

Браузърът е основното работно пространство за съвременното предприятие. Той е и основната изходна точка за данни. Служителите, водени от крайни срокове, често заобикалят одобрените софтуерни канали. Те използват инструменти за „Shadow AI“, които предлагат незабавна помощ, но не разполагат със стандарти за корпоративна сигурност.

Сянка SaaS екосистеми

Екипите по сигурност често пропускат мащаба на несанкционираното използване на изкуствен интелект. Последните анализи показват, че организациите нямат видимост върху близо 89% от инструментите с изкуствен интелект, до които имат достъп техните служители. Тази екосистема включва основни платформи като ChatGPT и стотици специализирани PDF анализатори или генератори на код.

Повечето връзки към тези инструменти се осъществяват чрез лични акаунти. Когато служител влезе с личен имейл, организацията губи надзор. Няма лог за еднократно влизане (SSO). Не съществува одитна следа. Политиките за запазване на данни не се прилагат. Данните, въведени в тези инструменти, изчезват в черна кутия, създавайки огромно сляпо петно ​​за откриване на вътрешни заплахи от изкуствен интелект.

Уязвимостта „Копиране и поставяне“

Най-често срещаният механизъм за излагане на данни е прост: клипбордът. Служителите рутинно копират текст от защитени вътрешни среди като Salesforce или IDE. След това го поставят в подканите на GenAI.

Това поведение е трудно за разпознаване. Копирането и поставянето е от основно значение за използването на компютър. Традиционните агенти на крайните точки трудно правят разлика между потребител, който поставя данни в корпоративен Slack канал, и публичен AI интерфейс. Без подробна видимост на ниво браузър, този високоскоростен поток от данни остава неконтролиран.

Последици от изтичане на данни от GenAI в реалния свят

Неограниченото използване на изкуствен интелект има осезаеми последици. Нашумели събития с изтичане на данни от GenAI вече са компрометирали значителна интелектуална собственост.

Интелектуална собственост в риск

Изходният код е особено уязвим. Разработчиците използват асистенти за кодиране с изкуствен интелект, за да оптимизират рутини. Те често поставят цели блокове от собствена логика в прозореца за чат. Докладите показват, че изходният код представлява приблизително 32% от чувствителните данни, изтекли към инструменти с изкуствен интелект.

След като публичен модел приеме този код, той технически става част от набора от данни на доставчика. В най-лошия случай, моделът с изкуствен интелект може да се „учи“ от този код. След това може да го възпроизведе в отговор на подкана от конкурент, като по този начин ефективно разкрие търговските тайни на организацията.

Нарушения на съответствието и политиките

Освен кражбата на интелектуална собственост, злоупотребата с изкуствен интелект от служителите създава непосредствено регулаторно излагане. В здравеопазването или финансите, качването на медицински досиета или истории на клиенти в несъвместим инструмент с изкуствен интелект нарушава GDPR, HIPAA или CCPA.

Финансов анализатор може да качи дневник на транзакциите, за да генерира диаграма. Това еднократно действие може да доведе до сериозни санкции. Тези нарушения на правилата често са неоткриваеми, докато не бъдат разкрити от одит от трета страна. Понякога те излизат наяве едва след публично нарушение на самия доставчик на изкуствен интелект.

Защо остарелите инструменти се провалят при откриване на вътрешни заплахи от изкуствен интелект

Екипите по сигурността разчитат на CASB, Secure Web Gateways (SWG) и мрежови DLP за наблюдение на данни. Тези инструменти са създадени за определени периметри. Те се затрудняват в динамичния, ориентиран към браузъра свят на генеративния изкуствен интелект.

Пропастта в браузъра

Инструменти на мрежово ниво проверяват трафика. Въпреки това, по-голямата част от трафика на GenAI е криптиран чрез HTTPS. SWG може да види потребител, посещаващ openai.comНе може да види какво прави потребителят там. Не може да различи заявка за времето от поставен JSON файл, съдържащ 10 000 имейла на клиенти.

Инструментите за наблюдение на вътрешни заплахи с изкуствен интелект, които разчитат единствено на мрежови сигнатури, не успяват да уловят контекста. Те пропускат „последната миля“ от взаимодействието: действителното въвеждане в полето за подкани.

Невидимост на личните акаунти

Използването на личен акаунт прави контролите, базирани на API, безполезни. Корпоративната интеграция с Microsoft Copilot не пречи на служителя да отвори отделен раздел. Той може да влезе в личен ChatGPT акаунт и да постави същите чувствителни данни там. Тази празнина е мястото, където се материализират по-голямата част от вътрешните заплахи, свързани с изкуствен интелект.

Особеност Традиционна мрежова DLP / CASB Откриване и реакция на браузъра LayerX
Обхват на видимост Санкционирани приложения (свързани с API) Цялата активност в браузъра (санкционирана и сянка)
Проверка на данни Базирани на файлове (качвания/изтегляния) Текст в реално време (подкани, формуляри, поставяне)
Контекст на идентичността Само корпоративно SSO Разграничава личния от корпоративния идентификатор
Време За Реакция Сигнали след събитие Блокиране на рискови действия в реално време
Потребителско възприятие Тежките агенти често блокират достъпа до приложенията Леко разширение, гранулиран коучинг

 

Таблица 1: Сравнение на наследената мрежова сигурност спрямо вградените в браузъра контроли за сигурност с изкуствен интелект.

Защита срещу вътрешни заплахи от изкуствен интелект с LayerX

За да смекчат ефективно вътрешните заплахи, свързани с изкуствен интелект, организациите трябва да променят фокуса си в защитата. Бойното поле вече не е периферията на мрежата, а самият браузър. Платформата за откриване и реагиране на браузъри (BDR) на LayerX работи като леко разширение. Тя е разположена директно в работния процес на потребителя, за да осигури видимостта и контрола, които липсват на мрежовите устройства.

Видимост на ниво браузър

LayerX елиминира сляпото петно ​​на „Shadow AI“. Той одитира всяко разширение и уеб сесия. Идентифицира рискове, които инструментите за наблюдение на вътрешни заплахи, свързани с AI, могат да пропуснат. Например, той открива дали потребител инсталира злонамерено разширение „GPT for Sheets“, което изисква инвазивни разрешения. Екипите по сигурността могат да картографират цялата повърхност за атака от браузър към облак. Те виждат точно кои инструменти се използват, кой ги използва и дали имат достъп до тях с корпоративни или лични данни за достъп.

Предотвратяване на излагането на данни

Блокирането на инструменти с изкуствен интелект изцяло задушава иновациите и насърчава избягването им. LayerX вместо това прилага подробни предпазни мерки. Политиките могат да разрешат достъп до сайтове на GenAI за изследвания, като същевременно блокират поставянето на код, лична информация или ключови думи, маркирани като „Поверително“.

Когато служител се опита да извърши рисковано действие, LayerX се намесва. Ако потребител се опита да постави списък с клиенти в чатбот, действието се блокира. Потребителят получава изскачащ прозорец, обясняващ нарушението на правилата. Този подход предотвратява излагането на данни и обучава потребителя. Намалява вероятността от бъдещи нарушения на правилата.

Изолация на браузъра с нулево доверие

LayerX прилага подход „нулево доверие“ към браузъра. Той проверява самоличността на потребителя и целостта на целевото приложение, преди да разреши прехвърляне на данни. Ако потребител се опита да осъществи достъп до инструмент на GenAI чрез личен акаунт, LayerX може да наложи режим „само за четене“. Може също така да го пренасочи към корпоративно одобрения екземпляр на инструмента. Това гарантира, че корпоративните данни остават в рамките на корпоративните споразумения.

Стратегически препоръки за лидери в областта на сигурността

Защитата срещу вътрешната заплаха от изкуствен интелект изисква координирана стратегия. Технологията трябва да е съчетана с културната промяна.

  1. Одитирайте вашите сянка SaaS екосистеми
    Не можеш да защитиш това, което не можеш да видиш. Внедри одит на ниво браузър, за да генерираш инвентаризация на всички използвани инструменти с изкуствен интелект. Категоризирай ги по ниво на риск и бизнес полезност.
  2. Дефинирайте ясни правила за употреба
    Неяснотата води до инциденти. Дефинирайте ясно приемливите правила за употреба на ИИ. Посочете кои инструменти са разрешени. Посочете кои типове данни са забранени. Обяснете последствията от нарушенията на правилата.
  3. Разгръщане на контроли на ниво браузър
    Излезте отвъд мрежовото DLP. Внедрете решение за откриване и реагиране на браузъри, като LayerX. Приложете политики в точката на взаимодействие. Това осигурява техническата защита, необходима за предотвратяване на случайни инциденти с изтичане на данни от GenAI, без да се спира производителността.
  4. Непрекъснато наблюдение и обучение
    Откриването на вътрешни заплахи с изкуствен интелект не е еднократна задача. Следете непрекъснато за нови приложения с изкуствен интелект. Актуализирайте списъците за блокиране. Използвайте данни от блокирани инциденти, за да идентифицирате отдели, които се нуждаят от целенасочено обучение по сигурността.

GenAI промени дигиталното работно място. Организациите трябва да признаят реалността на вътрешните заплахи, свързани с изкуствения интелект. Чрез внедряване на контроли, които са съобразени с начина, по който служителите действително работят, фирмите могат да операционализират предимствата на изкуствения интелект. Те могат да направят това, без да стават жертва на рисковете. Целта е да се гарантира, че организацията споделя със света своите иновации, а не своите тайни.