Поскольку ChatGPT насчитывает 1.16 миллиарда пользователей, он стал неотъемлемой частью жизни многих людей. Эта значительная база пользователей требует от специалистов по безопасности и ИТ-специалистов найти и внедрить в своем стеке решение, которое сможет защитить организацию от потенциальных уязвимостей безопасности.
Это не гипотетический риск; Уже опубликованы многочисленные отчеты о потенциальных нарушениях кибербезопасности с участием ChatGPT. В этом сообщении блога мы исследуем эти риски и выясним, какое решение безопасности может помочь защититься от уязвимости утечки данных.
Узнайте больше о том, как решение безопасности браузера LayerX может защитить вашу организацию от потенциальной утечки данных, которая может возникнуть в результате использования сотрудниками ChatGPT или других инструментов генеративного искусственного интеллекта. Подробнее здесь
Слепые зоны защиты данных ChatGPT
Печально известная утечка Samsung ChatGPT (которая быстро становится «SolarWinds» среди нарушений кибербезопасности генеративного ИИ) стала показательным примером уязвимостей кибербезопасности, от которых страдают платформы генеративного ИИ. Во время фиаско с Samsung инженеры вставили собственный код в ChatGPT. Поскольку все, что вставлено в ChatGPT, можно использовать для обучения и для ответов другим пользователям, эти инженеры потенциально делятся конфиденциальным кодом с любыми конкурентами, которые знают, как задавать ChatGPT правильные вопросы.
ChatGPT может показаться объективным инструментом, повышающим производительность. Однако на самом деле это потенциальный канал утечки данных. Кстати, на вопрос ChatGPT, есть ли у него потенциальная утечка данных, ответ такой: «Как языковая модель искусственного интеллекта, у меня нет какой-либо внутренней мотивации или способности к утечке данных. Однако любая система, в которой хранятся данные, имеет потенциальный риск утечки данных или других уязвимостей безопасности…»
Исследователи безопасности уже продемонстрировали, как ChatGPT и его API можно использовать для написать вредоносное ПО, Как Ошибки ChatGPT привели к утечке личных данныхи даже о том, как можно использовать подсказки для извлечения конфиденциальной информации, которой делятся другие пользователи. Учитывая, что платформы генеративного искусственного интеллекта в ближайшие годы приобретут большую популярность, заинтересованные стороны и команды, занимающиеся безопасностью, должны защитить свою организацию от возможности утечки информации об их жемчужине в общедоступный Интернет из-за человеческой ошибки, заблуждения или просто наивность.
Где DLP и CASB терпят неудачу
Традиционно предприятия полагались на решения DLP (предотвращение утечки данных) для защиты конфиденциальных данных организации от несанкционированного доступа или распространения. DLP отслеживают поток конфиденциальных данных в организации. Как только они обнаруживают нарушение политики, например, попытку неавторизованного пользователя получить доступ к ограниченному ресурсу, DLP примет меры и отреагирует соответствующим образом. Это может включать блокировку данных или оповещение администраторов. Решения CASB также могут использоваться для защиты конфиденциальных данных от передачи за пределы организации.
Однако как DLP, так и решения КАСБ ориентированы на файлы. Это означает, что хотя они и предотвращают такие действия, как изменение данных, загрузка или совместное использование, эта защита применяется к файлам. Когда сотрудники вводят или вставляют данные в браузер на веб-сайте ChatGPT, DLP и CASB бесполезны. Эти действия в браузере находятся за пределами их управления и контроля.
Что такое безопасность браузера?
Безопасность браузера — это технологии, инструменты, платформы и методы, которые обеспечивают доступ к приложениям и веб-сайтам SaaS, одновременно защищая организационные системы и данные. Используя решение для обеспечения безопасности браузера, компании могут обнаруживать и предотвращать веб-угрозы и риски, нацеленные на браузер или использующие его в качестве вектора атаки. К таким угрозам относятся вредоносное ПО, социальная инженерия, кража и фильтрация данных.
В отличие от сетевых решений и решений по обеспечению безопасности конечных точек, платформы безопасности браузеров ориентированы на активность веб-сеансов в режиме реального времени, которая включает в себя реальные незашифрованные веб-страницы, которые браузеры отображают и отображают. Решения безопасности браузера работают путем выявления и блокировки веб-угроз с помощью политик активности, предотвращения совместного использования данных, обеспечения минимальных привилегий, обеспечения видимости, обнаружения вредоносных действий и защиты как управляемых, так и BYOD/сторонних устройств. Таким образом, их можно использовать для защиты действий в ChatGPT.
Как решение для безопасности браузера LayerX предотвращает утечку данных в ChatGPT
LayerX — это ориентированная на пользователя платформа безопасности браузера, которая работает с любым коммерческим браузером, превращая его в наиболее защищенное и управляемое рабочее пространство. LayerX постоянно отслеживает и анализирует сеансы браузера, чтобы обеспечить их защиту в режиме реального времени. Благодаря детальной видимости каждого события, происходящего в сеансе, LayerX может выделять события вставки текста. Все, что нужно сделать командам безопасности, — это определить политику, которая ограничивает или блокирует эту возможность с помощью вкладки ChatGPT. Эта политика может быть всеобъемлющей, т. е. запрещать использование ChatGPT вообще или для определенных строк.
LayerX предлагает несколько возможностей для защиты от утечки данных ChatGPT:
- Предотвращение вставки или отправки данных – Обеспечение того, чтобы сотрудники не добавляли конфиденциальную информацию в платформу Generative AI.
- Обнаружение ввода конфиденциальных данных – Определить, когда сотрудники собираются отправить конфиденциальные данные в ChatGPT, и ограничить их.
- Режим предупреждения – Участие в обучении сотрудников, пока они используют ChatGPT, путем добавления рекомендаций по «безопасному использованию».
- Блокировка или отключение сайта – Полное запрещение использования ChatGPT или подобных ChatGPT расширений браузера.
- Требовать согласия/обоснования пользователя – Обеспечение одобрения использования генеративного инструмента искусственного интеллекта.
LayerX защитит вашу организацию от потенциальной утечки данных, которая может возникнуть в результате использования сотрудниками ChatGPT или других инструментов генеративного искусственного интеллекта. Подробнее об этом здесь.