Генеративный ИИ изменил не только то, как мы работаем, но и то, как действуют злоумышленники, как передаются данные и от чего должны защищаться команды безопасности. Та же технология, которая повышает производительность труда сотрудников, создает совершенно новые уязвимости, и инструменты, на которые мы раньше полагались, просто не были созданы для этого мира.
Традиционные решения DLP были разработаны на основе предсказуемых, структурированных данных, таких как номера кредитных карт, номера социального страхования и шаблоны, удобные для регулярных выражений. Но сегодня конфиденциальная информация выглядит иначе. Это стратегический документ, вставленный в ChatGPT. Его собственный исходный код загружается в помощника по программированию на основе ИИ. Это интеллектуальная собственность, которая незаметно покидает вашу организацию, по одному запросу за раз, без срабатывания каких-либо политик безопасности.
Индустрии безопасности необходим новый подход. И все чаще этот подход заключается в работе на грани возможного.
Почему облачные системы контроля на основе ИИ неэффективны
Заманчиво предположить, что решение заключается в простой маршрутизации активности ИИ через облачную систему управления жизненным циклом (LLM) для анализа. Но это создает целый ряд новых проблем, которые делают контроль в режиме реального времени в лучшем случае непрактичным, а в худшем — опасным.
- конфиденциальностьКонфиденциальные данные должны покинуть устройство для анализа, а это значит, что вы решаете проблему утечки данных, отправляя данные куда-то ещё.
- ЗадержкаЗадержки при передаче данных до конечной точки в облаке подрывают эффективность контроля в режиме реального времени — к моменту принятия решения действие уже произошло.
- Время безотказной работы и надежностьЗависимость от сетевого подключения создает уязвимости в системе безопасности именно тогда, когда вы меньше всего можете себе это позволить.
- СтоимостьОбработка каждого взаимодействия с пользователем через централизованное облачное хранилище в масштабах предприятия быстро становится дорогостоящей.
Вывод очевиден: если вам нужна защита на основе ИИ, которая является конфиденциальной, быстрой, круглосуточной и экономически эффективной, анализ должен происходить локально, на устройстве, в браузере, в момент действия пользователя.
Что может сделать только местный SLM
Именно здесь малые языковые модели, работающие на устройстве, меняют всё. Малые языковые модели — это не просто облегчённая версия облачных лингвистических моделей; они открывают возможности, которые просто невозможно реализовать никаким другим способом.
В частности, существует четыре ключевых возможности, которые наиболее важны для безопасности ИИ.
- Истинная классификация данных
Традиционные инструменты DLP классифицируют данные с помощью правил, ключевых слов и регулярных выражений. Это работает для структурированных данных, таких как персональные данные. Но самая ценная информация вашей компании, такая как стратегические планы, планы развития продуктов, невыпущенные исследования и запатентованные процессы, не соответствует никаким шаблонам. Просто невозможно обнаружить её с помощью регулярных выражений.Локальный модуль SLM понимает контекст и смысл. Он может распознать, что блок текста является конфиденциальной коммерческой интеллектуальной собственностью, даже если в нем нет ни одного регулируемого ключевого слова. Это особенно важно в эпоху ИИ-помощников, поскольку, хотя в модулях LLM существуют ограничения на отображение номеров кредитных карт, общая коммерческая информация беспрепятственно поступает в обучающие наборы данных.
- Понимание намерений пользователя
Выявление нарушения политики заключается не только в том, какие данные передаются. Скорее, речь идёт о следующем: почемуПользователь невинно просит инструмент искусственного интеллекта помочь ему составить электронное письмо, или же он систематически изучает его, чтобы получить информацию о конкурентах? Оценить намерения практически невозможно без сохранения контекста на протяжении всей сессии. Локальный модуль управления логикой (SLM), непрерывно работающий в браузере, делает именно это. - Выявление атак, изначально разработанных для искусственного интеллекта.
Быстрое внедрение вредоносного ПО, взлом систем, манипулирование защитными механизмами, выход из песочницы — это новые рубежи кибератак, и они разработаны специально для использования уязвимостей в системах искусственного интеллекта. Для их обнаружения необходим ИИ, понимающий, как можно манипулировать системами ИИ. Локальный модуль мониторинга систем управления безопасностью (SLM), отслеживающий взаимодействия в режиме реального времени, может выявлять эти схемы атак по мере их развития, а не постфактум. - Мониторинг выходных данных LLM
Иногда угроза исходит не от пользователя, а от самого ИИ. Галлюцинации, генерирующие ложную информацию, токсичные результаты, неэтичные ответы или данные, случайно появившиеся в обучающем наборе модели, — всё это реальные риски. Локальный модуль SLM обеспечивает второй уровень интеллекта, отслеживая ответы ИИ и выявляя аномалии до того, как они достигнут пользователя. Это мониторинг ИИ, который может осуществляться только в режиме реального времени, во время выполнения.Ключевой момент, объединяющий все четыре аспекта: весь анализ происходит на конечной точке. Никакие данные не покидают устройство. Нет дополнительных затрат на шифрование. Нет нарушения конфиденциальности. Нет ожидания.
SLM-ы полезны, но некоторые из них работают быстрее других.
LayerX — это ведущее решение для контроля использования ИИ, обеспечивающее безопасность взаимодействия пользователей и агентов с ИИ в браузере. Мы разрабатываем архитектуру на основе локального управления безопасностью на уровне SLM, которая делает возможной подлинную безопасность ИИ — конфиденциальную, в режиме реального времени и всегда доступную.
Но мы также понимаем практическую реальность: не все оборудование готово к такой нагрузке. Для локальной работы мощного SLM требуется серьезная вычислительная мощность для обработки данных с использованием ИИ, и именно здесь наше сотрудничество с Intel становится ключевым элементом головоломки.
Фреймворки Intel WebGPU, Intel® Core™ Ultra 3, обеспечивают производительность нейронного процессора (NPU), необходимую для выполнения задач безопасности на основе SLM без ущерба для пользовательского опыта. Для наглядной демонстрации мы приводим сравнительные тесты в трех реальных сценариях использования в сфере безопасности — суммирование данных, классификация данных и обнаружение фишинга — измеряя производительность на процессорах Intel по сравнению с альтернативными чипами и облачными решениями.
«Intel сотрудничает с LayerX для развития возможностей обеспечения безопасности ПК с использованием ИИ, что обеспечивает новый уровень прозрачности и контроля для современной рабочей силы, ориентированной на ИИ», — сказал Деннис Луо, старший директор и генеральный менеджер по связям с разработчиками ПК с ИИ в Intel. «Благодаря платформам WebGPU от Intel, процессоры Intel® Core™ Ultra 3 обеспечивают до 2 раз более быстрое время отклика по сравнению с AMD Ryzen AI — преимущество, которое становится критически важным, поскольку корпоративные браузеры все чаще проверяют все взаимодействия пользователей и агентов».
Результаты убедительно демонстрируют, как на практике выглядит вывод данных о безопасности на устройстве с нулевой задержкой: решения в реальном времени, отсутствие обращений к облаку, снижение эксплуатационных расходов и полная суверенитет данных.
Сравнение производительности LayerX на основе Сравнение процессора Intel® Core™ Ultra X7 358H с другими ведущими процессорами демонстрирует убедительные результаты:
| сравнение | Результаты |
| AMD Ryzen AI 9 365 с Radeon 880M | До В 2 раз более высокая производительность Тестирование производительности с использованием Layer X в 3 различных тестах на процессорах Intel® Core™ Ultra X7 358H и AMD Ryzen AI 9 365 с Radeon 880M * |
| Intel Core Ультра 258 В | До В 1.4 раз более высокая производительность с использованием Layer X в 3 различных тестах производительности на процессорах Intel® Core™ Ultra X7 358H и Intel Core Ultra 258V * |
| Яблоко M5 | До В 1.3 раз более высокая производительность с использованием Layer X в 3 различных тестах производительности на процессорах Intel® Core™ Ultra X7 358H и Apple M5 * |
* Измерения проводились с помощью рабочих нагрузок Layer X в браузере Chrome. См. www.intel.com/Индекс производительности для различных рабочих нагрузок и конфигураций. Результаты могут отличаться.
Сравнивая производительность Intel® Core™ Ultra X7 358H против других ведущих процессоров (чем выше показатель, тем лучше):
LayerX и Intel: безопасность, идущая в ногу с искусственным интеллектом.
Организации, преуспевающие в обеспечении безопасности ИИ, — это не те, кто блокирует ИИ, а те, кто научился разумно управлять им, учитывая скорость его работы. Это означает перенос контроля на периферию, использование моделей, достаточно умных, чтобы понимать контекст и намерения, и всё это без ущерба для конфиденциальности пользователей или производительности.
Сотрудничество LayerX и Intel — это конкретный шаг к этому будущему. Локальные SLM, работающие на мощном оборудовании, — это не просто техническая диковинка, это архитектура, которая обеспечивает реальную работу системы безопасности следующего поколения.
Измерения проводились с помощью рабочих нагрузок Layer X в браузере Chrome. См. www.intel.com/Индекс производительности для различных рабочих нагрузок и конфигураций. Результаты могут отличаться.

