Быстрая интеграция генеративного ИИ в повседневные рабочие процессы открыла беспрецедентный потенциал производительности. Сотрудники теперь используют GenAI для самых разных задач: от составления электронных писем до составления сложных отчётов. Но с этой возросшей зависимостью появляется новый, коварный вектор угроз: фишинг с использованием ИИ. Злоумышленники быстро адаптируют свою тактику, эксплуатируя доверие пользователей к этим мощным инструментам. Результатом становится новое поколение изощрённых атак, которые традиционные средства безопасности с трудом обнаруживают, что делает отслеживание и контроль, ориентированные на браузер, как никогда важными.
Суть проблемы в том, что сама технология, призванная повысить эффективность, оборачивается против предприятий. Использование генеративного ИИ для фишинговых атак — это не концепция будущего, это происходит уже сегодня. Эти кампании более персонализированы, грамматически безупречны и учитывают контекст, чем их предшественники, легко обходят как человеческое подозрение, так и устаревшие фильтры электронной почты. От создания безупречных вредоносных писем до создания точных копий популярных сервисов — ИИ вооружил злоумышленников грозным арсеналом.
Анатомия современных фишинговых атак с использованием искусственного интеллекта
Понимание механизмов, лежащих в основе этих угроз, — первый шаг к построению эффективной защиты. Фишинговые атаки с использованием ИИ многогранны и часто сочетают в себе несколько методов для компрометации учётных записей пользователей и кражи конфиденциальных данных. Эти атаки выходят за рамки простого сбора учётных данных, стремясь закрепиться в SaaS-экосистеме организации.

Рост числа фишинговых писем, созданных с помощью искусственного интеллекта
Годами явными признаками фишингового письма были грамматическая ошибка, неуклюжие формулировки или ощущение срочности. ИИ устраняет эти тревожные сигналы. Теперь злоумышленники могут использовать GenAI для создания безупречных, контекстно-зависимых писем, которые с поразительной точностью имитируют стиль письма конкретного человека.
Представьте себе сотрудника финансового отдела, получающего электронное письмо, якобы от своего финансового директора, в котором обсуждается недавний отчёт о прибылях и убытках и предлагается ознакомиться с прикреплённым «обновлённым прогнозом». Язык письма идеален, тон знаком, а контекст уместен. Однако ссылка ведёт на вредоносный файлообменник, предназначенный для кражи учётных данных. Такой уровень персонализации, масштабируемый на тысячи потенциальных жертв, теперь доступен даже неквалифицированным злоумышленникам. Эпоха легко распознаваемых фишинговых писем прошла.
Опасности поддельного ChatGPT и вредоносных клонов
Популярность таких инструментов, как ChatGPT, привела к появлению множества вредоносных клонов и поддельных сайтов, работающих на базе ChatGPT. Эти сайты часто выглядят и работают так же, как и легитимные сервисы, но имеют зловещую цель. Ничего не подозревающий сотрудник может использовать один из этих поддельных интерфейсов для выполнения рабочих задач, например, для уточнения конфиденциальной бизнес-стратегии или составления краткого содержания конфиденциального внутреннего документа.
Когда сотрудник вставляет эту информацию в поле запроса, данные отправляются непосредственно на серверы, контролируемые злоумышленником. Это прямой путь к утечке конфиденциальной информации, касающейся персональных данных (PII), и интеллектуальной собственности. Пользователь верит, что взаимодействует с полезным помощником-ИИ, хотя на самом деле он передает ему самые ценные секреты компании. Этот метод представляет собой значительный шаг в развитии социальной инженерии, превращая стремление пользователя к повышению производительности в оружие.
Быстрый сбор данных: тихая утечка данных
Одна из самых опасных тактик, появившихся в этой новой экосистеме угроз, — сбор подсказок. Эта техника основана на сборе входных данных (подсказок), которые пользователи вводят в модели GenAI. Злоумышленники используют вредоносные расширения для браузеров или взламывают небезопасные сторонние инструменты искусственного интеллекта, чтобы незаметно записывать всё, что пользователь вводит в чат-интерфейс GenAI.
Этот метод особенно опасен, поскольку он невидим. Очевидных признаков взлома не наблюдается. За несколько недель или месяцев злоумышленники могут накопить огромный массив конфиденциальной информации, включая:
- Фрагменты исходного кода
- Конфиденциальные юридические соглашения
- Неопубликованные финансовые данные
- Стратегические маркетинговые планы
- Списки клиентов и личная информация
Эту медленную, скрытую утечку данных невероятно сложно обнаружить с помощью традиционных средств сетевой безопасности, поскольку она скрыта в легитимном, зашифрованном веб-трафике, передающем данные, казалось бы, через доверенное приложение. Почему это так важно в 2025 году? Потому что каждый запрос, введённый сотрудником, — это потенциальная утечка данных, готовая к стечению обстоятельств.
Пример: Фишинговые атаки на Gmail с использованием искусственного интеллекта
Эта угроза не является теоретической. Мы уже наблюдаем высокотехнологичные фишинговые атаки на Gmail с использованием искусственного интеллекта. В таких сценариях злоумышленники используют ИИ для анализа общедоступной информации жертвы и внутренних схем коммуникации (полученных в ходе предыдущей, менее масштабной атаки). Затем они создают гиперреалистичное письмо, продолжающее существующую переписку в Gmail.
Например, ИИ может определить цепочку электронных писем о предстоящем платеже по счету. Затем он добавляет в цепочку новый ответ из взломанной учетной записи со ссылкой на «обновленный» счет. Ссылка перенаправляет жертву на поддельную страницу входа, которая собирает ее учетные данные Google Workspace. Поскольку письмо является частью законного разговора и написано в знакомом стиле, жертва гораздо более склонна попасть в ловушку. Это демонстрирует стратегический переход от широких, типовых кампаний к целевым, контекстно-ориентированным атакам с использованием ИИ.
Проблема обнаружения фишинга с помощью ИИ
Традиционные решения безопасности, такие как шлюзы безопасной электронной почты (SEG), не поспевают за развитием событий. Они были разработаны для выявления известных вредоносных сигнатур, подозрительных ссылок и грамматических ошибок — всего того, что атаки на основе ИИ призваны обойти. Задача обнаружения фишинга с помощью ИИ двоякая:
- Семантическая безупречность: контент, генерируемый ИИ, не имеет типичных признаков фишинга. Текст понятен, соответствует контексту и не содержит ошибок.
- Обход систем, основанных на репутации: Злоумышленники могут использовать законные домены с высокой репутацией (например, общедоступные облачные хранилища или сайты совместного использования кодов) для размещения своих вредоносных полезных нагрузок, обходя инструменты анализа ссылок.
Это создаёт серьёзную брешь в системе безопасности. Если вы больше не можете полагаться на фильтры электронной почты для блокировки угроз и не можете рассчитывать на то, что сотрудники распознают эти безупречные подделки, где же должна быть защита? Ответ кроется в точке взаимодействия: в браузере.
Решение LayerX: обнаружение и реагирование браузера
Для эффективного противодействия угрозе фишинга с использованием ИИ необходимо обеспечить безопасность не только на уровне сети и электронной почты, но и в самом браузере. LayerX обеспечивает необходимую прозрачность и детальный контроль действий пользователя в браузере, напрямую блокируя векторы атак, которые использует фишинг с использованием ИИ. Как показывают аудиты безопасности GenAI, проводимые LayerX, мониторинг событий браузера имеет основополагающее значение для предотвращения утечки данных.
Предотвращение быстрого сбора и утечки данных
Корпоративное расширение LayerX для браузеров анализирует взаимодействие пользователя с каждой веб-страницей, включая платформы GenAI. Оно может выявлять и блокировать вставку конфиденциальной информации, такой как персональные данные, внутренние ключевые слова или шаблоны кода, в несанкционированные или подозрительные инструменты GenAI. Это ключевой компонент защиты от DLP и внутренних угроз для веб-/SaaS-приложений. Если сотрудник пытается использовать поддельный сайт ChatGPT, LayerX может уведомить пользователя и службу безопасности или полностью заблокировать действие в соответствии с установленными политиками. Это предотвращает немедленный сбор данных в источнике.
Выявление и нейтрализация вредоносных сайтов
Платформа LayerX предоставляет полный набор возможностей аудита для всех SaaS-приложений, включая выявление несанкционированных «теневых» SaaS-приложений. Это критически важно для обнаружения переходов пользователя на вредоносный инструмент ИИ или страницу сбора учётных данных, маскирующуюся под легитимный сервис. Анализируя код и поведение страниц в режиме реального времени, LayerX может выявлять даже фишинговые сайты нулевого дня, которые ранее не встречались. Это позволяет перейти от реактивной модели безопасности, основанной на сигнатурах, к проактивной, поведенческой.
Обеспечивая управление безопасностью непосредственно в браузере, организации могут применять меры безопасности на основе оценки рисков ко всем случаям использования SaaS-решений, нейтрализуя угрозы до того, как они приведут к нарушению безопасности. Этот подход — наиболее эффективный способ борьбы с современными фишинговыми атаками с использованием ИИ и обеспечения роста производительности, который обеспечивает генеративный ИИ.
