
Безопасность данных
Пользуйтесь Jay Copilot, не переживая об утечке корпоративных данных в нейросети. Маскируйте или блокируйте обработку запросов с чувствительной информацией c помощью модуля контроля и безопасности данных Jay Guard
Почему так важна безопасность
Безопасность — основной барьер внедрения GenAI для 78% финтех-компаний*
*по данным опроса CB Insights
65% основных рисков*, связанных с использованием генеративного AI, обусловлены вопросами защиты персональных данных и кибербезопасности
*согласно опросу Next DLP
С какими рисками сталкиваются компании
Компании, использующие облачные LLM, могут столкнуться с рисками, которые ведут к финансовым и репутационным потерям:
Утечка корпоративной информации
Доступ к конфиденциальным данным компании может привести к подрыву деловой репутации
Несанкционированная трансграничная передача персональных данных
Риск нарушения требований 12 статьи Федерального закона № 152-ФЗ «О персональных данных»
Недостаточный контроль
Сложности в управлении использованием сотрудниками LLM и отслеживании загружаемых данных
Беспорядочный расход токенов*
Отсутствие ограничений доступа у сотрудников ведёт к неконтролируемым расходам
*Основная единица тарификации в Jay Copilot — J-токены
Максирование данных
При использовании облачных LLM с помощью модуля контроля и безопасности данных Jay Guard
Обеспечивает защиту корпоративной и персональной информации, предотвращая ее утечку в облачные нейросети. Модель определяет и надежно маскирует чувствительную информацию не только в запросе, но внутри загруженных файлов.
Заменяет конфиденциальные элементы на нейтральные маркеры, при этом сохраняя исходное значение запроса.
Кроме того, модель позволяет контролировать невыполнение требований ФЗ-152, минимизировать риски в информационной безопасности, связанные с отсутствием контроля и аудита запросов к облачным LLM.

Защитите самое важное с Jay Guard
IP-адрес
Название организации
СНИЛС
Номера карт
CVV
VIN номер автомобиля
OTP
MAC-адрес
Личность
КПП
Водительское удостоверение
Серия и номер паспорта
Логин и пароль
*Можно создать собственные пользовательские сущности, чтобы Jay Guard находил данные, уникальные именно для ваших запросов.
Управляйте запросами в Jay Copilot
Преимущества решения
- Позволяет работать по протоколу Open AI API
- Легко настраивается для обнаружения и маскирования определённых данных: ФИО, паспортные данные, номера кредитных карт, email-адреса и другие
- Имеет адаптивную архитектуру, позволяющую размещать различные части решения как в облаке, так и on-premise
- Дает возможность использовать не только предустановленные фильтры, но и встраивать свои собственные
Установка решения
в контур компании
Безопасно разворачиваем GenAI-решения on-premise
Преимущества решения
- Все данные обрабатываются и хранятся на собственной инфраструктуре компании
- On-premise развертывание облегчает соблюдение локальных и международных стандартов защиты данных
- Ниже вероятность воздействия внешних кибератак, потому что LLM функционируют внутри изолированной корпоративной сети
- Есть возможность гибко регулировать производительность

Для тестирования и запуска собственных LLM применяется PaaS-платформа Caila. Этот подход к развертыванию обеспечивает наивысшую безопасность и контроль качества работы LLM.
Комбинированный вариант поставки решения
Использование on-premise и облачных решений
Такой подход позволяет быстро и безопасно тестировать и проверять новые AI-решения, используя облачные LLM в сочетании с модулем Jay Guard:
- Облачные LLM + Jay Guard для безопасного пилотирования и валидации новых идей
- On-premise LLM для работы с самыми чувствительными данными компании

Часто задаваемые вопросы
Какой инструмент для маскирования используется в решениях?
На данном этапе существует несколько вариантов:
- В Jay Guard для обнаружения таких данных сейчас используются модели, обученные на обнаружение именованных сущностей — Named Entity Recognition. Основная модель, которая сейчас применяется — ner-slovnet.
- Также для поиска определённых паттернов в запросах пользователя используются regexp-выражения — как системные, так и кастомные, которые пользователь может завести самостоятельно.
- У пользователя есть возможность загружать в Jay Guard словари с чувствительными данными — сервис будет обнаруживать их в запросах.
Каким образом в сообщении можно выделить именно те фрагменты, которые составляют предмет коммерческой тайны, и которые надо подвергнуть умному маскированию?
Jay Guard предлагает пользователю ряд категорий сущностей, которые он может обнаруживать и маскировать. Например, номера телефонов, номера карт, имена, фамилии, локации и т.д. В зависимости от категории сущности, для её обнаружения, используются соответствующие методы поиска: номера телефонов, email — мы можем найти простыми regexp-выражениями, а для поиска личностей и локаций используются NER-модели. Какие‑то специфичные для пользователя сущности мы можем найти с помощью загруженных им кастомных словарей.
Кому принадлежат права на промты и сгенерированный на их основе контент?
Ответ зависит от юрисдикции и условий сервисов. В России этот вопрос пока не решён, однако уже проявляются черты общего подхода как к загружаемому, так и к сгенерированному контенту:
Промт. Простые примеры запросов, такие как короткие текстовые фразы без деталей, не защищаются авторским правом, так как они не являются результатом творческой деятельности. Однако если промпт является сложной, оригинальной последовательностью команд или содержит уникальные данные (например, изображение для обработки ИИ), он может подлежать защите авторским правом. В таком случае правообладателем признается создатель такого промпта.
Сгенерированный контент. Большинство правовых систем считают, что первоначальным правообладателем контента, созданного ИИ, должен быть пользователь, который ввёл соответствующий запрос. Однако для этого запрос должен существенно влиять на результат генерации. Если пользователь подробно описывает, как должен выглядеть результат (например, изображение кота с конкретными деталями), то контент может быть защищён авторским правом, а его автором будет пользователь. При этом важно учитывать, что условия пользовательских соглашений могут изменять распределение прав. Например, некоторые сервисы, как Leonardo.AI, могут предусматривать передачу всех прав на сгенерированный контент владельцу нейросети.
Можно ли разработать AI-Ассистента в гибридном исполнении: Публичные данные обрабатываются в облаке, приватные в контуре?
Да, можно. Часть запросов, которые касаются чувствительных данных будет обрабатываться моделью, установленной в контур компании, а другая часть, без чувствительных данных, — в облачном варианте.
Можно ли интегрировать Jay Guard c существующими инструментами ИБ?
Да, можно через API реализовать интеграцию с вашей SIEM-системой.
Хотите узнать больше?
Свяжитесь с нами для получения консультации.
Мы всегда готовы помочь вам сделать правильный выбор!