Эксперт рассказал о правилах безопасного использования ИИ в работе
22 дек. 2025
Искусственный интеллект, активно внедряемый в бизнес-процессы для экономии времени на рутинных задачах, может стать источником утечки конфиденциальной информации. Как предупредил эксперт «МегаФона» Виталий Щербаков в беседе с «Известиями», данные, отправленные в нейросеть, включая документы и личные сведения, могут попасть в ее обучающую выборку и впоследствии быть использованы в ответах другим пользователям.
«Чтобы избежать рисков, связанных с передачей информации третьим лицам или конкурентам, необходимо придерживаться ряда правил безопасности. Первым шагом является настройка приватности в используемом сервисе: следует отключить в настройках функцию, разрешающую обучение модели на ваших запросах, например опцию «улучшить модель для всех», — отметил он.
Также, по словам специалиста, важно следовать принципу «не отправлять реальное», заменяя все конкретные данные на условные обозначения: например, вместо настоящих имен и номеров использовать шаблоны вроде «Сотрудник Х» или «ID-123». Перед отправкой документов в нейросеть рекомендуется «зачищать» их с помощью инструментов анонимизации и шифрования.
При формулировании запросов эксперт советует четко обозначать цель, убирать лишнюю информацию, структурировать задачу и ограничивать объем входных данных, чтобы не допустить утечки чувствительного контекста. Кроме того, каждый ответ нейросети требует обязательной проверки и верификации через авторитетные источники, поскольку ИИ всё еще способен выдавать фактические и логические ошибки. Оформление платной подписки на сервис часто предоставляет дополнительные возможности для контроля обработки данных.
По словам Щербакова, нейросети можно безопасно применять для генерации и редактирования текстов, организации рабочих процессов, HR-задач, аналитики на обезличенных данных и создания визуального контента.
«Для бизнеса дополнительными мерами защиты могут стать внедрение LLM-решений во внутреннюю инфраструктуру без доступа в интернет и разработка систем, изначально исключающих обработку конфиденциальных данных. Ключевым фактором безопасности остается осознанный подход пользователя: не следует отправлять в нейросеть информацию, которую вы не хотели бы увидеть в открытом доступе», — заключил специалист.