Гигиена работы с ИИ: безопасное применение нейросетей в HR
Нейросети всё шире используются в HR-процессах. Но бесконтрольное применение общедоступных моделей создаёт риски утечки данных, фактических ошибок и предвзятости. Рассказываем, как работать с ИИ безопасно, этично и в рамках правового поля.
К 2025 году искусственный интеллект стал рабочим инструментом для многих HR-департаментов. Согласно Gartner, доля руководителей в этой сфере, планирующих или уже использующих генеративный ИИ, увеличилась с 19% в середине 2023 года до 61% в январе 2025-го. Технологии автоматизируют рутинные задачи: помогают составлять описания вакансий, анализировать резюме и готовить сопроводительные письма.
Часто это внедрение происходит стихийно — без контроля со стороны ИТ и служб безопасности. Сотрудники самостоятельно решают рабочие задачи с помощью публичных версий нейросетей. Такое явление получило название «теневой ИИ» и может создавать угрозы для конфиденциальности данных и соблюдения нормативных требований.
В статье объясняем, как устроены нейросети и почему их использование в HR может быть сопряжено с рисками. Мы рассмотрим три ключевых аспекта: защиту чувствительных данных, достоверность информации и непредвзятость алгоритмов, а также предложим практические рекомендации для безопасной работы с ИИ.
Защита конфиденциальных данных при работе с ИИ
Главный риск при использовании общедоступных нейросетей — утечка персональных данных и коммерческой тайны. Для HR-специалистов, которые постоянно обрабатывают чувствительную информацию, эта угроза особенно высока.
Как происходит утечка
Крупные провайдеры, как правило, не обучают свои нейросетевые модели на клиентских данных. Однако многие публичные ИИ-сервисы могут использовать контент пользователей для улучшения своих алгоритмов.
В результате конфиденциальная информация может стать частью «базы знаний» нейросети. Впоследствии модель способна случайно выдать эти сведения другому пользователю в ответ на схожий запрос. Исследования : извлечение фрагментов обучающих данных из подобных моделей технически возможно.
Такая практика создаёт для российских компаний юридические риски, связанные с нарушением Федерального закона № 152-ФЗ «О персональных данных». Закон строго регламентирует сбор, обработку и хранение сведений о гражданах и требует принимать технические меры для их защиты от неправомерного доступа. Отправка персональных данных в публичные сервисы может привести к нарушению закона персональных данных.
считается передача информации без надёжных мер защиты или без законной причины — например, согласия самого пользователя. Также закон можно нарушить, если не соблюдать правила локализации и отправки данных за границу.
Как минимизировать риски
Чтобы снизить вероятность утечки данных при работе с ИИ, придерживайтесь нескольких правил:
• Анонимизируйте данные. Перед отправкой информации в нейросеть удаляйте все идентификаторы: имена, контакты, названия компаний и точные суммы зарплат. Например, вместо «Иванов Иван Иванович, 35 лет» можно указать «Кандидат А, опыт более 10 лет»
• Используйте корпоративные решения. Самый безопасный способ — применять ИИ-модели, которые работают в закрытом корпоративном контуре или в инфраструктуре надёжного облачного провайдера. Это гарантирует, что информация не покинет её периметр и не будет использована для обучения общедоступных моделей
• Проверяйте настройки приватности. Некоторые публичные сервисы позволяют отключить сбор данных для обучения модели. Если функция доступна, её необходимо активировать
• Создайте внутренние регламенты использования нейросетей. Разработайте чёткие правила: какие ИИ-инструменты использовать в работе, какую информацию можно в них загружать, а какую — категорически запрещено
Достоверность информации и проблема «галлюцинаций»
Ещё одна серьёзная проблема нейросетей — способность генерировать правдоподобную, но ложную информацию. Такие ошибки называют «галлюцинациями».
Почему возникают «галлюцинации»
Большие языковые модели — это сложные системы для предсказания текста. Они не обладают сознанием и не оперируют фактами в человеческом понимании. Основная такой модели — сгенерировать наиболее вероятное продолжение для уже существующего текста.
Алгоритм последовательно определяет, какое слово с наибольшей вероятностью должно идти следующим, основываясь на статистических паттернах. Цель модели — создать грамматически и стилистически связный текст, а не передать точную информацию.
называют ошибку, при которой модель генерирует бессмысленные или фактически неверные результаты, основанные на ложных закономерностях. Например, ИИ может просто выдумать законы или сослаться на несуществующее исследование вымышленного автора.
В сфере HR такие ошибки особенно опасны. Неверная трактовка трудового законодательства или ошибочная оценка навыков кандидата могут привести к неэффективным кадровым решениям и даже к юридическим спорам.
Методы проверки информации
Нейросети эффективны для структурирования документов, переформулирования текстов или генерации идей. Но не следует полагаться на них как на источник точных данных или экспертных оценок. Критическое мышление остаётся ключевым навыком при работе с ИИ.
• Проверяйте критически важные данные. Факты, цифры и ссылки на законы требуют обязательной сверки с первоисточниками. Юридические рекомендации, сгенерированные ИИ, нужно перепроверять с помощью актуальных справочно-правовых систем
• Попросите опытных коллег провести фактчек по теме. Решения, особенно на критически важных этапах, должны принимать и проверять специалисты. Не стоит делегировать их нейросети
• В целом используйте ИИ как черновик. Любую информацию от нейросети стоит рассматривать как гипотезу или основу для дальнейшей работы, а не надёжный источник или готовый документ
Лучше всего ИИ работает как ассистент, а не как эксперт. Он помогает экономить время на рутине, но ответственность за финальный результат .
Алгоритмическая предвзятость: как ИИ воспроизводит стереотипы
Хотя ИИ в рекрутинге часто внедряют для повышения объективности, на практике алгоритмы могут не только воспроизводить, но и усиливать существующие социальные предубеждения.
Источник предвзятости: обучающие данные
Нейросети обучаются на данных, созданных людьми, и эти данные неизбежно отражают исторические и социальные стереотипы, связанные с полом, возрастом или происхождением. В процессе обучения алгоритм эти скрытые закономерности и начинает их тиражировать.
Например, если в данных, на которых училась нейросеть, большинство инженеров — мужчины, она может автоматически понижать рейтинг резюме кандидатов-женщин. Хрестоматийным стал с рекрутинговой системой Amazon: компания была вынуждена отказаться от неё из-за дискриминации женщин. Модель, обученная на резюме за десять лет в среде, где преобладали мужчины, научилась понижать в выдаче анкеты за одно лишь слово woman’s (женский), даже в таком контексте, как «капитан женской команды».
наносит прямой вред бизнесу: она сужает воронку найма, лишая компанию доступа к талантливым кандидатам, и препятствует формированию разнообразной и инклюзивной рабочей среды.
Как снизить риск предвзятости
Походите к управлению рисками предвзятости комплексно:
• Учитывайте вероятность заблуждения. Исходите из того, что ни одна ИИ-модель не может быть полностью свободна от предвзятости. Если брать в расчёт принципы её работы, проще заметить и контролировать возможные ошибки
• Проводите регулярный аудит. Периодически проверяйте результаты работы ИИ на предмет системных искажений. Например, можно сравнивать долю отклонённых резюме от кандидатов из разных демографических групп
• Формируйте культуру ответственного использования ИИ. Снижение рисков — это командная задача. Необходимо проводить обучение сотрудников и внедрять единые протоколы безопасной работы с ИИ, чтобы технологии использовались этично и эффективно

Особенно опасно делегировать ИИ прямое общение с кандидатами — здесь все три риска реализуются одновременно. В диалоге неизбежно передаются персональные данные, ИИ может «галлюцинировать», выдавая неверную информацию о вакансии и теряя логику беседы, а главное — алгоритм способен неосознанно дискриминировать по полу, возрасту или другим признакам. Если используете ИИ-агентов: выбирайте только проверенных провайдеров с гарантиями защиты данных, регулярно аудируйте диалоги на предмет ошибок и предвзятости и всегда оставляйте возможность для человеческого вмешательства в критических точках коммуникации
Запомнить: ключевые принципы работы с ИИ
• Публичные версии нейросетей могут использовать загруженные данные для дообучения — ваша информация может стать доступной третьим лицам
• Нельзя загружать в нейросети персональные данные и коммерческую тайну — это нарушает № 152-ФЗ
• Главная защита — строгая анонимизация: убирайте всё, по чему можно опознать человека или компанию
• Используйте корпоративные ИИ-решения, развёрнутые в закрытой инфраструктуре
• Проверяйте ответы нейросетей, если они могут на что-то повлиять: ИИ предсказывает вероятное продолжение текста, а не строго сверяется с источниками — и может давать убедительные, но неверные ответы
• Алгоритмы воспроизводят стереотипы из данных, на которых были обучены, — без контроля это может привести к дискриминации
• ИИ — инструмент, а не эксперт: за точность и этичность результата отвечает пользователь. При работе с нейросетями нужен контроль специалиста и регулярный аудит
• Распространяйте знания о принципах работы нейросетей в команде и внедряйте протоколы безопасного использования




