Внедрение искусственного интеллекта в отделы кадров таит в себе не только технологические прорывы, но и серьезные юридические ловушки. Как предупредил в беседе с журналистами издания «Газета.Ru» руководитель отдела персональных данных «Битрикс24» Алексей Масланов, неосторожное использование нейросетей в HR может обернуться для бизнеса крупными штрафами и ударом по репутации. Проблема упирается в главный вопрос: насколько прозрачны алгоритмы, от которых зависят судьбы людей?
В зоне риска оказываются огромные массивы информации. ИИ-системы обрабатывают не только стандартные анкетные данные — фамилии, адреса, дипломы, но и глубокие поведенческие метрики: продуктивность в рабочих системах, историю выполнения KPI, результаты психометрических тестов и даже записи собеседований. Но если раньше такие сведения анализировал человек, то теперь решение может принимать «черный ящик» алгоритма.
Здесь компании поджидает первый подводный камень. Статья 86 Трудового кодекса прямо запрещает принимать кадровые решения исключительно на основании автоматизированной обработки данных. ИИ способен сравнивать резюме, подсвечивать сильных кандидатов и предлагать варианты, но финальное слово всегда должно оставаться за живым специалистом. Особенно когда речь идет об увольнении, отказе в приеме на работу или повышении. Просто сослаться на то, что «так посчитала программа», работодатель не имеет права.
Не менее опасна угроза алгоритмической дискриминации. Модели обучаются на исторических данных, и если раньше компания по негласным причинам реже нанимала женщин на технические позиции или отсеивала соискателей старше 45 лет, нейросеть незаметно воспроизведет эту предвзятость. Такая «цифровая предубежденность» не только нарушает статью 3 Трудового кодекса, запрещающую дискриминацию, но и сужает воронку талантов, лишая бизнес ценных кадров.
Отдельная головная боль — информационная безопасность. Интеграция с внешними сервисами и облачными платформами создает риски утечек персональных данных. Еще хуже, если конфиденциальная информация используется для дообучения моделей без ведома соискателей. В таких случаях компанию ждут не только многомиллионные штрафы по ФЗ-152, но и полное обрушение доверия к бренду работодателя.
Чтобы избежать неприятных последствий, Масланов советует внедрить несколько обязательных правил. Во-первых, всегда сохранять человеческий контроль за итоговыми решениями. Во-вторых, регулярно проводить аудит моделей на предмет предвзятости. В-третьих, на этапе обучения алгоритмов исключать признаки, которые могут привести к дискриминации. Только так можно подружить эффективность искусственного интеллекта с требованиями закона и здравым смыслом.