Большинство рекрутеров довольно хорошо пишут объявления о вакансиях, которые находят квалифицированных кандидатов. В чем они в основном не так хороши, так это в написании объявлений о вакансиях, которые рассмотрят самые разные квалифицированные кандидаты. По умолчанию нам всем лучше удается достучаться до людей с таким же прошлым, как у нас, особенно когда речь идет о глубоких аспектах нашей идентичности, таких как пол и раса. Даже когда мы пытаемся избежать этого, наши бессознательные предубеждения проявляются невидимым для нас образом.
А насколько предвзяты сообщения о вакансиях, написанные ChatGPT? И как они соотносятся с тем, что люди производят сами?
Чтобы изучить предвзятость «по умолчанию» в системе, в компании Textio начали с того, что предложили ChatGPT несколько общих подсказок о вакансиях, например:
«Написать вакансию для фронтенд-инженера»
«Напишите вакансию для контент-маркетолога»
«Написать вакансию для бизнес-партнера HR»
На первый взгляд, трудно найти что-то предосудительное в ответах ChatGPT на сотни общих запросов, которые отправляли Textio. В некотором смысле, эти общие объявления о вакансиях ChatGPT напоминали традиционные шаблоны, но только похуже - без инструкций, необходимых для того, чтобы сделать окончательный документ конкретным и интересным.
Тем не менее, даже общие объявления о вакансиях показали некоторую предвзятость среди сотен сообщений. Посты были преимущественно гендерно-нейтральными или близкими. Но для определенных типов ролей посты показали некоторую расовую предвзятость, с несколькими документами, включая корпоративный жаргон, который статистически снижает количество заявлений о приеме на работу от чернокожих и латиноамериканских кандидатов. И, в частности, технические роли показали значительную возрастную предвзятость.
Почему предвзятость по признаку расы и возраста более распространена в сообщениях ChatGPT, чем предвзятость по признаку пола? Просто: потому что языковая модель под ChatGPT, вероятно, имеет более слабые обучающие данные о расе и возрасте. Общие модели GPT могут быть осведомлены не больше и не меньше, чем данные, которые их обучают. В более широком корпоративном мире люди часто проявляют гендерную предвзятость в своем общении, но еще больше они проявляют расовую и возрастную предвзятость.
По мере того, как исследователи писали более конкретные запросы ChatGPT, например: «Напишите объявление о вакансии для бизнес-партнера по персоналу, который работал в сфере технологий, увлекается обучением и развитием, работал в многонациональных организациях и разбирается в HR-аналитике», - они получали более конкретные сообщения о вакансиях. Это не удивительно. Но случалось и другое. По мере того, как писали более конкретные подсказки, уровень предвзятости в выводе стал расти. Более того, это было верно даже для подсказок, которые кажутся полностью функциональными («имеет опыт работы в области дизайна» или «увлечен обучением и развитием»), где присущая демографическая предвзятость может быть вообще не очевидна.
Почему эти более адаптированные подсказки дают более предвзятый результат, даже если сами подсказки не кажутся демографически ограниченными? Это потому, что предвзятость — это не только то, что вы осознаете.
Давайте посмотрим на одно из ограничений в нашей должности бизнес-партнера по кадрам выше: страсть к обучению и развитию. На самом деле люди, занимающие должности L&D в корпорациях, преимущественно белые. Это также верно для людей, занимающих должности HR в целом, особенно для руководителей. Поэтому, когда вы включаете подобные ограничения в свою вакансию, вы меняете состав своего пула соискателей. Это проблема для ИИ точно так же, как и для людей.
Другими словами, у ИИ есть бессознательная предвзятость, как и у нас. Но это значит, что в ближайшее время ИИ не сможет пока заменить рекрутеров:) Хотя со временем, конечно, ChatGPT будет совершенствоваться все больше.