Бесплатно Экспресс-аудит сайта:

16.10.2022

Кембриджские исследователи считают, что ПО для найма с ИИ-алгоритмами – автоматизированная лженаука

Согласно новой работе, опубликованной исследователями из Центра гендерных исследований Кембриджского университета, ИИ демонстрирует субъективность и ненадежность при отборе сотрудников, а также использует алгоритмы, основанные на лженауке.

"ИИ нельзя обучить определять только связанные с работой характеристики и игнорировать гендерные/расовые характеристики кандидата. Это связано с тем, что те качества, которые, как мы считаем, необходимы для того, чтобы быть хорошим работником, по своей сути связаны с гендерными и расовыми характеристиками", – сказала Керри Маккерет, постдок из Центра гендерных исследований Кембриджского университета.

Особое беспокойство у исследователей вызвали инструменты, сравнивающие мельчайшие детали речи и телодвижений кандидата с идеальным образцом сотрудника компании. По словам соавтора исследования, доктора Элеонору Драге, такие инструменты не имеют никакой научной основы и больше похожи на френологию – антинаучную теорию о связи психических свойств человека и строения его черепа.

Кроме того, вместе с шестью студентами, изучающими компьютерные науки, исследователи создали свой собственный упрощенный инструмент для подбора персонала на ИИ-алгоритмах, который оценивал фотографии кандидатов по "большой пятерке" личностных качеств:

  • Экстраверсии;

  • Покладистости;

  • Открытости;

  • Добросовестности;

  • Невротизму.

Но все полученные оценки были искажены многими не относящимися к делу переменными. Например, оценка личности менялась после изменения контрастности/яркости/насыщенности фото.

Кроме того, многие другие исследователи пришли к аналогичным выводам. Еще на оценку влияют очки и головной платок.

Однако не все специалисты скептически относятся к подобным технологиям. Некоторые считают, что ИИ может помочь в увеличении разнообразия сотрудников компании за счет анализа больших пулов кандидатов.