Нельзя доверять отбор персонала роботизированным системам

11 Октября 2022 Опубликовано в Новости рынка труда
Прочитано 397 раз

При просмотре видеоинтервью кандидатов на работу искусственный интеллект, который помогает фирмам при найме новых сотрудников, допускает дискриминацию и может отбраковывать соискателей только из-за интерьера, на фоне которого снято видео или ношения очков.

Как сообщили ученые Кембриджского университета (Великобритания), во время пандемии коронавируса резко возросло число собеседований, проводимых онлайн. При этом многие компании используют искусственный интеллект для отбора кандидатов по видеозаписям. Ранее считалось, что ИИ беспристрастен в вопросах пола и этнической принадлежности. Разработчики утверждали, что робот-рекрутер помогает улучшить разнообразие на рабочем месте.

Однако новое исследование показало, что ИИ тоже имеет свои предпочтения: он выбирает людей, сидящих перед книжными полками, в платках и без очков. Эксперты доказали это, проведя опрос среди 500 организаций в пяти странах. Выяснилось, что 24% предприятий внедрили ИИ для подбора персонала. Еще 56% менеджеров по найму планируют внедрить его в следующем году. К тому же 86% организаций внедряют новые виртуальные технологии в практику найма.

В рамках исследования ученые создали инструмент искусственного интеллекта по образцу технологии, который предназначен для оценки личностных качеств «Большой пятерки» — открытости, добросовестности, экстраверсии, сговорчивости и невротизма. Передавая искусственному интеллекту изображения разных лиц на разном фоне, эксперты смогли продемонстрировать, как произвольные изменения могут дать радикально разные представления о личности.

Например, люди были оценены как более добросовестные, когда они сидели перед книжным шкафом или произведениями искусства, а не у голой стены. А люди, носящие головные платки, считались менее невротичными. Те, кто не носил очков, относились в категорию более добросовестных. Полученные результаты свидетельствуют, что использование ИИ для отбора кандидатов может в конечном итоге повысить единообразие, а не разнообразие на рабочем месте.

Исследователи призывают разработчиков программ подбора персонала с использованием искусственного интеллекта более тщательно тестировать свои технологии, передает The Daily Mail.

Алгоритм искусственного интеллекта быстро усваивает вредные расовые и сексистские стереотипы из соцсетей. К таким выводам пришли ученые Технологического университета Джорджии (США). Те, кто обучает ИИ распознавать людей, часто обращаются к обширным наборам данных, доступным бесплатно в Интернете. Но Глобальная Сеть заполнена неточным и откровенно предвзятым контентом.