Перспективы и опасности использования ИИ для найма: остерегайтесь предвзятости данных

Перспективы и опасности использования ИИ для найма: остерегайтесь предвзятости данных



Перспективы и опасности использования ИИ для найма: остерегайтесь предвзятости данных

Автор: сотрудники AI Trends

Хотя ИИ в сфере найма сейчас широко используется для автоматизации написания описаний вакансий, отбора кандидатов и проведения собеседований, он создает риск широко распространенной дискриминации, если его не внедрять осторожно.

Кейт Сондерлинг, комиссар Комиссии США по равным возможностям

Такое послание высказал Кит Сондерлинг, комиссар Комиссии по равным возможностям США, во время своего выступления на конференции. Мировое Правительство ИИ Мероприятие проводилось в прямом эфире практически на прошлой неделе в Александрии, штат Вирджиния. Сондерлинг отвечает за соблюдение федеральных законов, запрещающих дискриминацию соискателей работы по признаку расы, цвета кожи, религии, пола, национального происхождения, возраста или инвалидности.

«Идея о том, что ИИ станет мейнстримом в HR-отделах, два года назад была ближе к научной фантастике, но пандемия ускорила темпы использования ИИ работодателями», — сказал он. «Виртуальный рекрутинг теперь никуда не денется».

Для HR-специалистов это напряженное время. «Большие отставки ведут к большим повторным назначениям, и ИИ будет играть в этом роль, которую мы раньше не видели», — сказал Сондерлинг.

ИИ уже много лет используется в рекрутинге – «это не произошло в одночасье». – Для задач, включая общение с приложениями, прогнозирование, устроится ли кандидат на работу, прогнозирование того, каким сотрудником он будет, а также отображение возможностей повышения квалификации и переподготовки. «Короче говоря, ИИ теперь принимает на себя все решения, принимаемые HR-персоналом», что он назвал ни хорошим, ни плохим.

«При тщательном проектировании и правильном использовании ИИ может сделать рабочее место более справедливым», — сказал Сондерлинг. «Но при небрежном применении ИИ может привести к дискриминации в таких масштабах, которых мы никогда раньше не видели ни у одного специалиста по персоналу».

Наборы обучающих данных для моделей ИИ, используемых для набора персонала, должны отражать разнообразие.

Это связано с тем, что модели ИИ зависят от обучающих данных. Если нынешняя рабочая сила компании будет использоваться в качестве учебной базы, «она повторит статус-кво. Если в ней будет преобладать представитель одного пола или одной расы, она повторит это», — сказал он. И наоборот, ИИ может помочь снизить риск предвзятости при приеме на работу по признаку расы, этнического происхождения или статуса инвалидности. «Мне бы хотелось, чтобы ИИ улучшил дискриминацию на рабочем месте», — сказал он.

Amazon начала создавать приложение для подбора персонала в 2014 году и со временем обнаружила, что оно дискриминирует женщин в своих рекомендациях, поскольку модель ИИ обучалась на наборе данных собственных записей компании о подборе персонала за последние 10 лет, в которых преобладали мужчины. Разработчики Amazon пытались это исправить, но в конечном итоге убили систему в 2017 году.

Согласно сообщению, недавно Facebook согласился выплатить 14,25 миллиона долларов для урегулирования гражданских исков правительства США о том, что компания, занимающаяся социальными сетями, дискриминирует американских работников и нарушает федеральные правила найма. Рейтер. Дело касалось использования Facebook программы PERM для трудовой сертификации. Правительство обнаружило, что Facebook отказывался нанимать американских рабочих на рабочие места, которые были зарезервированы для обладателей временных виз по программе PERM.

«Исключение людей из кадрового резерва является нарушением», — сказал Сондерлинг. Если программа ИИ «предотвращает существование возможностей трудоустройства для этого класса, они не смогут реализовать свои права или если она понизит уровень защищенного класса, то есть в нашей сфере», — сказал он.

Оценка занятости, которая стала более распространенной после Второй мировой войны, принесла большую пользу менеджерам по персоналу и потенциально может уменьшить предвзятость при найме с помощью ИИ. «В то же время они уязвимы для исков о дискриминации, поэтому работодатели должны быть осторожны и не могут позволить себе небрежный подход», – сказал Сондерлинг. «Неточные данные приведут к увеличению предвзятости при принятии решений. Работодатели должны быть внимательны к дискриминационным последствиям».

Он рекомендовал изучить решения поставщиков, которые проверяют данные на предмет риска предвзятости по признаку расы, пола и других факторов.

пример взят из HireVue в Южном Иордании, штат Юта, которая создала платформу для набора персонала на основе Руководства по равным возможностям Комиссии по равным возможностям США, специально разработанного для сокращения несправедливой практики найма, согласно статье все работает.

В сообщении об этических принципах искусственного интеллекта на веб-сайте компании, в частности, говорится: «Поскольку компания HireVue использует технологию искусственного интеллекта в своих продуктах, мы активно работаем над предотвращением появления или распространения предвзятости в отношении какой-либо группы или отдельного лица. Мы продолжим тщательно проверять наборы данных, которые мы используем в нашей работе, и обеспечивать их максимальную точность и разнообразие. Мы продолжаем совершенствовать наши возможности по мониторингу, обнаружению и уменьшению предвзятости. Мы стремимся создавать команды из разных слоев общества, чтобы наилучшим образом представлять людей нашей системы».

Кроме того, «наши специалисты по данным и психологи IO создают алгоритмы оценки Higherview таким образом, что алгоритм исключает из рассмотрения данные, которые способствуют неблагоприятному воздействию, не оказывая существенного влияния на точность прогнозирования оценки. Результатом является очень достоверная оценка, снижающая предвзятость, которая помогает информировать человека при принятии решений, одновременно активно продвигая разнообразие и равные возможности независимо от пола, этнической принадлежности, возраста или статуса инвалидности».

Доктор Эд Икегути, генеральный директор AICure

Проблема систематической ошибки в наборах данных, используемых для обучения моделей ИИ, не ограничивается набором персонала. Доктор Эд Икегути, генеральный директор AIcure, компании по анализу искусственного интеллекта, обслуживающей медико-биологическую отрасль, сказал в недавней статье: ЗдравоохранениеИТНовостиИИ настолько силен, насколько сильны данные, которые он передает, и в последнее время надежность этой магистрали данных все чаще подвергается сомнению. Сегодняшние разработчики ИИ не имеют доступа к большим и разнообразным наборам данных, на которых можно было бы обучать и проверять новые инструменты.

Он добавил: «Им часто приходится использовать наборы данных с открытым исходным кодом, но многие из них были обучены с помощью программистов-добровольцев среди преимущественно белого населения. Поскольку алгоритмы часто обучаются на выборках данных одного происхождения с ограниченным разнообразием, методы, которые в исследованиях кажутся очень точными, могут оказаться ненадежными при применении к более широким группам населения разных рас, полов, возрастов и т. д. в реальных сценариях».

Кроме того, «для всех алгоритмов должен быть элемент управления и экспертной оценки, потому что даже самые надежные и проверенные алгоритмы обязательно дают неожиданные результаты. Алгоритм никогда не изучается.Его следует постоянно развивать и вводить в него больше данных для его улучшения.

И: «Как отрасль, мы должны более скептически относиться к выводам ИИ и поощрять прозрачность в отрасли. Компании должны легко отвечать на основные вопросы, например: «Как был обучен алгоритм? На каком основании он сделал этот вывод?»

Прочтите исходную статью и информацию здесь. Мировое Правительство ИИФПЗУ Рейтер и из ЗдравоохранениеИТНовости.

Leave a Reply

Your email address will not be published. Required fields are marked *