Фото: Андрей Бухарицин / "Солидарность"
Профессор Лина Денчик из Data Justice Lab по заказу Конгресса британских профсоюзов подготовила отчет о неравенстве на работе, вызванном использованием искусственного интеллекта. Выяснилось, что новые технологии стали инструментом дискриминации меньшинств.
Конгресс британских профсоюзов (TUC) все больше встревожен перспективами внедрения искусственного интеллекта на рабочих местах. Эту озабоченность разделяют и сами трудящиеся - 69% работающих взрослых в Великобритании согласны с тем, что работодатели должны сначала консультироваться с персоналом, прежде чем внедрять новые технологии, такие как ИИ. Поэтому профсоюзы заказали профессору Лине Денчик из Data Justice Lab (исследовательский центр при Школе журналистики, медиа и культуры Кардиффского университета) отчет о неравенстве на работе, связанном с цифровыми технологиями. Обзор исследований ИИ показал: тенденция большинства современных технологий - расширять или даже вводить значительное неравенство на рабочих местах. При этом наблюдается ускоренное утверждение ИИ как краеугольного камня мировой экономики, делаются обширные инвестиции в технологии ИИ в социальной и общественной жизни. В перспективе это может негативно повлиять на трудовую жизнь людей. Кто же страдает от применения на работе искусственного интеллекта?
Применение ИИ в подборе, найме, управлении работниками предсказуемо вредит прежде всего работникам старшего возраста. В 2017 году в Калифорнии истцы доказывали в суде, что компании, включая T-Mobile и Amazon, намеренно игнорировали пожилых людей при рассмотрении вакансий. Делалось это путем платы Facebook за таргетинг - показ объявлений о вакансиях и рекламы только пользователям “от 18 до 30”, “молодым специалистам” и группам, например, с указанием “поколение миллениалов”.
Компания PriceWaterhouseCoopers в США использовала автоматизированные процессы найма для удаления заявлений о приеме на работу от кандидатов, в адресе электронной почты которых не было домена вузов .edu. То есть исключались кандидаты без высшего образования и пожилые работники, получившие высшее образование до эпохи интернета.
Еще в одном исследовании (2020 г.) упоминается мужчина 40 лет, который не смог заполнить заявление о приеме на работу - автоматизированные параметры формы заявления не позволяли указать год окончания колледжа ранее 1995-го.
Но если пожилых работников ИИ отсеивает, то молодые непропорционально подвержены влиянию ИИ. Особенно это касается рабочих мест начального уровня, низкооплачиваемых и нестабильных - именно эти рабочие места подвержены риску вытеснения генеративным ИИ. Складывается парадоксальная ситуация: с одной стороны, молодые работники хорошо знакомы с современными технологиями, их называют “цифровыми аборигенами”, с другой - у них меньше возможностей карьерного роста, они с большей вероятностью займутся ненадежной, низкооплачиваемой работой. На платформенных сервисах производительность труда молодых оценивает ИИ, причем ряд исследований показывает, что низкие рейтинги могут быть связаны с гендерными и/или расовыми предрассудками.
Компания Royal Mail пыталась использовать ИИ и алгоритмическое управление во всех процессах, от сортировки посылок до применения устройств слежения за почтовыми работниками. В результате нагрузка с пожилых работников перекладывается на молодых.
Поскольку применение ИИ расширяется, в США элитные университеты поощряют студентов адаптировать их результаты в заявлениях о приеме на работу и на собеседованиях, чтобы соответствовать ожиданиям ИИ. Вплоть до использования ключевых слов или тренировки определенного выражения лица. Тем самым преимущество получают выпускники дорогих вузов.
Было обнаружено, что ИИ закрепляет гендерные стереотипы и продвигает гендерные нормы, которые непропорционально ущемляют женщин. Так, инструмент проверки резюме, в 2018 году опробованный Amazon, систематически давал более высокие баллы белым кандидатам-мужчинам. Это произошло потому, что алгоритм был обучен на большинстве мужских резюме.
И это не единственный пример - исследование еще от 2015 года показало, что на страницах Facebook с объявлениями о работе настройка профиля пользователя “женщина” приводит к тому, что пользователю сразу показывают меньше высокооплачиваемых вакансий, чем при профиле “мужчина”. А в 2019 году выяснилось, что Facebook отбирает объявления о вакансиях, соблюдая гендерные и расовые стереотипы: например, работа в технологическом секторе показывается белым мужчинам; кассиром в супермаркете - женщинам; таксистом - чернокожим мужчинам. Также было выявлено, что автоматизированные системы найма используются не только для подбора и фильтрации кандидатов, но и для прогнозирования, какие условия могут быть приемлемы для кандидата, включая оплату труда: женщинам зарплату предлагают ниже.
Кроме того, внедрение новых технологий приводит к ускоренному сокращению рабочих мест в областях, где женщины доминируют в рабочей силе. Это касается работы канцелярской, с кадрами, в розничной торговле, колл-центрах и банковском деле, то есть профессий, которые называют “розовыми воротничками”. Недавно в Великобритании Национальная ассоциация по борьбе с расстройствами пищевого поведения (NEDA) заменила всех сотрудников службы поддержки чат-ботами.
МВФ утверждает, что генеративный ИИ представляет более высокий риск для “высококвалифицированных” работников, заменяя их в выполнении задач, выходящих за рамки механической и рутинной работы, создавая коды и тексты, применяя “разум” и абстрактные концепции. Больше всего от обновления технологий пострадают женщины и молодые работники, включая выпускников.
Обнаружено также, что использование ИИ на рабочих местах дискриминирует и по этническому принципу. Так, внедренная в Парагвае онлайн-платформа ParaEmpleo для помощи в поиске работы была доступна только на испанском и английском языках, в то время как официальные языки в стране - испанский и гуарани, и примерно 90% населения говорит на последнем. А во время интервью применяемые системы распознавания лиц (для оценки черт личности на основе выражения лица) неэффективны для большинства этнических меньшинств. И распознаватели речи от основных производителей технологий показывают более высокий уровень ошибок при распознавании речи чернокожих, неправильно понимая от 25 до 45% произнесенных слов.
Наибольшей дискриминации при найме на работу подвергаются инвалиды. Часть инструментов им просто недоступна. Например, цифровые платформы коллективной работы, такие как Mechanical Turk от Amazon, воспринимают людей, скорость работы которых ниже средней или которые испытывают трудности с тестом “капча”, как ботов и закрывают им доступ. А система алгоритмического управления Amazon увольняет самых медлительных людей независимо от нарушений их здоровья. Исследователи привели в пример чернокожего водителя доставки, имеющего инвалидность. Он был вынужден брать дополнительную работу, чтобы защитить себя от увольнения как из-за инвалидности, так и из-за своей расы, но в итоге получал меньше, чем другие водители.
Геймификация (применение игровых правил для оценки) включает задачи, в которых оценивается скорость реакции. Людям с двигательными ограничениями требуется дополнительное время или помощь для выполнения задач на ловкость. Людям с нарушениями зрения тоже может потребоваться дополнительное время на увеличение и настройки цвета, а людям с когнитивным разнообразием может потребоваться языковая настройка и дополнительное время для чтения подсказок.
Система Hirevue была создана, чтобы выбирать сотрудника, исследуя с помощью ИИ мимику и голос соискателей в записанных видеороликах. Выяснилось, что она дискриминирует людей с глухотой, слепотой, нарушениями речи, перенесенным инсультом, людей с расщелиной губы или неба, ахондроплазией (короткими ногами), синдромом Дауна, болезнью Паркинсона, тремором, ампутациями.
Как отметило большинство исследователей, ИИ позволяет дискриминировать инвалидов, одновременно снимая ответственность с работодателя за возможные последствия.
В целом исследование, проведенное Линой Денчик, констатирует: ИИ грешит “алгоритмической предвзятостью”, ориентирован на опыт большинства и поэтому дискриминирует меньшинства и маргинализированные группы населения.
Чтобы оставить комментарий войдите или зарегистрируйтесь на сайте
Чтобы оставить комментарий войдите или зарегистрируйтесь на сайте
Если вам не пришло письмо со ссылкой на активацию профиля, вы можете запросить его повторно