Занятость в условиях внедрения систем искусственного интеллекта: вызовы и решения
Автор: Бадмаева М.Х., Золхоева М.В.
Журнал: Вестник Бурятского государственного университета. Философия @vestnik-bsu
Статья в выпуске: 3, 2025 года.
Бесплатный доступ
Искусственный интеллект постепенно внедряется во все сферы жизнедеятельности человека. Безусловно, его повсеместное использование имеет свои явные преимущества, однако все более актуальным становится вопрос о потенциальной угрозе, исходящей от ИИ. В данном исследовании рассматриваются возможные социальные риски и угрозы для рынка труда при внедрении систем искусственного интеллекта, а также разрабатывается комплекс мер по их минимизации в контексте сформулированных авторами ранее философских принципов применения систем искусственного интеллекта для гражданского общества, политиков и частного сектора, направленных на предотвращение, снижение риска возникновения и эскалации угроз и проблем при применении систем ИИ на рынке труда. Это принципы прозрачности, ответственности, автономии, конфиденциальности, социальной справедливости и непричинения вреда человеку. Выделенные принципы могут служить этическим императивом, способствующим укрепление социальной сплоченности в эпоху бурного развития искусственного интеллекта.
Философия, социальная философия, искусственный интеллект, системы искусственного интеллекта, тенденции рынка труда
Короткий адрес: https://sciup.org/148332390
IDR: 148332390 | УДК: 101.1:316 | DOI: 10.18101/1994-0866-2025-3-59-71
Текст научной статьи Занятость в условиях внедрения систем искусственного интеллекта: вызовы и решения
Бадмаева М. Х., Золхоева М. В. Занятость в условиях внедрения систем искусственного интеллекта: вызовы и решения // Вестник Бурятского государственного университета. Философия. 2025. Вып. 3. С. 59–71.
В настоящее время системы искусственного интеллекта (далее — ИИ) широко внедряются практически во все сферы жизнедеятельности общества, расширяя человеческие возможности, повышая качество работы человека и увеличивая производительность его труда. Для определения роли систем ИИ на рынке труда прежде всего необходимо уточнить содержание данной категории, отражающее сущность феномена. Современный ИИ представляет собой узкий искусственный интеллект, способный выполнять конкретные, узкоспециализированные интеллектуальные задачи. Узкий ИИ представлен в виде систем, элементами которых являются аппаратный комплекс, программное обеспечение и набор данных. Аппаратный комплекс — это физические устройства, обеспечивающие работу программ. Программное обеспечение — набор из компьютерного кода и связей между его частями, функционирующий благодаря аппаратному комплексу. Набор состоит из входных и выходных данных, где последние представляют результат обработки входных данных и существуют в виде решения и действия системы ИИ.
Мы попытались выделить, на наш взгляд, наиболее корректное определение ИИ, поскольку оно содержит указание на те свойства и способности ИИ, которые отличают его от любых других предметов и явлений социальной реальности, отражая тем самым глубинную сущность этого феномена. «Системы искусственного интеллекта (ИИ) — это программные (и возможно, также аппаратные) системы, разработанные людьми, которые, имея сложную цель, действуют в физическом или цифровом измерении, осуществляя сбор данных об окружающей их среде, интерпретируя собранные и структурированные или неструктурированные данные в виде рассуждений, основанных на ранее полученном знании или результатах обработки вновь поступившей информации, и способные к принятию решения о наилучшем способе действия с точки зрения достижения поставленной человеком цели. Подобные системы искусственного интеллекта способны следовать заданным разработчиком правилам, сконструировать цифровую модель того или иного процесса либо явления, а также могут изменить свое собственное поведение, адаптируя его к изменившимся вследствие ранее совершенных действий условиям окружающей среды» 1 . Системы ИИ уже используются во многих отраслях, в том числе в здравоохранении, судебной системе, образовании, производстве, военной сфере и т. д. Такое широкое их применение позволяет нам опираться на многочисленные практические примеры при оценке его влияния на процессы, происходящие в сфере профессиональной занятости населения.
Прогнозирование дальнейшего внедрения систем ИИ на рынке труда позволяет выявить проблемы, с которыми с большой долей вероятности придется столкнуться современному обществу уже в ближайшей перспективе. Оптимистичные прогнозы склоняются к тому, что к 2030 г. внедрение систем ИИ приведет к появлению новых рабочих мест, связанных с ключевыми навыками будущего (технологическая грамотность, умение работать с системами ИИ и с большими данными и т. д.)2, в то время как пессимистичные прогнозы утверждают, что ИИ может существенно ухудшить качество человеческой работы, спровоцировать рост безработицы, которая, в свою очередь, обусловит появление других негативных социальных последствий [9]. Очевидно отсутствие у исследователей и практиков ясной и обоснованной позиции в отношении влияния ИИ на рынок труда, а также в отношении будущих перспектив сегодняшних работников, их занятости в условиях перманентно расширяющегося применения ИИ, что, несомненно, повышает актуальность дальнейших исследований в этой области.
Рассмотрим одну из наиболее обсуждаемых проблем, каковой является угроза безработицы. В исследовании МакКинси прогнозируется, что уже к 2030 г. более 400 млн человек на планете лишатся работы, поскольку их заменят машины [4].
В настоящее время известны результаты внедрения систем ИИ в некоторых компаниях. Например, в 2024 г. компания Duolingo начала широко применять системы, вследствие чего массово уволила своих переводчиков. В компании Google в 2023 г. потеряли работу по той же причине приблизительно 12 тыс. сотрудников, а компания Spotify уволила в 1,5 тыс. маркетологов. Корпорация IBM в настоящее время приостановила найм работников, которых может заменить ИИ [1].
Однако масштабное исследование, проведенное Организацией экономического сотрудничества и развития, выявило, что за период с 2019 до 2022 г. в 14 странах, на которые приходится 46% глобального валового внутреннего продукта за рассмотренный период, количество вакансий, требующих навыков работы с системами ИИ, заметно увеличилось (в среднем на 33% по всем странам). Следует при этом отметить, что несмотря на стремительный рост доля ИИ-вакансий в общей массе вакантных рабочих мест крайне мала: так, в США, где эта доля максимальна по сравнению с другими странами, она достигала 0,84% всех онлайн-вакансий. В Канаде и Великобритании она составила лишь 0,5%, а в Новой Зеландии и Бельгии около 0,2% 1 . Из данного исследования можно сделать вывод, что внедрение систем ИИ не оказало сколько-нибудь существенного влияния на изменение количества рабочих мест в указанных странах и, следовательно, его невозможно рассматривать в качестве основной причины безработицы.
Использование ИИ в производственных процессах оказывает влияние и на другие аспекты занятости населения. При этом анализ внедрения ИИ зачастую приводит к противоречивым и парадоксальным выводам. Так, С. Валлор пишет, что применение систем ИИ способствует повышению уровня квалификации и самостоятельности работников [13]. В то же время группа исследователей, изложившая результаты своей работы в научной статье «Значимая работа и личное/ социальное благополучие. Организационная коммуникация затрагивает смысл работы», утверждает, что ИИ, напротив, способствует снижению квалификации работников и усилению контроля над ними [8]. Такие противоречивые результаты объясняются уникальными особенностями систем ИИ, отличающими их от других информационно-коммуникационных технологий. С одной стороны, системы ИИ принципиально могут выполнять гораздо больше когнитивных задач, с другой — следует учитывать, что машинное обучение, на основе которого функционируют системы ИИ, предполагает работу с большими объемами данных. Формирование
1 Какие люди необходимы искусственному интеллекту // Эконс. URL: https://econs. online/articles/ekonomika/kakie-lyudi-nuzhny-iskusstvennomu-intellektu/ (дата обращения: 21.06.2025). Текст : электронный.
последних представляет собой значительную и трудноразрешимую проблему. Речь идет, прежде всего, о соблюдении требований конфиденциальности при обработке персональных сведений, о скрытом наблюдении за работниками, осуществляющими сбор и передачу личных данных, что неизбежно нарушает автономию сотрудников, выполняющих эту работу, о многочисленных «технических» ошибках при сборе данных, а также о том, что ИИ в результате работает на основе необъективных данных, что порождает в ряде случаев проявления социальной несправедливости (например, при подборе персонала системами ИИ) [14]. Потенциальный вред от применения систем ИИ усугубляется все возрастающими масштабами использования искусственного разума.
Нельзя обойти вниманием и проблему непрозрачности нейронных сетей, которые представлены во многих системах ИИ. Она заключается в том, что конечные пользователи и даже сами разработчики ИИ не могут понять, как, по какому принципу генерируются результаты. Из-за непрозрачности систем ИИ возникает проблема недоверия, когда людям сложно чувствовать себя компетентными при работе с системами ИИ и быть уверенными в том, что они создают системы, за результаты и последствия работы которых в дальнейшем они смогут нести реальную ответственность. Аналогичные проблемы возникают и у пользователей систем ИИ, которые вынуждены полагаться на решения, принимаемые ИИ, несмотря на то, что у них нет достаточного уровня понимания принципов работы системы.
При выполнении таких простых и рутинных задач, как сбор информации для совещаний 1 или оценка качества фруктов [12], едва ли ИИ может причинить какой-то существенный вред или заставить человека чувствовать себя лишним, ненужным звеном в рабочем процессе. Напротив, человек в этой ситуации сможет высвободить для себя свободное время, которое он потратит на отдых, обучение и развитие.
Однако совершенно иные последствия ожидаются, если системы ИИ выполняют более сложные и важные задачи. Рассмотрим, в частности, опыт применения ИИ в управлении персоналом, когда система самостоятельно составляет список кандидатов для дальнейшего собеседования на основе обработки данных, изложенных соискателями в заявках [5]. Такое применение систем ИИ способно привести к отчуждению работника, появлению у него чувства ненужности, профессиональной несостоятельности, поскольку при выполнении задачи он оказывается отстранен от выполнения одного из важнейших этапов рабочего алгоритма, ранее подконтрольного только ему. Другое дело, если сотрудник в подобной ситуации переключается на более сложную и творческую задачу и осознает, что вносит действительно значимый вклад для достижения конечных результатов, целей всего проекта. Так, система ИИ AlphaFold от компании DeepMind уже сегодня может автоматизировать и ускорить процесс определения структуры белков [10], однако такое использование ИИ сопряжено с рисками для людей, участвующих в рабочем процессе. Ученые годами тренировались, чтобы выполнять эту задачу, а AlphaFold справляется с ее решением быстрее и точнее. При внедрении системы ИИ в рабочий процесс специалисты рискуют утратить способность развивать свой творческий потенциал, демонстрировать профессиональное мастерство и оттачивать навыки, на формирование которых они потратили годы жизни.
Можно сделать вывод, что перекладывание на системы ИИ выполнения как простых, так и сложных задач способно в перспективе привести к проблеме деквалификации или утраты профессиональных навыков. В этой ситуации важно понять, как в условиях взаимодействия с ИИ человеку не оказаться лишним и ненужным, как обеспечить его дальнейшее профессиональное развитие посредством переключения на другие виды деятельности. По нашему мнению, имеющимся у специалиста базовым навыкам, которые он применял в простой и рутинной работе, можно найти применение в других сферах, где использование ИИ невозможно, не столь распространено или нецелесообразно. Тогда риск деквалификации значительно снижается.
Использование ИИ для выполнения сложных задач, но нашему мнению, требует значительно большего внимания и максимального уровня осторожности. Сложные действия, такие как умение принимать решение в условиях множественности факторов, оказывающих влияние на ситуацию, понимание социального контекста, учет этической составляющей, принятие во внимание существующей системы ценностей, способность к интуитивному постижению истины и многое другое, едва ли вообще необходимо перекладывать на искусственный разум. Особенно наглядной и вызывающей массу вопросов и сомнений выглядит картина применения ИИ в медицине, где отмечено появление такого феномена как «деквалификация», введенного профессором Тимоти Хоффом. Он по итогам проведенного им исследования сделал вывод о том, что стандартизированный способ электронных рекомендаций ухудшает понимание состояния пациента, подрывает способность врача принимать обоснованные и взвешенные решения по поводу диагностики и лечения [11]. Как мы отмечали: «Проблема деквалификации тесно связана с последующей утратой работы и утратой идентичности врача как специалиста. Если система начнет выполнять за врача большую часть работы, то специалист, возможно, постепенно превратится в техника, только обслуживающего машину. Но нельзя забывать и не учитывать то обстоятельство, что только врач-человек способен к пониманию, подлинному состраданию, сочувствию и ответственному отношению к здоровью и самочувствию пациента. Машине чужды интуитивный поиск решения проблемы, проявление эмпатии, социальная восприимчивость, она не может договариваться и преодолевать разногласия, убеждать и проявлять заботу о других людях, что так необходимо и важно, если речь идет о жизни и здоровье человека» [6].
Системы ИИ, как доказывает опыт их применения, помимо выше упомянутых проблем могут демонстрировать предвзятость в процессе принятия решений, если данные для обучения нейронной сети смещены в определенную сторону, будь то возраст, пол или социальная группа. В результате ИИ может работать с ошибками и выдавать пристрастное отношение к каким-либо социальным группам, отдельным лицам, расовым и этническим меньшинствам [3]. Так, если ИИ предоставляет правоохранительным органам данные о распознавании лиц и предиктивной полицейской деятельности, а алгоритмы его работы изначально запрограммированы негативно по отношению к каким-либо группам, то деятельность сотрудников, представляющих закон и государство, может быть подвергнута справедливой критике и породит недоверие, сами они окажутся в центре публичного скандала, будут испытывать стыд и разочарование, а репутация их организации будет серьезно опорочена. Не исключено, что в дальнейшем они будут привлечены к административной ответственности за нанесенный моральный вред и вынесенные несправедливо решения, несмотря на то, что решения фактически принимались автоматизированными системами ИИ, а сами сотрудники были лишены возможности и способности действовать самостоятельно в соответствии с присущими им ценностями и моральными установками, что негативно отразится на их стремлении и искреннем желании и в дальнейшем служить людям и честно исполнять свой долг.
Определенные трудности возникают также вследствие нарушения автономии сотрудников при внедрении систем ИИ. Например, использование камер с ИИ для наблюдения за работниками может заставить их чувствовать себя скованно и несвободно. Работники Amazon вынуждены мириться с неоправданно жёстким графиком работы, находясь под неусыпным контролем сети камер, датчиков, носимых устройств с искусственным интеллектом и постоянно пребывая под наблюдением невидимого технологического глаза своего работодателя. Сотрудники сообщают, что чувствуют себя в буквальном смысле слова заключёнными. Они постоянно подвергаются проверкам, испытывают психологические страдания, получают крайне недостаточную медицинскую и психологическую поддержку, лишены какого-либо значимого социального взаимодействия и находятся под постоянной угрозой потери работы 1 . Использование камер с искусственным интеллектом для наблюдения за курьерами Amazon 2 заставляет их чувствовать себя более скованно в своих грузовиках, а также более ограниченными и неспособными действовать автономно, самостоятельно.
Другой пример — в компании Uber, в отличие от традиционных компаний, системы ИИ постоянно осуществляют сбор информации о водителях, клиентах, дорожных условиях и т. д., при этом строго контролируются все без исключения аспекты цифрового взаимодействия [7]. Системы ИИ также распределяют заказы между водителями и рассчитывают наиболее оптимальные маршруты следования. Модель ценообразования с повышением ставок при достаточно высоком спросе, основанная на ИИ, позволяет водителям выбирать дополнительное и наиболее выгодное время для работы. Клиенты при таком подходе, в свою очередь, могут сократить время ожидания. На первый взгляд, подобный алгоритм предоставляет значительную свободу выбора как потребителям, так и работникам Uber, формируя гибкий и удобный для них график работы. Он даже может способствовать инклюзивности, предлагая работу людям, которые в противном случае остались бы без работы. Однако за обещаниями свободы и гибкости скрывается реальность строгого управленческого контроля и алгоритмического доминирования. Алгоритмическое доминирование систем ИИ выражается в том, что водители Uber не имеют представления о том, какой выбор им предлагается, когда они соглашаются на поездку. Они не могут менять или оспаривать общие условия их работы или то, как система выбирает и представляет доступные варианты для отдельных поездок.
Иными словами, системы ИИ остаются непрозрачными по следующим критериям: намеренное сокрытие компанией информации о функционировании систем, сложность понимания систем работниками из-за недостаточной технической грамотности и непрозрачность самих процессов машинного обучения. В результате сотрудники компании оказываются заложниками системы, принципы работы которой им непонятны, неизвестны и не прогнозируемы. Но любой сотрудник имеет право оценивать структуру и организацию своей деятельности, принципы функционирования компании, полезность и значимость той социальной деятельности, которой он занимается. Все это — важнейшие факторы, влияющие на формирование и развитие базовых для любого человека нравственных, мировоззренческих представлений, способствующих социальной адаптации личности, раскрытию всей полноты ее способностей, задатков, талантов, успешному взаимодействию с другими членами социума, с миром в целом. Человек может и должен оставаться свободной, самостоятельной и нравственной личностью, осуществляющей разумный выбор, избегающей любой навязанной морали и социальной идентичности, чуждых ему, и которые он не может и не хочет понять и оценить, не способен правильно на них реагировать.
Проанализировав целый ряд проблем на рынке труда, возникающих при внедрении систем ИИ, мы обобщили и систематизировали их в таблице 1, руководствуясь ранее выделенными нами шестью философскими принципами, подробно рассмотренными в диссертационном исследовании на тему «Социально-философские проблемы и принципы применения систем искусственного интеллекта» [2].
Согласно принципу непричинения вреда, применение систем ИИ должно приносить пользу использующим их сотрудникам, служить достижению установленных человеком социально полезных целей, обеспечивая безопасность производственных процессов, помогая человеку перейти к выполнению творческих и интересных задач, не нарушая его основные права. Это, в свою очередь, может дать сотрудникам возможность добиваться лучших результатов, наладить новые связи с другими участниками производственного процесса и заинтересованными сторонами (развить чувство сопричастности). При делегировании задач системам ИИ необходимо избежать таких проблем, как потеря квалификации, снижение значимости задач и ограничение самостоятельности работника, снижение качества выполнения задач, отчуждение от результатов своего труда, снижение ощущения пользы от своей работы, полная потеря работы.
Таблица 1
|
s —■ Я § и 5 ® S о Д © Н ч й и g Е ® s S ® я S « « й ® « Я ® 5 5 а 2 я ® s & я Я Я Я ® и ч Эя® ® Я й я 2 S я S я Я Я Я о 4) Я Н ® Я ^ S м |
зд § ’MS ОЙ Д О Д К
я о я я m ей С ®
s м h d ° >д к § я К о □ се 2 Я О О Я Мой яп Ч ч Д ЕС ей -Е ^ д С d VO ^Qh § я Я I ® § г Й я J И аг а Я св зд m и X W О Я О Св Й а о св а н 2 а О а О О О Я Е . . . |
К К я 3 2 ^ Я Й У S д Ч о св Э о 2 §3 д Я Й од М § о -дю 2 К м ей Кд м К м НО л О - Н Я Я S s ° м i у Р 9 tc о о о О ^ я я й я g Я я S Я R О и 40 S с М О с Я о м М м 3 О q ей Д 2 о ^ ^ я я « а я & а я а я с® в Я р Я Я о х g Р =§ я я § ° Я я Я зЯ “ § а о о 5 г ч ч ч о Ч 5 I о я Я а я а Й св о ° а я я н а я я tE . |
к я и g 5 я ю я ЙЕ К м м О S М ей д О Н к м ей м Д § МО W g СО Н к ей Д Он О я ч и 2 ю св од д „ о Ч нН Ч □ 5 я о О о 2 ч =я о « а ч 5 5 о § я Й S Й ~ О д Я о св а 5 я Ра о я 2 ° я ^ ч ч 5 ~ ® ч о § S Я 2 о ч 2 я о к ° 2 2 2 ® 9 Р ® д J s 9 М® 8 g а Й о Дм м о М ° 9 5 и 2 св g н я 2 |
|
л и а И В В S и S к © а В |
3 СЙ м о ^ н О св ° й О Я о Й S & а Я о о з я ® ° g tr ей О Й Д ей Д Д ~ о 5 И д св я о н о я Я 2 в 2 ° св о ан «ода -& у Чз Я и И ? г н 5 ч ® ю В 2 ч 4е Св и Я А a S Я Й а и Я L а а о я w н СУ <о о о >> |
® 2 В М 2 ЕС S я я 5 s й о к . 3 и Я X g св Я н В Й я 2 я Я зд 2 § 2 и о й й ч о й н g й И о ЕС о S д со о v Д м v Он • . Й К s д g м е ° S о Я Я й й S ge Й =д 5 9 й Ю ® ^ О CL о о Н CL ^ Д' Д й О Д СО СО ч й д S 0 м □ £ д S w со К м ЕС ОнЮ >4 о § О Д О Д 2 ж 5 S о со ^ Д Д Д м g Он^ Д Д СО а о 5 2 § д о ю с с и . . . |
S д н о к я S я S В, g i я Е2 S Я g | S |н£°я5£® 2°§н^ЯЯо Ss Мг S Д ей К Я ЕС м ° Ч ge ^ 5 Д О я Зч^оотидЭ 4>9ийя₽<оЭи К 5 О ЕС Д Q м ^йаЭ^йяна ЭЗяЧиПдОп jx W О й О О Д ДО д О ^ 1 II III |
|
। 2 x ° aS c s w О я и ° я о § & & s П u § ® s § & £ £s C Ms gs 1 ? 8 g. о s S о a C й и и “ о Ч О о & я О О й <й H S « о S о о * m 4 о Я о 4 а ё g X S Я О _ Ч Я а я 3 я о ® я и ° 3 Г н § g й ® S К й й 9 о й оД^Я'^оор к д Й Й о ° В о X 2 ? 3 g ^о л g s ft 2 Й S § и ~ g х 2 й S & SagoS S’ Я й Я Й ’Я И св й Я g = 0°чё«чОойЯ > ^ Q Д Д О И О Й н Й § ДЮ О о Д о Он П о ° £ Д О Д Д о Д Д Д н Д tq . |
S х д 5 о о w « я у h о Д . /Й я о д 2 Он х s 3 § С я § § & 2 й s й w Д о Я Я й о . о га 2 о л О S ° я Ч ё К о Й U Я о Й S о я я Ь ч 2 в в И 2 Д л Д д * о и я 2 я я д о д Н о д к м w ® 5 й и л 3 и о К 2 2 2 й ® i§§«*ggSSgg*g5§ *»3k«§”°sSmo£oH сяиччоййа? S я § g ЯчрИи&вР’^2чо о § 2 « « ° о 5 ч I g Й о £B§gSg.B«^«g|s“ до Н Я Д „ОС Й и ® -S’ 5 Я £ I и S Я й 2 3 ч Y я й So S m я Л поо" я с ° СУ га п Ч Д Ю я Д о Ч Ч Д д св д Ей . . |
5 s g Я н ^ о Ы s. S & s X s П о й S й S & о Я m о PQ Р О й д & Н св О ч R о Я г у ° 2 о В я о « 2 3 G я 3 й S Д я о S й Я Я a ° И И ^ 2 ^ ^ в§ о 5 СО д О § Он hQ О Я Н s од Д 2 я S' о о S „ Од О О Д § Он ~ ю д S Д Д О Он д Е; , |
|
о ® о s ° о g & « S S g Н и н ч s § r о g « о н ЧП н я К я „ о S « я О ИД Од й s s £ § Ч о 4 О Й О г й о о g й ж я s 5 у _ й га 2 в о Я н с Су га и о о S' S ё ^я д о о к |
в 2 д Я н о и я 2 св д Ч G д “ Д ° Я Й ° н » m Q . § Я о - Он Я д = о д В 5 8 2 CQ О О Л Ж Он я £ м п о S ° S к w 2 Д й я ^S £ о “ § « ко Я S д Ф в „ и g & о 2 и ° u 2 2 ex, я В о 2 “ я ® 2 и ~ Й о g о 2 СО н СО s S S о о ^ о X Д д д Он Н Он Н g о с о О . |
О о д д о • - о о Я Я д я я 9 я Й й Я с О Я Н о Я L Я я й О ® ° ё д св д & £ я о я g а " о я я & св Л Он О Д ~ X “ о й 5 я 2 я 3 в ® 2 ■& S S В я * й 2 £ ^ о Я s S 2 я д д g 2 -ОД о w Д о н П J о д д ч |
Согласно принципу автономии ИИ применительно к проблемам в сфере занятости необходимо использовать искусственный разум для того, чтобы освободить людей от рутинной и неинтересной работы, позволить им сосредоточиться на других, более важных задачах, а также развить новые или улучшить существующие компетенции, что неизбежно повысит уровень их самостоятельности и автономии. Большое значение имеет чувство причастности человека к коллективу, понимание им целей осуществляемой им деятельности и стремление принести значимую пользу для достижения успеха всего коллектива организации. Особую опасность для автономии представляет использование ИИ исключительно для наблюдения и контроля за персоналом, что может подорвать доверие к руководству и побудить сотрудников подстраивать свое поведение под неявные ожидания ИИ, либо искать любые способы обойти установленный сверху контроль.
Принцип справедливости в рассматриваемом контексте направлен на обеспечение честных, справедливых и недискриминационных результатов применения систем ИИ. Сотрудники должны иметь равные права для повышения квалификации в области ИИ, чтобы исключить возможность решения проблемы сокращения кадров исключительно за счет менее квалифицированных и низкооплачиваемых сотрудников. Неравномерное распределение обязанностей, ответственности, вознаграждения и мер наказания за те или иные нарушения вызывает серьезные опасения с точки зрения социальной справедливости и может подорвать солидарность, чувство принадлежности к коллективу внутри рабочих групп и между ними. Системы ИИ могут быть использованы для минимизации предвзятости и принятия решений на основе фактических данных. Такое использование ИИ может способствовать достижению наилучших результатов и повысить уровень доверия внутри коллектива.
Принцип прозрачности связан с объяснимостью, открытостью, подотчетностью и предсказуемостью систем ИИ. Неспособность работников понять, как работает ИИ, особенно в тех случаях, когда они сильно зависят от него и несут ответственность за принятые ими решения, может ограничивать чувство компетентности и возможность применения имеющихся у сотрудников знаний и навыков. Потенциально это способно свести к нулю все остальные преимущества ИИ. Принципиально важно обучать сотрудников не только тому, что делает ИИ, но и тому, как он это делает, а также четко определять степень ответственности исполнителей.
Принцип ответственности устанавливает требование, согласно которому вовлеченные в создание или использование ИИ-систем стороны обязаны определить лицо, которое будет нести моральную и юридическую ответственность за все действия, совершенные такими устройствами на всех этапах их жизненного цикла. При этом необходимо понимать, что цель исследования, проектирования, создания, развертывания и применения ИИ-систем состоит в том, чтобы помочь людям принимать решения и выполнять определенные функции, но не заменить человека, на котором всегда в конечном итоге будет лежать правовая и моральная ответственность за принятые решения и совершенные либо несовершенные деяния.
Принцип конфиденциальности утверждает, что необходимо ввести анонимизацию данных для снижения риска их неправомерного использования, применять шифрование данных при хранении и передаче, регулярно проводить аудит и тестирование систем безопасности для выявления уязвимостей и обеспечения их своевременного устранения, а также информировать сотрудников и другие заинтересованные стороны о том, какие именно данные собираются, как они используются и защищаются.
Подводя итоги, мы можем утверждать, что рациональное внедрение ИИ на рынке труда неизбежно требует внимательной и принципиальной оценки всех его преимуществ и недостатков. В своем исследовании мы сформулировали некоторые рекомендации, которые позволят сохранить или создать возможности для комфортной работы при внедрении ИИ практически в любой организации. Указанные рекомендации — результат применения выделенных нами ранее шести ключевых философских принципов использования ИИ применительно к сфере занятости, что может быть интересно для всех работодателей и работников, взаимодействующих с системами ИИ. Данные принципы необходимы для предотвращения, снижения риска возникновения и эскалации социально-философских, этических проблем применении систем ИИ не только на рынке труда, но и во всех отраслях жизни современного социума.