Социальная субъектность искусственного интеллекта: обзор эволюции дискурса

Автор: Носкова А.В., Куманцов А.А.

Журнал: Социальное пространство @socialarea

Рубрика: Научные обзоры

Статья в выпуске: 3 т.11, 2025 года.

Бесплатный доступ

Цель исследования – обзорно представить эволюцию научных взглядов на искусственный интеллект в дискурсивном контексте его становления как субъекта социально-управленческих отношений, способного менять социальный мир. Для реализации цели использовались методологические основания составления нарративного обзора с элементами библиометрической техники. Всего отобрано более 20 публикаций в более чем 20 рецензируемых журналах. В эволюции дискурса выделено четыре хронологических этапа, различающихся проблемно-смысловыми фокусами, дискуссионной направленностью и тематическим наполнением. В 1950-е – начале 1980-х гг. в сфере технических наук зарождается дискуссия о правомерности приписывания машинным технологиям качеств, свойственных людям. В эти годы понятие искусственный интеллект закрепляется в научном языке. Ученые поднимают вопрос о способности компьютерных систем имитировать человеческое мышление и поведение. Период середины 1980-х – начала 2000-х гг. характеризуется расширением интереса к искусственному интеллекту как новому субъекту общественных отношений со стороны ученых – представителей общественных наук, что выразилось в формировании самостоятельного дискурсивного направления в общем дискурсе, связанном с искусственным интеллектом. В следующее десятилетие особое звучание приобретает проблема рисков, которые производит искусственный интеллект в обществе. Наконец, новейший этап датируется серединой 2010-х гг. и характеризуется осмыслением генеративных систем искусственного интеллекта в общественном развитии, что связано с признанием искусственного интеллекта в качестве одного из приоритетных направлений развития на государственном уровне. В заключение делается вывод о связи между развитием технологий искусственного интеллекта и эволюцией научного дискуса о нем как о самостоятельном субъекте социальных отношений. Дискурсивное развитие подчиняется диалектической логике осмысления искусственного интеллекта сквозь призму появляющихся новых возможностей и рисков для общества.

Еще

Искусственный интеллект, технологии искусственного интеллекта, социальный субъект, мышление, социальные отношения, социальные риски, искусственная социальность, дискурс

Короткий адрес: https://sciup.org/147251890

IDR: 147251890   |   УДК: 004.89:316.354.2:008   |   DOI: 10.15838/sa.2025.3.47.7

Текст научной статьи Социальная субъектность искусственного интеллекта: обзор эволюции дискурса

Вопросы практического использования искусственного интеллекта (далее – ИИ) в разных сферах профессиональной деятельности и повседневной жизни сегодня занимают важное место в социальной науке и публичном дискурсе. Количество одноименных запросов в поисковой системе «Яндекс» за период с января 2018 года по март 2025 года выросло с 77,8 тыс. до 1008,6 тыс., то есть более чем в 13 раз за 7 лет. Примерно такими же темпами растут узкопрофильные запросы и количество научных публикаций, в том числе в рейтинговых российских и зарубежных изданиях, с ключевыми словами «искусственный интеллект». Увеличивающийся в прогрессии спрос на информацию об искусственном интеллекте «подогревается» сообщениями о его «безграничных», но еще не познанных возможностях и рисках для человека и общества. Распространенным стало мнение, что технологии искусственного интеллекта готовят новую эру для человечества, когда «живой» интеллектуальный труд и сфера управления будут во многом заменены цифровыми алгоритмами.

Несмотря на укоренение понятия «искусственный интеллект», в научном языке, по мнению специалистов (Агеев, 2022; Петров, 2020), сохраняется терминологическая неоднозначность, что обусловлено синонимическим широким употреблением схожих по смыслу понятий (нейросеть, искусственный разум, машинный интеллект, интеллектуальные технологии, интеллектуальные тех- нические системы и т. д.) и использованием этих слов в различных смысловых и тематических контекстах. По этой причине необходимо уточнить два аспекта. Во-первых, все вышеперечисленные термины в данной работе будут рассматриваться как синонимичные понятию «искусственный интеллект». Во-вторых, по аналогии со сложившимися подходами (Морхат, 2017; Петров, 2020) и действующими нормативными правовыми актами1 авторами статьи предлагается определять ИИ как совокупность технологий, включающую программно-аппаратное обеспечение и устройства, способных имитировать человеческое мышление и поведение. При этом технологии искусственного интеллекта (ТИИ) понимаются как совокупность мощностей вычислительных и аналитических компьютерных систем, в том числе со способностью имитации человеческого интеллекта.

Динамичное расширение сфер практического применения технологий искусственного интеллекта, накопление информации об его внедрении в социально-управленческие и познавательные практики актуализируют потребность в рефлексии сложившихся подходов к ИИ с разных парадигмальных и дискурсивных позиций. Попытки такой рефлексии уже представлены в ряде статей отечественных авторов (Агеев, 2022; Резаев, Трегубова, 2024; Семина, Го, 2022).

Цель исследования – представить эволюцию научных взглядов на искусственный интеллект в контексте его становления как нового значимого субъекта социальноуправленческих отношений, способного менять социальный мир. При этом внимание фокусируется на последствиях интеллектуальных технологий для общества и личности с различных научных позиций.

Данные и методы

Для реализации обозначенной цели использовались методологические основания составления нарративного обзора с элементами библиометрической техники (Раицкая, Тихонова, 2020; Малахов, 2022). По ключевым словам отбирались рейтинговые публикации по обозначенной проблеме за период с 1950-х гг. по 2025 год. Критериями отбора стали индексация в крупнейших российской и международных академических базах данных (eLibrary.ru, Scopus, Web of Science), высокая цитируемость. В выборку попали как ставшие «классическими» книги по проблемам влияния ИИ на общество (Н. Винер, Л. Уиннер, А. Тьюринг, Д.А. Поспелов и др.), так и рейтинговые публикации зарубежных и российских ученых по релевантной теме за последние пять лет из разных научных сфер: когнитивной психологии, философии, социологии управления и др. Всего отобрано более 20 публикаций в более чем 20 рецензируемых журналах.

В качестве информационного материала использовались отчеты международных организаций, контент официального сайта Международного экономического форума (WEF)2, международного валютного фонда (IMF)3, результаты опросов общественного мнения ВЦИОМ4.

Методология составления обзора содержала следующие процедуры: первичный отбор источников по указанным фильтрам; вычленение из текста аналитических высказываний, отражающих ключевые идеи и проблемы, и их категоризация с акцентом на оригинальность; обозначение основных дискурсивных направлений, выделение временных этапов эволюции научных взглядов на искусственный интеллект в дискурсивном контексте его становления как самостоятельного субъекта социально-управленческих отношений.

Зарождение дискурса – могут ли машины мыслить и рефлексировать?

Зарождение и развитие дискурса о социальной субъектности ИИ началось в сфере технических наук с обсуждения вопроса о правомерности приписывания машинным технологиям качеств, свойственных людям. Отправной точкой можно считать 1950 год, который знаменуется выходом в свет сразу двух фундаментальных публикаций, лежащих у истоков современных представлений о влиянии новых машинных технологий на общество и человеческое сознание.

В книге «Человеческое применение человеческих существ: кибернетика и общество» основоположник кибернетики и теории искусственного интеллекта Н. Винер предложил ряд фундаментальных идей, которые стали «аттракторами» не только для развития кибернетики и теории связи, но и для исследований социальных аспектов внедрения новых технологий (Wiener, 1950). Винер утверждал, что «изучение сообщений как способов управления машинами и сообществами» является ключевым аспектом понимания сложных систем, будь то технические устройства или социальные структуры. Процесс передачи команд от человека к машине рассматривался им по аналогии с управленческими взаимодействиями между людьми: «… когда я отдаю приказ машине, эта ситуация принципиально не отличается от той, которая возникает, когда я отдаю приказ какому-либо человеку» (Wiener, 1950). Это утверждение подчеркивает важ- ность унификации подходов к управлению как техническими системами, так и социальными структурами, что впоследствии стало основой для развития теории искусственного интеллекта.

Идеи Винера о том, что «в будущем... коммуникации между человеком и машиной, между машиной и человеком и между машиной и машиной суждено играть все возрастающую роль», предвосхитили современные концепции взаимодействия между человеком и машиной, а также заложили основу для актуального сегодня направления – изучения социальных последствий внедрения автоматизированных систем.

Одним из первых к формированию современных подходов в определении ИИ и объяснению принципов машинного мышления подошел английский ученый А. Тьюринг. Его заслуга состоит также в том, что он популяризировал и пытался объяснить доходчивым способом эту сложную научную проблему. В своем бестселлере «Вычислительные машины и разум», впервые опубликованном в 1950 году, он спрашивает читателя: «Может ли машина мыслить?» (Turing, 1950). Этот вопрос, на который сейчас дается однозначно положительный ответ, семьдесят пять лет назад мог вызвать эффект «разорвавшейся бомбы». Ученый утверждал, что «машины, возможно, обладают чем-то, что можно описать как мышление, но это мышление принципиально отличается от человеческого» (Turing, 1950). Развивая эту мысль, Тьюринг вложил новые смыслы в само понятие «мышление», оторвав этот процесс от «функции бессмертной души человека». Он показал, что машины обладают способностью имитировать человеческий интеллект (Агеев, 2022), а также вывел модель опознавания способности автоматизированных машин проходить проверку на соответствие ответов машины ответам человека. Пророческими видятся слова А. Тьюринга: «Верю, что к концу столетия словоупотребление и общественное мнение среди образованных людей изменятся настолько, что разговоры о мыслящих машинах не вызовут протеста» (Turing, 1950).

Яркие примеры постановки вопроса о человеческих свойствах машинных технологий можно найти и в трудах советских ученых – первопроходцев в сфере изучения ИИ. В 1960-е гг. выходят сборники статей «Возможное и невозможное в кибернетике» (1964), «Кибернетика ожидаемая и кибернетика неожиданная» (1968). В них идею о субъективном существовании мыслящей системы поддержали видные ученые – академики АН СССР (Шабанов-Кушнаренко, 2002). А в 1982 году издана книга, в названии которой появляется словосочетание «искусственный интеллект» – «Фантазия или наука: на пути к искусственному интеллекту» (Поспелов, 1982). Ее автор Д.А. Поспелов, которого называют «отцом» и «столпом» отечественного ИИ (Воинов и др., 1998), начинает монографию с утверждения о том, что «на стыке многих научных дисциплин происходит вычленение нового научного направления со своим предметом исследования, своими специфическими методами и мировоззрением» (Поспелов, 1982). Оглядываясь в далекое средневековье, Д.А. Поспелов показывает, что интерес к «искусственным людям» – явление не новое. Но только во второй половине XX века «интеллектуальные технические системы» перестают быть фантастикой, а становятся самостоятельным научным направлением, институционализация которого состоялась на Первой международной конференции по искусственному интеллекту в Стэнфорде в 1969 году.

В своей книге Д.А. Поспелов рассуждает о таких ключевых аспектах интеллектуальных систем, как модели мышления, экспертные системы, обработка естественного языка. Особое значение имеет его обращение к проблеме поведения и взаимодействия интеллектуальных технических устройств (автоматов) в двух аспектах – адаптации и рефлексии. Поднимая вопрос о совместимости адаптационных возможностей человека к внешней среде и аналогичных свойств машины, ученый спрашивает: «Какие-то ее параметры, важные с точки зрения выживаемости организма, могут менять свои значения и организм должен как-то при- спосабливать свое функционирование к этим изменениям. Возникает вопрос: может ли техническое устройство имитировать с достаточной полнотой это свойство живых организмов?» (Поспелов, 1982). Ссылаясь на известного советского математика и инженера М.Л. Цетлина, который занимался этой проблемой в первой половине 1960-х гг., Д.А. Поспелов положительно отвечает на этот вопрос: доказано, что интеллектуальное техническое устройство может имитировать процесс адаптации, т. е. способно обучаться.

Другой способ поведения людей, находящийся в фокусе внимания Д.А. Поспелова, – рефлексивное поведение. Может ли автомат, «прежде чем принять решение о своих действиях, прогнозировать, какие действия совершают другие автоматы в коллективе?» (Поспелов, 1982). И на этот вопрос дается положительный ответ. Рефлексия «связана с процедурой размышления за другого», поэтому она предполагает систему взаимодействий между субъектами. При этом автоматы взаимодействуют как члены и участники коллектива. Иными словами, способность к рефлексии означает приписывание техническим устройствам «социальных» качеств. В то же время «социальность» сопряжена с возможными рисками. Этот еще один важный аспект появился в связи с обсуждением рефлективности. Д.А. Поспелов пишет, что «свойство рефлексии может использоваться при организации человеческого поведения для таких процедур, как обман, блеф, навязывание собственного представления и мнения и т. п.» (Поспелов, 1982). Означает ли это, что интеллектуальные машины также могут задействовать свойство рефлексивности для аналогичных целей?

От «очеловечивания» технических систем к технологизации общественных процессов

Стремительное развитие машинных технологий, начавшееся во второй половине XX века, тематически расширило научную повестку об ИИ до сферы социальных наук. Значимыми стали вопросы о влиянии ма- шинных технологий на социальные структуры и взаимоотношения между людьми. Такие взгляды получили широкое распространение во второй половине 1980-х гг. после выхода серии публикаций о влиянии технологий на власть и общество. Среди других особо отметим книгу Л. Виннера «Кит и реактор: поиск границ в эпоху высоких технологий» (Winner, 1986), его статью «Открывая черный ящик и убеждаясь в его пустоте: социальный конструктивизм и философия технологий» (Winner, 1993), а также монографию Р. Волти «Общество и технологические изменения» (Volti, 1992).

Л. Виннер анализирует влияние современных технологий на общество с позиции схожести с живыми мыслящими организмами, а также их субъектности в виде привнесения ими новых общественных моделей поведения и новых тоталитарных форм социального контроля (Winner, 1986). В первую очередь Виннер отмечает небез-основательность своих идей отсылкой к К. Марксу: «Впервые механизмы как живой организм предлагал рассматривать Карл Маркс в первой части труда «Немецкая идеология» (Winner, 1986). Развивая тему схожести в свойствах и функциях живых людей и машин, Виннер обращает внимание на популярную в то время точку зрения, согласно которой «…структуры и системы современной материальной культуры можно точно оценить не только по их вкладу в эффективность и производительность труда, а также по их положительным и отрицательным побочным эффектам для окружающей среды, но и по способам, которыми они могут воплощать конкретные формы власти и контроля». Иными словами, машинам по своей сущности, в зависимости от вложенных создателем ценностей, характерно «участливое» социально-политическое поведение, будь то склонность к авторитарной или демократической форме организации общества. Главным опасением Виннера выступает факт, что «…в отличие от человека, способного под воздействием внешних факторов и жизненных обстоятельств пересматривать взгляды, …определенные виды технологий не допускают такой гибкости, и что выбрать их – значит выбрать неизменно определенную форму политической жизни» (Winner, 1986). Опасения ученого вызывает возможность бесконтрольного перехода технологического общества к тирании машины под воздействием определенной технологии, проблематику которого он рассматривает в статье «Открывая черный ящик и убеждаясь в его пустоте: социальный конструктивизм и философия технологий». Основное упущение социологов, по Виннеру, состоит в «…полном игнорировании социальных последствий технического выбора. Социологические теории и методы, направленные на объяснение того, как возникают технологии, как они формируются посредством различных видов социального взаимодействия, пусты в силу отсутствия в них практической пользы и анализа возможных рисков и возможностей применения новой технологической силы в будущем» (Winner, 1993).

Примерно в это же время вышла книга известного исследователя социальных аспектов внедрения ИИ – профессора социологии Питцерского колледжа Р. Волти «Общество и технологические изменения». Центральной в ней является идея о том, что «инновации не всегда соблюдают существующие социальные и правовые нормы, и судам в скором времени может потребоваться решать вопросы, вызванные технологическими изменениями» (Volti, 1992). Этим объясняется стремление Р. Волти обратить особое внимание научного сообщества на специфику создания и авторов интеллектуальных систем, их непосредственных пользователей, которыми, по большей части, оказываются крупные коммерческие компании, а также порядок их функционирования и использования. Р. Волти обосновывает, что влияние технологии на изменения в общественных отношениях следует рассматривать в трех направлениях – знаний, организаций и профессиональной деятельности (Volti, 1992).

Во второй половине 1990-х гг. оригинальные взгляды на роль ИИ появляются и в ра- ботах российских ученых, где просматривается изменение логики анализа диады «человек – интеллектуальная технология», не от человека к машине, а от машины к человеку. Например, кандидат технических наук А.В. Воинов и его соавторы Т.А. Гаврилова и Р.М. Грановская в своей до сих пор активно цитируемой статье «Искусственный интеллект. Искусственная душа?» при описании автоматизации интеллектуальных задач отметили, что весь тот «механический мир», «…который окружает человечество, органически чужд человеку: и по плоти, и по способу думать, и по духу» (Воинов и др., 1998). Несмотря на значимость феномена ИИ для научного сообщества и человечества в целом, авторы статьи неоднократно подчеркивают, что большинство на момент выхода труда современных «прогнозов, домыслов и проблем, <которыми задаются писатели-фантасты и некоторые ученые5>, … в ближайшие 100 лет не встанет перед учеными, поскольку сейчас даже близко никто не подошел к их подступам». А само «…моделиро-вание <компьютером> эмоций … звучит нелепо… Компьютер может лишь то, что закладывает в него человек, плюс быстродействие процессора» (Воинов и др., 1998). Попытки некоторых научных деятелей заложить в основу поведения ИИ концепции из психологии (например, теорию Фрейда) кажутся Т.А. Гавриловой и ее соавторам неуместными в силу их противоречивости и многообразности без наличия единой, связной базы теоретических основ и кейсов практического применения (апробации). При этом развитие искусственного интеллекта, по мнению авторов статьи, в будущем приведет к осознанию сущности человека и его истинного мышления. Иными словами, появилось осознание, что разработка и исследование искусственного интеллекта требуют понимания того, как именно работает человеческий мозг, а также какие механизмы лежат в основе мышления. В результате разработки искусственного интеллекта используется иной подход к анализу принципов человеческой логики, анализу данных и принятию решений, что помогает понять, как человек принимает решения, обрабатывает информацию, а также формирует свои убеждения. Таким образом, непрерывное развитие искусственного интеллекта открывает новые когнитивные принципы и структуры. И наоборот.

Искусственный интеллект – риск или возможность?

Бурное развитие технических систем ИИ в начале XXI века привело к новому витку эволюции научных взглядов на социальную субъектность интеллектуальных систем – усиливается и масштабируется дискурсивная направленность, связанная с амбивалентным воздействием ИИ на социальную жизнь.

Импульс для такого развития дискурса придали работы голландского философа, лауреата государственной премии Нидерландов по философии 2011 года Х. Актерхейса. В монографии «Американская философия технологий: эмпирический поворот» он отмечает: «…именно взгляд на сущность социальных изменений, сопровождающих развитие технологий, а не на саму технологию, называется эмпирическим поворотом» (Achterhuis, 2001). Технологическое развитие, в отличие от классических философов Бэкона и Декарта, рассматривается Актерхейсом не как безличная сила, вторгающаяся в социальную практику, а скорее как социальная практика сама по себе. Иными словами, интерес представляет не столько технология или причина (история) ее возникновения, сколько сложившееся вокруг нее социальное пространство с индивидуальным набором потенциальных возможностей и рисков, которые необходимо адекватно оценивать для обеспечения устойчивого социального развития.

В этом же контексте следует выделить статью Ю.П. Шабанова-Кушнаренко «Проблема искусственного интеллекта», опубликованную в 2002 году в журнале «Информационные технологии». Примечательно, что в ней автор, ссылаясь на идеи Декарта, интерпретирует само понятие субъектности интеллектуальной ма- шины: «любая мыслящая система является наблюдателем, то есть существует как субъект» (Шабанов-Кушнаренко, 2002). Особый акцент в статье сделан на «катастрофически нарастающих бедствиях» от прогресса техники. При этом с развитием систем машинного интеллекта, по мнению автора, человечество столкнется с принципиально новым вызовом – противоречием между медленной скоростью эволюции человеческого разума и быстрым прогрессом ИИ: «Создавая и совершенствуя машинный интеллект, люди не в состоянии усовершенствовать свой собственный. Если так будет продолжаться и дальше, то … человек останется таким же как сейчас, а разумные машины уйдут в своем развитии далеко вперед» (Шабанов-Кушнаренко, 2002). Автор дает отрицательный ответ на вопрос о возможности справиться с такими машинами и «найти взаимопонимание с ними». Такого же мнения придерживаются и иностранные ученые, отдельно подчеркивая значимость контроля над развитием подобных систем со стороны человека (Yadav, 2023).

Генеративные системы ИИ – искусственная социальность, амбивалентность и система социального контроля

Выделение новейшего этапа развития дискурса связано с созданием особых генеративных систем ИИ и вовлечением в проблемную «орбиту» власть и обычных граждан. Доктор экономических наук Т.А. Кузовкова и ее соавторы М.М. Шаравова и Д.А. Катунин описывают начавшиеся с 2019–2020 гг. изменения как период интенсивного развития технологий машинного обучения, глубинного обучения, развития технологий генеративного искусственного интеллекта (Кузовкова и др., 2024), под которыми понимается разновидность систем ИИ, способных синтезировать текст, изображения или комбинированный (комплексный) медиаконтент в ответ на разносторонний запрос пользователя извне. Эти процессы вывели дискуссию на новый уровень, что выразилось в 1) переходе от обозначения отдельных исследовательских вопросов и проблем к созданию концептов (четвертая промышленная революция (Schwab, 2016), искусственная социальность и др.); 2) смещении фокуса с общих (абстрактных) амбивалентностей и рисков, вроде форм политического контроля в технологическом обществе, к рискам узконаправленным, специфическим для определенных сфер (управление, образование, рынок труда и т. д.); 3) обсуждении этических и правовых инструментов социального контроля применения ИИ.

Искусственная социальность как теоретический концепт. Концепт искусственной социальности стал разрабатываться в трудах зарубежных социологов Ганкеля, Гузмана и Льюиса в конце 2010-х гг. Эти ученые пытались обобщить характеристики информационных систем и технологий, деятельность которых была напрямую связана с человеческими эмоциями: их распознаванием, изучением и последующей имитацией. При этом под искусственной социальностью изначально понималась совокупность «…технологий и действий, которые создают видимость признаков социальности в машинах» (Natale, Depount, 2024). Иными словами, возник запрос на технологию, которая бы имитировала реальную человеческую деятельность по запросу пользователя.

Ученые утверждают, что образование подобных систем генеративного искусственного интеллекта, которые по отдельности являются структурными единицами искусственной социальности, невозможно без обработки, а значит, и наличия первичных данных о социальности человеческой, а также о всем спектре свойственных человеку эмоций (Natale, Depount, 2024). Анализируя все большие объемы данных и все более взаимодействуя с живыми людьми, машинный разум со временем максимально приближается, но (подобно математическому графику, стремящемуся к какому-либо значению) никогда не достигает абсолютного сходства. Чем больше подобных систем в цифровой среде, тем ярче проявляется в ней феномен искусственной социальности. Основные этапы алгоритма образования искусственной социальности представлены на рис.

Сбор информации о человеческой социальности из открытых баз данных, в т. ч. сети Интернет

Создание систем генеративного ИИ, самообучение посредством «общения» и иных форм взаимодействия с людьми в сети Интернет

Рис. Алгоритм возникновения искусственной социальности

При этом авторы статьи также подчеркивают, что современная их исследованию искусственная социальность представлена лишь системами генеративного ИИ, которые «…создают искусственную социальность в условиях онлайн-общения посредством взаимодействия с людьми в приложениях для знакомств… или виртуальных клубов по интересам» (Natale, Depount, 2024). Таким образом, можно констатировать, что искусственная социальность в нынешнем состоянии сильно ограничена виртуальными «барьерами» в виде отдельных платформ или приложений, за пределами которых деятельность технологии технически и физически (в силу несовершенства технологии) ограничена. Однако авторы подчеркивают неотвратимость дальнейшего разнонаправленного развития этого феномена и его выхода за пределы как отдельных виртуальных площадок, так и цифровой среды в целом.

Проблематика «искусственной социальности» нашла отражение и в публикациях отечественных авторов (Резаев, Трегубова, 2021а; Шмерлина, 2024). В публикациях отечественных исследователей, как и у зарубежных авторов, в практическом плане искус- ственная социальность – система интеллектуальных устройств, способных распознавать эмоции людей, их потребности. Такие устройства могли бы адаптироваться под индивидуальное поведение людей, в том числе участвовать в разработке социальных сценариев (Резаев и др., 2020). В книге «От искусственного интеллекта к искусственной социальности: новые исследовательские проблемы современной социальной аналитики» (Резаев и др., 2020) вопрос субъектности интеллектуальных устройств приобретает особую значимость, т. к. роботизированные системы рассматриваются уже в качестве полноценных членов общества. Еще один фокус – двусторонняя связь между наукой и современными технологиями. А.В. Резаев и Н.Д. Трегубова иллюстрируют эту связь на примере современного социологического знания: «… как социология, так и искусственный интеллект в равной мере нуждаются друг в друге» (Резаев, Трегубова, 2021b).

Амбивалентная составляющая феномена ИИ. Переход к широкому использованию систем ИИ («…в России ИИ-технологии уже применяются в банковской сфере, торговле, кадровой службе, индустрии развлечений, в госорганах, в силовых структурах» (Петров, 2020) обострил научную и породил публичную дискуссию об амбивалентном влиянии ИИ на общество и человека. Новым направлением в развитии дискурса стали опросы общественного мнения, которые фиксируют отношение населения к распространению этой технологии. Так, по опросам ВЦИОМ, 94% россиян в той или иной степени информированы о технологиях искусственного интеллекта. Однако россияне воспринимают распространение ИИ амбивалентно – не доверяют ИИ 38% населения, в то время как о своем доверии к искусственному интеллекту высказываются 52% населения, в частности 34% населения считают возможным передать ИИ опасные для жизни человека виды работ, а 32% отмечают объективность и беспристрастность ИИ6.

В таком «амбивалентном» контексте активно развиваются самостоятельные исследовательские направления – «образовательное», «управленческое», «рынок труда» и др. Так, отдельным направлением дискуссии стало применение интеллектуальных систем в образовании. С одной стороны, специалисты рассуждают об эффективности и оптимизации учебного процесса (Ажыкулов, 2024). С другой – предупреждают о замене педагогов искусственным интеллектом (и, как следствие, снижение уровня социального взаимодействия) и о новых формах образовательных неравенств (Ладыжец, 2023).

Особо следует отметить «управленческое» направление, которое начало активно развиваться на фоне возрастающего объема данных, усложнения механизмов принятия управленческих решений и, как следствие, усиления потребности в технологической системе поддержки при принятии решений. К технологиям искусственного интеллекта (ТИИ), используемым в анализе большого объема данных, специалисты относят интеллектуальный анализ, искусственные нейронные сети, а также байесовские сети и машины опорных векторов, которые в своей совокупности заменяют механизмы человеческого разума, активизирующиеся при принятии управленческих решений (Петров, 2020).

С одной стороны, эксперты, в том числе А.А. Петров, А.В. Резаев (и др.), пишут о внедрении ТИИ в управленческую деятельность организации как о функциональном процессе. А.А. Петров отмечает, что «…нежелание и неспособность внедрить ИИ в деятельность организации / компании / предприятия обрекает такую организацию / компанию на уход с рынка» (Петров, 2020). ИИ используется в организациях для выполнения многоплановой рутинной работы, исключая риск срабатывания человеческого фактора, освобождая работников для более сложной созидательной и креативной деятельности, в которой решающее значение имеет че- ловеческий интеллект (Digilina et al., 2023). Машинный разум помогает сотрудникам всех уровней выстраивать систему обратной связи, устанавливать конкретные и измеримые цели и достигать лучших результатов деятельности, а управляющему составу организации предоставляет больше времени для сосредоточения на стратегическом планировании без ущерба для оперативных задач (Пантелеева и др., 2019). В результате использования умных технологий минимизируются расходы организации (Петров, 2020), повышается эффективность труда, сокращаются сроки принятия управленческих решений (Петров, 2020; Резаев, Трегубова, 2021).

С другой стороны, специалисты делают акцент на шлейф социальных проблем – рост безработицы, новые формы отчуждения от процесса и результатов труда. Исследователи предупреждают, что в ближайшей перспективе внедрение искусственного интеллекта в сферу управления повлияет на сокращение кадрового состава во многих организациях. Действительно, в обществе в силу широкого распространения ИИ в бизнес и государственном секторе достаточно остро стоит вопрос потери рабочих мест, которая потенциально ведет к массовой безработице (Гасумова, Портер, 2019). Этот тезис подтверждается, в частности, результатами исследования Международного валютного фонда, согласно которым из-за внедрения ИИ количество рабочих мест в ближайшем будущем может сократиться на 60% в развитых странах, на 40% – в развивающихся странах и на 26% – в странах с переходной экономикой7. Похожее исследование было проведено в рамках отчета Future of Jobs Всемирного экономического форума. Так, согласно отчету, к 2030 году использование искусственного интеллекта создаст порядка 170 млн рабочих мест, в то время как упразднено будет около 92 млн рабочих мест, что в конечном итоге приведет к росту общего количества рабочих мест на 78 млн8.

Этические и правовые инструменты социального контроля применения ИИ. Итак, специалисты признают, что принятие решений на основе алгоритмов может привести к серьезным рискам и деструктивным последствиям. При этом возникает дилемма: кто же несет ответственность за ошибки искусственного интеллекта в социальном управлении – разработчики, технические операторы или же государственные органы, частные организации? Все эти вопросы сформировали понимание необходимости разработки этических и правовых стандартов, а также тщательного контроля над использованием искусственного интеллекта со стороны общества и власти. В связи с этим новое развитие дискурса развернулось в сторону этических и правовых инструментов социального контроля над «поведением» ИИ. Так, автор многочисленных публикаций по проблемам ИИ С.Е. Гасумова в своей работе в соавторстве с Л. Портер «Информационные технологии в социальной сфере» обозначает основные этические проблемы, которые возникают при применении искусственного интеллекта (Гасумова, Портер, 2019). С этической позиции анализируются возможности роботизированных систем удовлетворять социальные потребности людей в полном объеме и ответственности за причиненный людям вред.

Другая сторона этой проблемы – вовлечение государства в процессы разработки нормативных правовых актов, регламентирующих деятельность как разработчиков ИИ-систем, так и самих технологий. Дело в том, что современные «…технологии искусственного интеллекта все более активно используются в управленческой … деятельности, которая затрагивает права … и законные интересы физических и юридических лиц…», при этом «актуальной задачей выступает определение пределов допустимости их <систем ИИ> применения…» (Потапенко и др., 2025). Ряд отечественных специалистов считает, что слабая юридическая разработанность проблемы контроля ИИ усложняет процесс законотворчества и непосредственно надзора. Главным источником власти в переходный для отраслевого законодательства РФ период, по мнению ученых, должен выступать институт общественного контроля (Потапенко и др., 2025). Системы ИИ при осуществлении управленческой деятельности «…могут и должны применяться только с участием человека, под его контролем и при условии соблюдения прав, свобод и законных интересов физических и юридических лиц» (Потапенко и др., 2025). Можно предположить, что рекомендации научного сообщества о необходимости создания системы социального контроля уже в некоторой степени отразились на деятельности правительства. В Российской Федерации сейчас уделяется значительное внимание развитию систем ИИ и их правовой регламентации в целях внедрения в управленческую деятельность во всех секторах. Так, одним из приоритетных направлений Национальной стратегии развития искусственного интеллекта9 с 2019 года является использование данных технологий в отраслях экономики в целях улучшения эффективности деятельности хозяйствующих субъектов, а также создания новых направлений деятельности.

Заключение

Подводя итоги анализа, кратко охарактеризуем четыре этапа в развитии дискурса социальной субъектности ИИ, различающиеся временными рамками и тематическим содержанием (табл.) .

На первом этапе развития дискурса в сфере технических наук (1950-х – начало 1980-х гг.) зарождалось общее научное направление и концептуализировалось понятие «искусственный интеллект». Для этой стадии характерно наделение слов, которые ранее относились исключительно к сфере когнитивных процессов человека: «мыслить», «интеллект», «адаптация», «рефлексия», «обучение» – новыми значениями.

Табл. Этапы становления ИИ как субъекта социального управления

Этап / Период

Характеристики

Первый этап, 1950 – начало 1980-х гг.

Появление первых вычислительных машин ^

зарождение дискурса в технических науках проявление первичного научного интереса относительно феномена

ИИ ^ аргументация схожести в «образе мышления» с человеком и рефлексия на тему перспектив развития этой технологии.

Второй этап, середина 1980-х – начало 2000-х гг.

Развитие компьютерных технологий и начало активного промышленного использования ЭВМ ^ вовлечение в процесс изучения ИИ социальных наук, формирование предметного поля ^ рост интереса к искусственному интеллекту, его развитию, перспективам и рискам его использования. Социальная субъектность ИИ формируется как часть общего дискурса об ИИ.

Третий этап, середина 2000-х – середина 2010-х гг.

Интенсификация разработки интеллектуальных систем частными компаниями ^ тематическое усложнение дискурса ИИ, расширение научного поля ^ отождествление поведения ИИ в социуме. Социальная субъектность ИИ формируется как самостоятельный дискурс.

Четвертый этап, конец 2010-х – н.в.

Появление генеративных систем ИИ ^ начало широкого применения ИИ частными лицами в личных целях ^ широкое вовлечение частных корпораций в разработку технологий ИИ (в том числе в рамках гос. заказа) ^ осмысление феномена «искусственной социальности» ^ изучение этических, социальных и правовых рисков от использования ИИ в социальном управлении и других социальных сферах, амбивалентная направленность.

ИИ становится частью юридически-право-вого и политического дискурса.

Источник: составлено авторами.

Приписывая техническим устройствам мыслительные и поведенческие свойства, аналогичные человеческим, ученые тем самым опосредованно формировали прообраз «социальной субъектности» интеллектуальных машин.

Второй этап (1980–1990-е гг.) характеризуется распространением идей о социальной субъектности ИИ в сферу социальных наук, что способствовало становлению дискурса. «Статус» ведущей дискурсивной ли- нии обретает аналитический нарратив о социальных влияниях, производимых интеллектуальными машинами. Таким образом, ученые наделяют интеллектуальные технологии свойством «социальной активности», т. е. напрямую обосновывается идея об ИИ как о самостоятельном субъекте социальных отношений.

На третьем этапе (2000-е – 2010-е гг.) фокус смещается на амбивалентные последствия влияний ИИ для человека и общества. Усиливается понимание «субъектности ИИ» как социального актора.

Выделение четвертого этапа (конец 2010-х гг.) связано с усложнением и «расщеплением» дискурса на самостоятельные тематические и исследовательские направления. На такое развитие дискурса повлияло распространение генеративного ИИ, способного по внешнему запросу выдавать информационные в разной степени релевантные и комбинированные ответы пользователя. Этот этап характеризуется активным государственным участием в развитии технологий искусственного интеллекта, а также всевозрастающим интересом к ИИ со стороны обычных граждан для его привлечения к достижению личных и профессиональных целей. Особую нишу стали занимать вопросы об этических, социальных и правовых рисках, вызванные использованием ИИ в социальном управлении. Социальные и этические риски сопряжены также с утратой автономности сознания и интеллектуальной свободы человека, поэтому усилилась интенция, связанная с правовой и этической регламентацией ИИ.

В заключение следует отметить, что по мере развития дискурса социальные риски, угрозы, а также отложенные последствия внедрения ИИ осознаются все более отчетливо. Все чаще обсуждаются сценарии, в соответствии с которыми при дальнейшем развитии искусственного интеллекта люди могут полностью утратить свою когнитив- ную субъектность, способность к управлению и свободу.

Однако, несмотря на справедливые опасения ученых, уже в обозримом будущем (до 25 лет) все большую долю в управлении будет составлять именно машинный разум (Петров, 2020). В связи с этим все более острыми становятся вопросы этики и ответственности применения искусственного интеллекта. Становится очевидным, что требуются усилия со стороны социума, а также научного сообщества для будущей разработки подконтрольных человеку эффективных этических и правовых систем контроля над искусственным интеллектом.

Следует также отметить, что, несмотря на динамичное развитие дискурса, по мнению авторов данной статьи, сохраняются «слепые зоны», пока не нашедшие глубокого научного осмысления. Одна из них – оторванность социальных условий среды от технической сущности той или иной формы машинного интеллекта. Иными словами, современные исследователи, как правило, пытаются ответить на вопрос «каким образом меняется и/или будет меняться социальная среда под воздействием машинного разума в целом» без глубокого понимания, как эта форма «разума» устроена, что не позволяет в полной мере углубиться в рассматриваемую проблематику. С появлением генеративного ИИ этот односторонний подход отчасти стал сменяться междисциплинарным, однако темпы вовлечения социологов в техническую сторону вопроса оставляют риск разрыва между исследованиями и развитием технических возможностей систем.

Таким образом, тесные научные коллаборации представителей социальных и технических наук являются залогом новых перспективных исследований в области ИИ и обладают потенциалом для получения новых знаний, необходимых для реализации эффективного социального контроля в этой сфере.