К вопросу о необходимости классификации искусственного интеллекта в медицинской практике: социологический аспект
Автор: Ярошук Ю.М.
Журнал: Общество: социология, психология, педагогика @society-spp
Рубрика: Социология
Статья в выпуске: 7, 2025 года.
Бесплатный доступ
В настоящей статье рассматривается необходимость разработки социологически ориентированной классификации искусственного интеллекта в медицинской практике. Отмечается, что уже существующие типологии, основанные преимущественно на технико-технологических характеристиках, в полной мере не учитывают социальные и этические последствия внедрения технологий и инструментов на основе искусственного интеллекта в деятельность медицинских организаций и учреждений. Предложены критерии для классификации искусственного интеллекта, учитывающие уровень автономии, сферу применения, тип взаимодействия с человеком и степень влияния на социальные отношения и этические риски. Обосновывается практическая значимость необходимости разработки на основе предложенных критериев классификации искусственного интеллекта для понимания социальных последствий, разработки более эффективных стратегий регулирования и содействия развитию этически ответственного подхода к внедрению новых технологий в медицину. Обсуждаются ограничения предложенной классификации и перспективы дальнейших исследований.
Искусственный интеллект, ии, искусственный интеллект в медицине, медицинская практика, социальные последствия, этические риски, ии в здравоохранении
Короткий адрес: https://sciup.org/149148982
IDR: 149148982 | УДК: 316.4 | DOI: 10.24158/spp.2025.7.4
Towards the need for classification of artificial intelligence in medical practice: sociological aspect
This article discusses the need to develop a sociologically oriented classification of artificial intelligence in medical practice. It is noted that existing classifications and typologies, based primarily on technical and technological characteristics, don’t fully take into account the social and ethical consequences of introducing technologies and tools based on artificial intelligence into the activities of medical organizations and institutions. Criteria for classifying artificial intelligence are proposed, taking into account the level of autonomy, scope of application, type of interaction with a person and the degree of influence on social relations and ethical risks. The practical relevance of the need to develop a classification of artificial intelligence based on the proposed criteria for understanding social consequences, developing more effective regulatory strategies and promoting an ethically responsible approach to the introduction of new technologies in medicine is substantiated. The limitations of the proposed classification and prospects for further research are discussed.
Текст научной статьи К вопросу о необходимости классификации искусственного интеллекта в медицинской практике: социологический аспект
Санкт-Петербургский государственный экономический университет, Санкт-Петербург, Россия, ,
St. Petersburg State University of Economics, St. Petersburg, Russia, ,
значительный потенциал для дальнейшего повышения качества оказания услуг населению и, соответственно, представляет широкие возможности для улучшения качества жизни и уровня благополучия населения.
В условиях текущих и потенциальных трансформаций медицинской деятельности актуализируется потребность в контроле за возможными изменениями, социальными последствиями и рисками, которыми, безусловно, будут сопровождаться происходящие в медицинской практике преобразования. Необходимо проведение как комплексных технологических, так и социальных исследований, поскольку внедрение ИИ в медицинскую деятельность сопряжено с воздействием на различные аспекты общественной жизни.
Вместе с тем в процессе осмысления практикоориентированных возможностей использования искусственного интеллекта, мы можем констатировать отсутствие сформированного системного подхода к классификации инструментов и технологий на основе искусственного интеллекта в контексте их применения в различных сферах медицинской деятельности.
Существующие классификации искусственного интеллекта в основном ориентированы на техническое понимание его особенностей и применения: они не всегда учитывают имеющееся многообразие социальных и этических аспектов, связанных с использованием ИИ в такой сложной сфере общественной жизни, как медицина. Отсутствие общепринятой классификации, учитывающей разнонаправленные социальные факторы, затрудняет систематизацию данных, процесс выявления закономерностей и прогнозирование социальных последствий внедрения новых медицинских технологий на основе искусственного интеллекта. Это осложняет разработку эффективных стратегий управления и регулирования использования ИИ в здравоохранении, направленных на минимизацию рисков и максимизацию преимуществ.
Данная статья направлена на разработку критериев для дальнейшей классификации инструментов и технологий на основе искусственного интеллекта, используемых в медицинской практике, которая учитывала бы специфику применения искусственного интеллекта в диагностике, лечении, профилактике заболеваний и ряде других областей медицинской деятельности.
Соответственно, целью настоящего исследования является обоснование необходимости и предложение возможных критериев для разработки классификации искусственного интеллекта в медицинской практике с социологической точки зрения. В рамках данного исследования предлагается выйти за рамки осмысления ИИ в технико-технологическом контексте, уделяя особое внимание социальным, этическим и организационным аспектам использования ИИ в медицине. Мы полагаем, что разработка такой классификации на основе предложенных в исследовании критериев позволит более полно оценить социальные последствия внедрения искусственного интеллекта и обозначить необходимость формирования нормативно-правовой базы, а также осмыслить возможности разработки механизмов управления рисками.
Материалы и методы . В качестве методологической основы исследования использованы методы анализа литературы, научных трудов по рассматриваемой проблематике, контент-анализ, а также социологический анализ существующих подходов к классификации и оценке влияния развития новых технологий на общественную жизнь. Применяя указанные методы, мы сформулировали и представили теоретические основания для развития подхода к классификации искусственного интеллекта в деятельности медицинских организаций и учреждений.
Результаты . В современном научном дискурсе, связанном с технологиями и инструментами, основанными на искусственном интеллекте, наблюдается разнообразие подходов к классификации ИИ, обусловленное многогранностью самого понятия и широким спектром его применения в различных сферах общественной жизни. Для разработки релевантных для социологического анализа основ классификации искусственного интеллекта в медицинской практике, необходимо рассмотрение существующих теоретических основ и выявление их ограничений.
Прежде всего, важно отметить, что в настоящее время не существует единого общепризнанного определения понятия «искусственный интеллект», что затрудняет возможности его правового регулирования, которое необходимо в связи с его активным использованием в повседневной общественной жизни (Акылбекова, Мулдагалиева, 2025: 550). Причем главным препятствием на пути к разработке точного и универсального определения того, что стоит понимать под ИИ, является отсутствие единых представлений об интеллекте в целом (Морхат, 2017: 26). При этом важно понимать, что главной задачей, стоящей перед исследователями и разработчиками ИИ, является задача автоматизации или имитации с помощью цифровых технологий интеллектуальной деятельности человека.
Возвращаясь к существующим классификациям искусственного интеллекта, обратимся к основным из них, которые описывают интересующий нас феномен с философской, информационно-технической и медицинской позиций восприятия.
С философской точки зрения классификация искусственного интеллекта будет связана с такими аспектами, как сознание, мораль, этика и множество экзистенциальных рисков. Послед- ние следует рассматривать как «подмножество глобальных катастрофических рисков», исследование предпосылок которых можно найти, например, у И. Канта (Внутских, Денискин, 2024: 39, 45). В рамках философского подхода рассматриваются вопросы о возможности создания сознательного ИИ, его потенциальных правах и обязанностях, а также об угрозах, которые может представлять неконтролируемое бурное развитие искусственного интеллекта для человечества.
В области информационных технологий классификация искусственного интеллекта, как правило, основывается на технических характеристиках.
Один из подходов к классификации искусственного интеллекта представляет его восприятие в сильной или слабой позиции (Безлепкин, 2019: 135). Так, исследователям и разработчикам ИИ необходимо понимать, к моделированию какого интеллекта стремится их деятельность, то есть насколько созданный ими ИИ будет приближен к человеческому или, наоборот, он будет кардинально другим. С этой точки зрения принято выделять два направления – концепцию «сильного» и «слабого» искусственного интеллекта. В рамках этого подхода слабый ИИ (narrow AI) способен решать узкоспециализированные задачи (например, такие как распознавание изображений, перевод текста на другой язык и др.), а сильный ИИ (generative AI), обладающий способностью к самостоятельному мышлению, обучению и решению задач, подобно человеческому интеллекту, имеет широкие возможности и в полной мере может конкурировать с человеком и его способностями (Damar et al., 2024: 87). В настоящее время существование сильного типа ИИ остается лишь теоретической концепцией.
Рассмотрение искусственного интеллекта по критерию, определяющему метод его обучения, описывает несколько ключевых вариантов – машинное обучение (machine learning), глубокое обучение (deep learning), обучение с подкреплением (reinforcement learning) и другие подходы (Sahu et al., 2023). Каждый из них имеет свои особенности, преимущества и ограничения.
Классификация по типу архитектуры ИИ учитывает структуру нейронных сетей, используемых в конкретном искусственном интеллекте. Например, это могут быть сверточные (CNN) или рекуррентные нейронные сети (RNN) и их комбинации (Yu et al., 2022).
Говоря о классификациях искусственного интеллекта, применяемых в медицинской практике, справедливо выделить классификации, ориентированные на функциональные аспекты и конкретные задачи, которые могут быть решены с помощью ИИ. Так, существует разделение типов искусственного интеллекта в зависимости от стоящих перед ним задач: например, можно выделить такие направления, как диагностика (выявление заболеваний на основе анализа медицинских данных), лечение (разработка индивидуальных планов лечения, роботизированные хирургические вмешательства), профилактика (прогнозирование рисков возникновения заболеваний, мониторинг состояния здоровья) и управление здравоохранением (оптимизация ресурсов, анализ данных).
По типу используемых данных, с которыми ИИ взаимодействует и которыми он оперирует в рабочих процессах, выделяется ИИ, работающий с медицинскими изображениями (такими как рентген, КТ, МРТ), текстовой информацией (например, электронными медицинскими картами, научными публикациями, результатами исследований), геномными данными и т. д.
По уровню автоматизации процессов, реализуемых ИИ, различают системы ИИ, поддерживающие принятие решений врачом (decision support systems) или создающие их самостоятельно, – это системы дозирования лекарств и некоторые другие.
Существующие классификации и типологии искусственного интеллекта, ориентированные на технико-технологические характеристики и его функциональные аспекты, обладают ограниченной применимостью для социологического анализа, когда необходим комплексный подход к анализу влияния и воздействия искусственного интеллекта на общественную жизнь, в частности, в медицинской сфере. Данные классификации не учитывают социальные, этические и организационные аспекты использования ИИ в медицине, такие как влияние на социально-профессиональные коммуникации между субъектами взаимодействия при оказании медицинских услуг; распределение ответственности за ошибки, допущенные системами, работающими на основе ИИ; влияние цифровизации на рынок труда в сфере здравоохранения; справедливость и доступность медицинских услуг, оказываемых с помощью применения технологий ИИ; общественное восприятие искусственного интеллекта с точки зрения морали и этики и обеспечение доверия к нему в медицинской сфере.
Все вышеуказанное подчеркивает важность разработки классификации, ориентированной на социальные и этические аспекты применения искусственного интеллекта в медицине. В этом контексте предлагаем определить критерии, отражающие социальные, этические и организационные аспекты использования ИИ.
Для дополнения существующих классификаций и обеспечения более полного понимания социальных последствий внедрения искусственного интеллекта в здравоохранение возможно использование следующих критериев: степень потенциальной автономии и самостоятельности в принятии решений; сфера применения, отражающая область медицинской практики, в которой используется ИИ; тип взаимодействия с человеком – в процессах оказания и получения медицинских услуг; степень влияния на социальные отношения, отражающая масштаб изменений, которые ИИ вносит в сферу здравоохранения; риски, описывающие потенциальные этические проблемы, связанные с использованием ИИ в медицинской сфере.
В вопросе разработки и формирования указанных критериев важно отметить их ключевые социологические аспекты, которые обосновывают предложенный перечень с точки зрения реализации социологического подхода. Степень возможной автономии описывает, насколько существенны изменения в социальных ролях во взаимоотношениях формата «врач – пациент» в зависимости от уровня автономии субъектов медицинского взаимодействия. В ситуации, когда ИИ поддерживает принятие решений врачом, уровень автономии не вызывает значительных изменений в социальных ролях и отношениях между врачом и пациентом. Однако возрастает зависимость врача от технологического компонента, что требует повышения квалификации и развития критического мышления. Когда ИИ принимает решения самостоятельно, но под контролем врача, между ними происходит частичное перераспределение ответственности за принятые решения. В данной ситуации возрастает необходимость в четком определении границ ответственности и разработке механизмов контроля за работой ИИ. Использование автономных систем, основанных на деятельности ИИ, функционирующих без непосредственного участия медицинского работника, может привести к значительным изменениям в организации здравоохранения, сокращению числа врачей, изменению социальных ролей и ответственности медицинских работников, причем существует риск возникновения проблемы доверия пациентов к таким системам.
Каждая сфера применения ИИ (диагностика, лечение, профилактика, управление здравоохранением) имеет свои специфические социальные и этические риски и потенциальные последствия. Например, ИИ в диагностике может повысить точность и скорость выявления заболеваний, но имеется также риск возникновения ошибок и предвзятости со стороны алгоритмов.
Тип взаимодействия ИИ с человеком, когда он рассматривается как «ассистент», «партнер» или «полноценная замена» врача влияет на ролевые отношения в системе здравоохранения. В последнем случае может обнаружиться тенденция к дегуманизации медицины и снижению степени доверия потребителей медицинских услуг. Напротив, в ситуации, когда ИИ выступает в качестве ассистента врача-специалиста, он способен повысить эффективность работы медицинского работника и улучшить качество обслуживания граждан.
Степень влияния ИИ на социальные отношения отражает масштаб изменений, которые использование технологий и систем на основе ИИ вносит в существующие социальные практики в сфере здравоохранения. Они могут приводить к конфликтам, сопротивлению и необходимости адаптации различных групп населения.
Предложенные критерии образуют основу для разработки социологически ориентированной классификации искусственного интеллекта в медицинской практике, которая позволит более полно оценить социальные последствия внедрения технологий на основе ИИ и разработать эффективные стратегии управления потенциальными рисками.
Обсуждение . Предложенные критерии для разработки классификации искусственного интеллекта в медицинской практике, способной дополнить содержание типологий социологическим контекстом, представляют собой попытку восполнить пробел в существующих подходах, ориентированных преимущественно на технико-технологические аспекты осмысления ИИ. Анализ уровня автономии, сферы применения, типа взаимодействия с человеком, степени влияния на социальные отношения и этические риски позволяет сформировать более целостную картину социальных и этических последствий внедрения технологий и инструментов на основе искусственного интеллекта в систему здравоохранения. Предложенное в будущем позволяет констатировать не только технологические возможности, но и потенциальные риски, связанные с перераспределением ответственности, изменением социальных ролей и характера взаимоотношений участников коммуникации, возможной дискриминацией и рисками дегуманизации медицинской практики.
Следует отметить, что предлагаемый перечень критериев не является исчерпывающим и требует дальнейшего уточнения и доработки, в том числе при учете результатов эмпирических исследований.
Заключение . В настоящее время регулирование использования искусственного интеллекта в медицине находится на одном из первоначальных этапов развития, хотя сами технологии и инструменты на основе ИИ активно применяются медицинскими организациями и учреждениями.
Известные классификации искусственного интеллекта не в состоянии в полной мере отразить социальные последствия его применения в практике здравоохранения. Для достижения целей социологического анализа необходимо разработать классификацию, ориентированную на социальные и этические аспекты, которая позволит учесть влияние ИИ на участников социально- профессиональных коммуникаций в медицинской сфере, организационные структуры и общественные ценности. Это позволит более эффективно проанализировать возможные социальные последствия внедрения искусственного интеллекта в медицинскую деятельность и разработать релевантные стратегии управления рисками.