К вопросу о необходимости классификации искусственного интеллекта в медицинской практике: социологический аспект
Автор: Ярошук Ю.М.
Журнал: Общество: социология, психология, педагогика @society-spp
Рубрика: Социология
Статья в выпуске: 7, 2025 года.
Бесплатный доступ
В настоящей статье рассматривается необходимость разработки социологически ориентированной классификации искусственного интеллекта в медицинской практике. Отмечается, что уже существующие типологии, основанные преимущественно на технико-технологических характеристиках, в полной мере не учитывают социальные и этические последствия внедрения технологий и инструментов на основе искусственного интеллекта в деятельность медицинских организаций и учреждений. Предложены критерии для классификации искусственного интеллекта, учитывающие уровень автономии, сферу применения, тип взаимодействия с человеком и степень влияния на социальные отношения и этические риски. Обосновывается практическая значимость необходимости разработки на основе предложенных критериев классификации искусственного интеллекта для понимания социальных последствий, разработки более эффективных стратегий регулирования и содействия развитию этически ответственного подхода к внедрению новых технологий в медицину. Обсуждаются ограничения предложенной классификации и перспективы дальнейших исследований.
Искусственный интеллект, ии, искусственный интеллект в медицине, медицинская практика, социальные последствия, этические риски, ии в здравоохранении
Короткий адрес: https://sciup.org/149148982
IDR: 149148982 | DOI: 10.24158/spp.2025.7.4
Текст научной статьи К вопросу о необходимости классификации искусственного интеллекта в медицинской практике: социологический аспект
Санкт-Петербургский государственный экономический университет, Санкт-Петербург, Россия, ,
St. Petersburg State University of Economics, St. Petersburg, Russia, ,
значительный потенциал для дальнейшего повышения качества оказания услуг населению и, соответственно, представляет широкие возможности для улучшения качества жизни и уровня благополучия населения.
В условиях текущих и потенциальных трансформаций медицинской деятельности актуализируется потребность в контроле за возможными изменениями, социальными последствиями и рисками, которыми, безусловно, будут сопровождаться происходящие в медицинской практике преобразования. Необходимо проведение как комплексных технологических, так и социальных исследований, поскольку внедрение ИИ в медицинскую деятельность сопряжено с воздействием на различные аспекты общественной жизни.
Вместе с тем в процессе осмысления практикоориентированных возможностей использования искусственного интеллекта, мы можем констатировать отсутствие сформированного системного подхода к классификации инструментов и технологий на основе искусственного интеллекта в контексте их применения в различных сферах медицинской деятельности.
Существующие классификации искусственного интеллекта в основном ориентированы на техническое понимание его особенностей и применения: они не всегда учитывают имеющееся многообразие социальных и этических аспектов, связанных с использованием ИИ в такой сложной сфере общественной жизни, как медицина. Отсутствие общепринятой классификации, учитывающей разнонаправленные социальные факторы, затрудняет систематизацию данных, процесс выявления закономерностей и прогнозирование социальных последствий внедрения новых медицинских технологий на основе искусственного интеллекта. Это осложняет разработку эффективных стратегий управления и регулирования использования ИИ в здравоохранении, направленных на минимизацию рисков и максимизацию преимуществ.
Данная статья направлена на разработку критериев для дальнейшей классификации инструментов и технологий на основе искусственного интеллекта, используемых в медицинской практике, которая учитывала бы специфику применения искусственного интеллекта в диагностике, лечении, профилактике заболеваний и ряде других областей медицинской деятельности.
Соответственно, целью настоящего исследования является обоснование необходимости и предложение возможных критериев для разработки классификации искусственного интеллекта в медицинской практике с социологической точки зрения. В рамках данного исследования предлагается выйти за рамки осмысления ИИ в технико-технологическом контексте, уделяя особое внимание социальным, этическим и организационным аспектам использования ИИ в медицине. Мы полагаем, что разработка такой классификации на основе предложенных в исследовании критериев позволит более полно оценить социальные последствия внедрения искусственного интеллекта и обозначить необходимость формирования нормативно-правовой базы, а также осмыслить возможности разработки механизмов управления рисками.
Материалы и методы . В качестве методологической основы исследования использованы методы анализа литературы, научных трудов по рассматриваемой проблематике, контент-анализ, а также социологический анализ существующих подходов к классификации и оценке влияния развития новых технологий на общественную жизнь. Применяя указанные методы, мы сформулировали и представили теоретические основания для развития подхода к классификации искусственного интеллекта в деятельности медицинских организаций и учреждений.
Результаты . В современном научном дискурсе, связанном с технологиями и инструментами, основанными на искусственном интеллекте, наблюдается разнообразие подходов к классификации ИИ, обусловленное многогранностью самого понятия и широким спектром его применения в различных сферах общественной жизни. Для разработки релевантных для социологического анализа основ классификации искусственного интеллекта в медицинской практике, необходимо рассмотрение существующих теоретических основ и выявление их ограничений.
Прежде всего, важно отметить, что в настоящее время не существует единого общепризнанного определения понятия «искусственный интеллект», что затрудняет возможности его правового регулирования, которое необходимо в связи с его активным использованием в повседневной общественной жизни (Акылбекова, Мулдагалиева, 2025: 550). Причем главным препятствием на пути к разработке точного и универсального определения того, что стоит понимать под ИИ, является отсутствие единых представлений об интеллекте в целом (Морхат, 2017: 26). При этом важно понимать, что главной задачей, стоящей перед исследователями и разработчиками ИИ, является задача автоматизации или имитации с помощью цифровых технологий интеллектуальной деятельности человека.
Возвращаясь к существующим классификациям искусственного интеллекта, обратимся к основным из них, которые описывают интересующий нас феномен с философской, информационно-технической и медицинской позиций восприятия.
С философской точки зрения классификация искусственного интеллекта будет связана с такими аспектами, как сознание, мораль, этика и множество экзистенциальных рисков. Послед- ние следует рассматривать как «подмножество глобальных катастрофических рисков», исследование предпосылок которых можно найти, например, у И. Канта (Внутских, Денискин, 2024: 39, 45). В рамках философского подхода рассматриваются вопросы о возможности создания сознательного ИИ, его потенциальных правах и обязанностях, а также об угрозах, которые может представлять неконтролируемое бурное развитие искусственного интеллекта для человечества.
В области информационных технологий классификация искусственного интеллекта, как правило, основывается на технических характеристиках.
Один из подходов к классификации искусственного интеллекта представляет его восприятие в сильной или слабой позиции (Безлепкин, 2019: 135). Так, исследователям и разработчикам ИИ необходимо понимать, к моделированию какого интеллекта стремится их деятельность, то есть насколько созданный ими ИИ будет приближен к человеческому или, наоборот, он будет кардинально другим. С этой точки зрения принято выделять два направления – концепцию «сильного» и «слабого» искусственного интеллекта. В рамках этого подхода слабый ИИ (narrow AI) способен решать узкоспециализированные задачи (например, такие как распознавание изображений, перевод текста на другой язык и др.), а сильный ИИ (generative AI), обладающий способностью к самостоятельному мышлению, обучению и решению задач, подобно человеческому интеллекту, имеет широкие возможности и в полной мере может конкурировать с человеком и его способностями (Damar et al., 2024: 87). В настоящее время существование сильного типа ИИ остается лишь теоретической концепцией.
Рассмотрение искусственного интеллекта по критерию, определяющему метод его обучения, описывает несколько ключевых вариантов – машинное обучение (machine learning), глубокое обучение (deep learning), обучение с подкреплением (reinforcement learning) и другие подходы (Sahu et al., 2023). Каждый из них имеет свои особенности, преимущества и ограничения.
Классификация по типу архитектуры ИИ учитывает структуру нейронных сетей, используемых в конкретном искусственном интеллекте. Например, это могут быть сверточные (CNN) или рекуррентные нейронные сети (RNN) и их комбинации (Yu et al., 2022).
Говоря о классификациях искусственного интеллекта, применяемых в медицинской практике, справедливо выделить классификации, ориентированные на функциональные аспекты и конкретные задачи, которые могут быть решены с помощью ИИ. Так, существует разделение типов искусственного интеллекта в зависимости от стоящих перед ним задач: например, можно выделить такие направления, как диагностика (выявление заболеваний на основе анализа медицинских данных), лечение (разработка индивидуальных планов лечения, роботизированные хирургические вмешательства), профилактика (прогнозирование рисков возникновения заболеваний, мониторинг состояния здоровья) и управление здравоохранением (оптимизация ресурсов, анализ данных).
По типу используемых данных, с которыми ИИ взаимодействует и которыми он оперирует в рабочих процессах, выделяется ИИ, работающий с медицинскими изображениями (такими как рентген, КТ, МРТ), текстовой информацией (например, электронными медицинскими картами, научными публикациями, результатами исследований), геномными данными и т. д.
По уровню автоматизации процессов, реализуемых ИИ, различают системы ИИ, поддерживающие принятие решений врачом (decision support systems) или создающие их самостоятельно, – это системы дозирования лекарств и некоторые другие.
Существующие классификации и типологии искусственного интеллекта, ориентированные на технико-технологические характеристики и его функциональные аспекты, обладают ограниченной применимостью для социологического анализа, когда необходим комплексный подход к анализу влияния и воздействия искусственного интеллекта на общественную жизнь, в частности, в медицинской сфере. Данные классификации не учитывают социальные, этические и организационные аспекты использования ИИ в медицине, такие как влияние на социально-профессиональные коммуникации между субъектами взаимодействия при оказании медицинских услуг; распределение ответственности за ошибки, допущенные системами, работающими на основе ИИ; влияние цифровизации на рынок труда в сфере здравоохранения; справедливость и доступность медицинских услуг, оказываемых с помощью применения технологий ИИ; общественное восприятие искусственного интеллекта с точки зрения морали и этики и обеспечение доверия к нему в медицинской сфере.
Все вышеуказанное подчеркивает важность разработки классификации, ориентированной на социальные и этические аспекты применения искусственного интеллекта в медицине. В этом контексте предлагаем определить критерии, отражающие социальные, этические и организационные аспекты использования ИИ.
Для дополнения существующих классификаций и обеспечения более полного понимания социальных последствий внедрения искусственного интеллекта в здравоохранение возможно использование следующих критериев: степень потенциальной автономии и самостоятельности в принятии решений; сфера применения, отражающая область медицинской практики, в которой используется ИИ; тип взаимодействия с человеком – в процессах оказания и получения медицинских услуг; степень влияния на социальные отношения, отражающая масштаб изменений, которые ИИ вносит в сферу здравоохранения; риски, описывающие потенциальные этические проблемы, связанные с использованием ИИ в медицинской сфере.
В вопросе разработки и формирования указанных критериев важно отметить их ключевые социологические аспекты, которые обосновывают предложенный перечень с точки зрения реализации социологического подхода. Степень возможной автономии описывает, насколько существенны изменения в социальных ролях во взаимоотношениях формата «врач – пациент» в зависимости от уровня автономии субъектов медицинского взаимодействия. В ситуации, когда ИИ поддерживает принятие решений врачом, уровень автономии не вызывает значительных изменений в социальных ролях и отношениях между врачом и пациентом. Однако возрастает зависимость врача от технологического компонента, что требует повышения квалификации и развития критического мышления. Когда ИИ принимает решения самостоятельно, но под контролем врача, между ними происходит частичное перераспределение ответственности за принятые решения. В данной ситуации возрастает необходимость в четком определении границ ответственности и разработке механизмов контроля за работой ИИ. Использование автономных систем, основанных на деятельности ИИ, функционирующих без непосредственного участия медицинского работника, может привести к значительным изменениям в организации здравоохранения, сокращению числа врачей, изменению социальных ролей и ответственности медицинских работников, причем существует риск возникновения проблемы доверия пациентов к таким системам.
Каждая сфера применения ИИ (диагностика, лечение, профилактика, управление здравоохранением) имеет свои специфические социальные и этические риски и потенциальные последствия. Например, ИИ в диагностике может повысить точность и скорость выявления заболеваний, но имеется также риск возникновения ошибок и предвзятости со стороны алгоритмов.
Тип взаимодействия ИИ с человеком, когда он рассматривается как «ассистент», «партнер» или «полноценная замена» врача влияет на ролевые отношения в системе здравоохранения. В последнем случае может обнаружиться тенденция к дегуманизации медицины и снижению степени доверия потребителей медицинских услуг. Напротив, в ситуации, когда ИИ выступает в качестве ассистента врача-специалиста, он способен повысить эффективность работы медицинского работника и улучшить качество обслуживания граждан.
Степень влияния ИИ на социальные отношения отражает масштаб изменений, которые использование технологий и систем на основе ИИ вносит в существующие социальные практики в сфере здравоохранения. Они могут приводить к конфликтам, сопротивлению и необходимости адаптации различных групп населения.
Предложенные критерии образуют основу для разработки социологически ориентированной классификации искусственного интеллекта в медицинской практике, которая позволит более полно оценить социальные последствия внедрения технологий на основе ИИ и разработать эффективные стратегии управления потенциальными рисками.
Обсуждение . Предложенные критерии для разработки классификации искусственного интеллекта в медицинской практике, способной дополнить содержание типологий социологическим контекстом, представляют собой попытку восполнить пробел в существующих подходах, ориентированных преимущественно на технико-технологические аспекты осмысления ИИ. Анализ уровня автономии, сферы применения, типа взаимодействия с человеком, степени влияния на социальные отношения и этические риски позволяет сформировать более целостную картину социальных и этических последствий внедрения технологий и инструментов на основе искусственного интеллекта в систему здравоохранения. Предложенное в будущем позволяет констатировать не только технологические возможности, но и потенциальные риски, связанные с перераспределением ответственности, изменением социальных ролей и характера взаимоотношений участников коммуникации, возможной дискриминацией и рисками дегуманизации медицинской практики.
Следует отметить, что предлагаемый перечень критериев не является исчерпывающим и требует дальнейшего уточнения и доработки, в том числе при учете результатов эмпирических исследований.
Заключение . В настоящее время регулирование использования искусственного интеллекта в медицине находится на одном из первоначальных этапов развития, хотя сами технологии и инструменты на основе ИИ активно применяются медицинскими организациями и учреждениями.
Известные классификации искусственного интеллекта не в состоянии в полной мере отразить социальные последствия его применения в практике здравоохранения. Для достижения целей социологического анализа необходимо разработать классификацию, ориентированную на социальные и этические аспекты, которая позволит учесть влияние ИИ на участников социально- профессиональных коммуникаций в медицинской сфере, организационные структуры и общественные ценности. Это позволит более эффективно проанализировать возможные социальные последствия внедрения искусственного интеллекта в медицинскую деятельность и разработать релевантные стратегии управления рисками.