Этические аспекты использования искусственного интеллекта в медицинской сфере: социологический анализ
Автор: Ярошук Ю.М.
Журнал: Известия Санкт-Петербургского государственного экономического университета @izvestia-spgeu
Рубрика: Творчество молодых ученых
Статья в выпуске: 4 (154), 2025 года.
Бесплатный доступ
Статья посвящена исследованию роли этических аспектов и этических дилемм, возникающих в процессе использования технологий и инструментов на основе искусственного интеллекта в сфере деятельности медицинских организаций и учреждений. В статье описано применение искусственного интеллекта в медицинской сфере, рассмотрены социологические подходы к изучению новых технологий и их социального влияния, представлены этические основания использования искусственного интеллекта в медицине, а также выявлены основные этические дилеммы, связанные с применением искусственного интеллекта в медицинской сфере, представлено их рассмотрение с точки зрения социологии управления.
Искусственный интеллект в медицине, этические аспекты использования искусственного интеллекта, этические дилеммы, новые технологии в медицине, регулирование искусствен- ного интеллекта, управление искусственным интеллектом, управление искусственным интеллектом в медицине
Короткий адрес: https://sciup.org/148331867
IDR: 148331867
Текст научной статьи Этические аспекты использования искусственного интеллекта в медицинской сфере: социологический анализ
На современном этапе развития общественных отношений наблюдается кратный (и даже – экспоненциальный) рост использования технологий и инструментов на основе искусственного интеллекта (ИИ) практически во всех сферах общественной жизни. Системы здравоохранения развитых стран мира и сфера деятельности медицинских учреждений не являются исключением [6].
ГРНТИ 04.51.69
EDN CPJYID
Юлия Михайловна Ярошук – ассистент кафедры социологии и управления персоналом Санкт-Петербургского государственного экономического университета. ORCID 0000-0001-5400-3387
Такая тенденция обусловлена, в первую очередь, потенциалом ИИ в возможностях повышения эффективности и доступности медицинских услуг для населения. Так, сегодня с помощью новых технологий в медицине открываются возможности от точной и оперативной диагностики заболеваний до разработки персонализированных планов лечения и автоматизации рутинных задач. Грамотное и рациональное использование искусственного интеллекта способно стать эффективным драйвером для внедрения изменений в борьбу с тяжелыми заболеваниями и улучшения качества жизни граждан.
Однако, наряду с неоспоримыми преимуществами, активное внедрение ИИ в рутинную медицинскую практику сопровождается возникновением и обострением сложных этических проблем, требующих тщательного и всестороннего анализа [2, с. 46]. Вопросы, связанные с ответственностью за принятие решений с помощью или на основе технологий ИИ, с защитой персональных данных потребителей медицинских услуг, с обеспечением справедливости и доступности передовых технологий, с сохранением автономии пациента и снижением рисков дегуманизации медицинской помощи – это лишь некоторые из этических вызовов, стоящих перед современным обществом.
В этой связи, целью настоящего исследования является выявление и анализ основных этических дилемм, связанных с использованием искусственного интеллекта в медицинской сфере, рассмотрение их с точки зрения социологии управления. Использование социологического подхода позволяет исследовать рассматриваемые проблемы как с позиции отдельных субъектов социально-профессиональных коммуникаций в здравоохранении (сотрудников медицинского учреждения и потребителей медицинских услуг), так и в контексте социальных институтов, норм и ценностей, а также проанализировать влияние ИИ на социальную структуру и общественные отношения в сфере здравоохранения.
К задачам исследования относится определение основных направлений применения ИИ в современной медицине, изучение социологических подходов к исследованию новых технологий и их социального влияния, определение этических оснований использования искусственного интеллекта в медицине, а также выявление ключевых этических проблем и дилемм, возникающих в связи с внедрением ИИ в медицинскую практику.
Материалы и методы
Проведенное исследование основывается на анализе ключевых теоретических подходов и научных работ специалистов, занимающихся изучаемой проблематикой, посвященных изучению влияния ИИ на деятельность в медицинской сфере, теоретическом анализе специфики возникающих этических дилемм при использовании ИИ в медицине.
Применение искусственного интеллекта в медицинской сфере
В условиях возрастающей нагрузки на систему здравоохранения в целом, а также в ситуации увеличения объема медицинских данных, которыми оперируют медицинские организации и учреждения, искусственный интеллект становится перспективным инструментом для повышения эффективности деятельности и развития возможностей повышения качества оказания медицинской помощи населению, т.е. потребителям медицинских услуг [1, с. 41].
Современная медицинская практика большинства стран мира проходит период активной интеграции искусственного интеллекта в свою текущую деятельность. В настоящее время автоматизация рутинных операций в сфере деятельности медицинских организаций и учреждений, оптимизация ряда рабочих процессов, предиктивная аналитика и постепенно входящая в рутинную практику в ряде направлений деятельности персонализированная медицина – это лишь некоторые из областей, где искусственный интеллект уже сегодня способен демонстрировать свой потенциал.
Наряду с автоматизацией рутинных операций, таких как обработка данных и включение в процессы администрирования, инструменты и технологии на базе ИИ находят свое применение в более сложных областях, требующих навыков аналитического мышления и принятия решений. Так, диагностические процедуры становятся все более точной областью благодаря специальным системам, анализирующим медицинские снимки и выявляющим признаки заболеваний на ранних стадиях, что особенно актуально в онкологии и кардиологии – областях, занимающих первые места по числу летальных исходов и тяжелого течения заболеваний [7, с. 7].
При разработке новых лекарственных препаратов различных типов также могут быть использованы возможности ИИ, который способен ускорить поиск необходимых молекул и более точно предсказы- вать эффективность лекарственных средств, тем самым ускоряя процесс проведения сложных клинических исследований. Искусственный интеллект, применяемый при построении и реализации прогностических моделей, способен предиктивно предсказывать потенциальные риски развития заболеваний и, соответственно, своевременно проводить профилактические мероприятия. В управленческом аспекте в целях оптимизации ресурсов и повышения эффективности работы медицинских учреждений (что способствует повышению качества оказания медицинских услуг населению) искусственный интеллект применяется в процессах управления здравоохранением.
Несмотря на все преимущества и потенциальный положительный эффект от внедрения искусственного интеллекта в медицинскую практику, его применение несет за собой значительные риски проявления технологических, а также сложных социальных и этических последствий, требующих тщательного осмысления и необходимости регулирования. Вопросы ответственности за принятые решения, прозрачности алгоритмов, конфиденциальности данных, возможной дискриминации и дегуманизации медицинской практики становятся ключевыми для социологического анализа, направленного на выявление и предотвращение негативных эффектов, связанных с интеграцией ИИ в систему здравоохранения. Дальнейшее исследование этих аспектов позволит сформировать социально-этические рамки для ответственного и эффективного использования ИИ в медицине, обеспечивая баланс между технологическим прогрессом и соблюдением прав и интересов потребителей медицинских услуг.
Социологические подходы к изучению новых технологий и их социального влияния
Изучение социальных последствий внедрения новых технологий, в частности, искусственного интеллекта в медицине, требует применения разнообразных социологических подходов, позволяющих комплексно оценить их воздействие на различные аспекты общественной жизни. Социологический анализ не ограничивается констатацией технологических изменений, а ставит целью выявить их влияние на социальные структуры, отношения, ценности и нормы, а также на индивидуальный опыт, социальные установки и поведение людей.
Одним из ключевых подходов является теория, связанная с социальным конструированием технологий, которая акцентирует внимание на том, что технологии не являются нейтральными и объективными, а формируются под влиянием социальных факторов, интересов и ценностей различных групп. В контексте ИИ в медицине этот подход позволяет проанализировать, как интересы разработчиков в сфере здравоохранения, врачей-специалистов, пациентов, страховых компаний и государства влияют на разработку, внедрение и использование этих технологий. Особое внимание стоит уделить интерпретациям и значениям, которые разные социальные группы приписывают ИИ, и тому, как эти интерпретации формируют социальное восприятие и принятие или непринятие технологии.
Другим важным подходом, который применяется в социальных исследованиях и может быть использован в данном контексте, является акторно-сетевая теория [3, с. 138-139], рассматривающая технологии как активного участника социальных сетей, действующую единицу социальных отношений, влияющую на коммуникацию между людьми. В исследовании применения ИИ в медицине этот подход позволяет проанализировать, как возможности искусственного интеллекта изменяют социальные роли и взаимоотношения между представителями медицинских учреждений и потребителями медицинских услуг (например, между врачами и пациентами), а также между врачами и другими медицинскими работниками, между медицинскими учреждениями, организациями и страховыми компаниями. Акторносетевая теория акцентирует внимание на том, как ИИ становится частью сложных социальных сетей, и как эти сети влияют на его развитие и дальнейшее применение.
Кроме того, в рассмотрении предложенной проблематики может быть применена теория диффузии инноваций, описывающая процесс распространения новых технологий в обществе [5, с. 5]. Данная теория позволяет проанализировать, какие факторы способствуют и какие препятствуют внедрению инструментов и технологий на основе ИИ в медицинскую практику, какие социальные группы населения быстрее принимают эти технологии как часть своей повседневной жизни, а какие остаются консервативными, и мы можем наблюдать сопротивление нововведениям.
Также важно учитывать феноменологический подход, который фокусируется на индивидуальном опыте и восприятии человеком новых технологий. Феноменология позволяет понять, как врачи (медицинские работники) и пациенты (потребители медицинских услуг) воспринимают внедрение ИИ в медицину, какие чувства и эмоции вызывает этот процесс у данных социальных групп, какие изменения происходят в их самосознании. В рамках этого подхода особое внимание стоит уделить изучению влияния искусственного интеллекта на формирование доверия у населения к системе здравоохранения, а также исследованию влияния на социально-профессиональные коммуникации формата «врач-пациент».
В цифровую эпоху быстро изменяющейся современной социальной реальности важным аспектом является изучение влияния социальных сетей и социальных медиа, средств массовой информации и межличностной коммуникации на распространение информации об искусственном интеллекте и на формирование общественного мнения. Использование в анализе возможностей управления социальными процессами различных социологических подходов в совокупности позволит получить более глубокое и всестороннее понимание потенциальных социальных последствий внедрения инструментов и технологий на основе ИИ в медицинскую деятельность и разработать эффективные стратегии для управления этими изменениями. Вот почему социологический анализ должен стать неотъемлемой частью разработки и внедрения новых медицинских технологий, использующих искусственный интеллект, чтобы гарантировать их соответствие запросам и ценностям современного общества.
Этические основания использования искусственного интеллекта в медицине
Несмотря на то, что внедрение ИИ в медицину открывает беспрецедентные возможности для диагностики, лечения и профилактики различных, в особенности, социально значимых заболеваний, этот процесс сопряжен с постоянно растущим числом возникающих острых этических вопросов, требующих тщательного анализа и проработки [4, с. 97-98].
Этические основания применения искусственного интеллекта в здравоохранении должны быть взяты в основу разработки и внедрения этих технологий для того, чтобы гарантировать соблюдение прав потребителей медицинских услуг, обеспечение и поддержание необходимого уровня доверия к системе здравоохранения и предотвращение потенциального вреда, который могут повлечь за собой внедряемые новации. Так, в настоящем исследовании сформулированы основные принципы, определяющие использование искусственного интеллекта в медицинской практике (рисунок 1).

Благополучие потребителей медицинских услуг
Автономия потребителей медицинских услуг
Справедливость и равенство в доступе к технологиям и инструментам на основе ИИ
Минимизация потенциального вреда
Рис. 1. Ключевые этические принципы внедрения искусственного интеллекта в медицинскую деятельность
Центральным этическим принципом, определяющим использование ИИ в медицине, является благополучие потребителей медицинских услуг. Применение искусственного интеллекта должно быть направлено на улучшение здоровья пациентов, повышение качества диагностических и лечебных манипуляций и процедур, снижение риска возможных ошибок и неблагоприятных побочных эффектов. В этой связи необходимо соотносить потенциальное улучшение результатов проводимого лечения и вероятность возникновения новых рисков и проблем, поскольку любые инструменты и технологии на основе ИИ не способны стать полноценной заменой врача-специалиста, а являются лишь инструментом, который должен помогать медицинскому работнику принимать более обоснованные решения.
Вторым ключевым принципом является минимизация потенциального вреда. Внедрение ИИ не должно приводить к ухудшению состояния пациентов, нарушению их законных прав или возникновению социального неравенства из-за возможностей доступа к получению качественных медицинских услуг. Такие потенциальные риски, как ошибки в диагностике или процессе лечения, утечка конфиденциальной информации и персональных данных, дискриминация на основе данных ИИ и другие должны быть оценены, взвешены и учтены посредством, например, внедрения механизмов защиты и контроля.
Третьим важным принципом является автономия потребителей медицинских услуг, которые по-прежнему должны иметь право принимать осознанные решения, касающиеся своего лечения, в том числе связанные с использованием ИИ. Медицинским работникам необходимо обеспечить предоставление пациентам полной и понятной информации о возможностях и рисках использования искусственного интеллекта, об альтернативных методах лечения, а также дать возможность отказа от использования ИИ, не опасаясь негативных последствий.
Четвертым принципом является справедливость и равенство в доступе к технологиям и инструментам на основе ИИ для всех пациентов, вне зависимости от их социального статуса, национальной принадлежности, географического положения и прочих характеристик во избежание ситуации, когда какие-либо социальные группы остаются без доступа к современным медицинским технологиям.
Однако, даже в условиях соблюдения этих базовых этических принципов не существует гарантий невозможности возникновения потенциальных проблем. В медицинской практике возникают и будут возникать сложные этические дилеммы, связанные с использованием ИИ в медицинской деятельности. Так, например, возникают вопросы, связанные с распределением зон ответственности, понятностью и прозрачностью алгоритмов, безопасностью и конфиденциальностью данных потребителей медицинских услуг, предвзятостью и потенциальной дискриминацией, а также рисками дегуманизацией медицины (рисунок 2).
Зоны ответственности за ошибки |
Кто будет нести ответственность за ошибки, допущенные ПИ в процессе диагностических или лечебных процедур и манипуляций? |
Прозрачность алгоритмов принятия решений |
Как обеспечить прозрачность алгоритмов, используемых ИИ, чтобы медицинским работникам п потребителям медицинских услуг было понятно, на каких данных основано принятие решений? |
Конфиденциальность и безопасность данных |
Как защитить конфиденциальную медицинскую информацию потребителей медицинских услуг от несанкционированного доступа и использования? |
Предвзятость и дискриминация |
Как избежать предвзятости в алгоритмах, используемых ИИ, которые могут приводить к дискриминации определенных социальных групп среди потребителей медицинских услуг? |
Дегуманизация медицины |
Как грамотно сохранить человеческий компонент в процессе оказания медицинских услуг и не допустить, чтобы ИИ полностью заменил медицинских работников, разрушив доверительные отношения между ними и потребителями медицинских услуг ? |
Рис. 2. Этические дилеммы, связанные с внедрением искусственного интеллекта в медицинскую практику
Решение этих этических вопросов требует междисциплинарного подхода, включающего участие медицинских работников, разработчиков ИИ, юристов, этиков, пациентов, пациентских сообществ и представителей широкой общественности. Необходимо разработать четкие этические нормы и правила, регулирующие использование ИИ в медицине, а также создать механизмы контроля и надзора за их соблюдением. Только в этом случае мы сможем в полной мере реализовать потенциал ИИ для улучшения здоровья людей, не подвергая при этом риску их права и благополучие.
Заключение
Внедрение искусственного интеллекта в медицинскую сферу получает все большее распространение благодаря его перспективным возможностям в контексте повышения эффективности оказания качественных медицинских услуг и потенциальному расширению доступности медицинской помощи. Современные технологии позволяют проводить точную и оперативную диагностику, разрабатывать персонализированные планы лечения, автоматизировать рутинные задачи. Ответственное и рациональное применение ИИ в деятельности медицинских организаций и учреждений может стать ключевым фактором для положительных изменений в борьбе с тяжелыми заболеваниями и в процессе нацеленности на повышение качества жизни граждан.
Системы на основе ИИ успешно применяются для обработки и анализа медицинских изображений (рентген, КТ, МРТ), выявления патологий на ранних стадиях, разработки индивидуальных планов лечения и прогнозирования рисков развития заболеваний. Это позволяет врачам-специалистам быстрее и точнее ставить диагнозы, принимать более обоснованные решения и уделять больше времени непосредственной коммуникации с пациентами, повышая тем самым качество и доступность медицинской помощи. Несмотря на очевидные преимущества, внедрение ИИ в медицину порождает ряд острых этических проблем, требующих тщательного рассмотрения и регулирования. Прежде всего, необходимо решать вопросы, связанные с определением зон ответственности, обеспечением понятности и прозрачности работы алгоритмов, защитой данных пациентов, предотвращением предвзятости и дискриминации, а также сохранением эмпатии и гуманности в медицинской практике.
Таким образом, только комплексный и системный подход к регулированию применения искусственного интеллекта в медицине (в том числе с использованием социологического анализа) позволит в полной мере реализовать его потенциал для улучшения здоровья людей, не подвергая при этом риску их права, здоровье и благополучие.