Этическая составляющая использования искусственного интеллекта в здравоохранении
Автор: Васильев А.В., Свищв А.В.
Журнал: Международный журнал гуманитарных и естественных наук @intjournal
Рубрика: Технические науки
Статья в выпуске: 11-2 (98), 2024 года.
Бесплатный доступ
В статье рассматривается этическая составляющая, связанная с применением персональных данных пользователя с участием искусственного интеллекта, в сфере здравоохранения. Искусственный интеллект представляет собой мощный инструмент для анализа данных, управления, автоматизации процессов, а также диагностики, однако использование ИИ провоцирует ряд вопросов, связанных с этикой и безопасностью данных. Также в статье затрагиваются основные риски и противоречия, связанные с этикой, с которыми сталкиваются разработчики и пользователи ИИ в медицинских системах. Рассматриваются вопросы конфиденциальности данных, а также способы разрешения существующих проблем для обеспечения доверительного использования новых и полезных технологий в чувствительных областях.
Медицина, здравоохранение, искусственный интеллект, конфиденциальность данных, этика
Короткий адрес: https://sciup.org/170208297
IDR: 170208297 | DOI: 10.24412/2500-1000-2024-11-2-157-160
Текст научной статьи Этическая составляющая использования искусственного интеллекта в здравоохранении
Искусственный интеллект (ИИ) – это термин, применяемый к машине или программному обеспечению, который относится к способности имитировать разумное поведение человека, производить быстрые вычисления, решать неформализованные и нестандартные проблемы проблем и давать оценку новым данным на основе ранее оцененных [1].
Использование искусственного интеллекта стремительно расширяется и охватывает самые разные области человеческой жизни, включая такие критически важные области, как здравоохранение. Ввиду того, что данная отрасль оказывает значительное влияние на жизнь и благополучие людей, внедрение новых технологий в нее требует особого внимания.
Объем мирового рынка ИИ в здравоохранении неуклонно растет, что виднно на одной статистике Соединенных Штатов Америки, во всем остальном мире наблюдается аналогичная картина – рынок ИИ в сфере медицины развивается и расширяется [2].
Рис. 1. Прогноз объема рынка ИИ в здравоохранении США
В медицине ИИ помогает в диагностике, прогнозировании и персонализированном лечении, что, в свою очередь, позволяет посмотреть на каждый конкретный случай с альтернативной точки зрения, отличной от точки зрения лечащего врача.
Во-первых, ИИ-технологии помогают в диагностике, позволяя врачам быстрее и точнее распознавать патологии, а также редкие и трудно диагностируемые заболевания. Во-вторых, ИИ можно использовать в качестве инструмента для прогнозирования, что позволяет предсказать интенсивность развития болезни и оптимизировать процесс лечения пациента. В-третьих, ИИ-системы применяются в качестве поддержки при принятии решений врачами, предлагая персонализированные варианты лечения на основании проанализированных данных из большого числа случаев.
Это значит, что уменьшается вероятность того, что какой-либо важный фактор будет упущен из виду или не принят во внимание. Таким образом, ИИ является помощником и улучшает качество лечения [3].
Ввиду перечисленных преимуществ ИИ в данной области становится ясно, что таким инструментом нужно пользоваться. В качестве примера рассмотрим IBM Watson – суперкомпьютер, имеющий подразделение Watson Health, основное направление деятельности которого именно использование в медицинских целях. Компьютер был обеспечен огромных количеством данных: энциклопедиями, базами научных статей, а также, что самое важное, –медицинскими картами и снимками. На текущий момент Watson Health применяется в диагностировании онкологических заболеваний, а также, например, в поиске признаков порока сердца на УЗИ.
Фактически, роль искусственного интеллекта в здравоохранении заключается в анализе данных о здоровье пациентов, улучшении диагностики и результатов, а также в содействии ускорению исследовательской деятельности в области здравоохранения.
Как уже было сказано, ИИ в здравоохранении использует большие объемы данных пациентов. Основная проблема заключается в защите конфиденциальности этих данных:
-
1. Риски утечки
-
2. Согласие на использование данных
Данные пациентов являются персональными, а их утечка может привести к последстви- ям, включая нарушения действующего законодательства.
Пациенты должны быть осведомлены о том, что их данные будут использоваться для обучения ИИ, поэтому необходимы прозрачные механизмы информированного согласия.
Помимо этого, в медицине требуется высокий уровень доверия, а значит врачи должны понимать логику, стоящую за тем или иным предлагаемым ИИ решением, а так как ИИ основан на сложной модели, достигнуть объ-яснимости может быть сложно. Отсутствие прозрачности может снизить доверие со стороны медицинских работников и пациентов, так как решения могут показаться необоснованными [3].
Для пациентов крайне важен факт непредвзятости используемых методов, ведь может быть такая ситуация, что алгоритм обучен на данных, которые в значительной степени представлены одной группой, например, по этническому принципу или социальноэкономическому статусу, что противоречит принципу равенства в здравоохранении [4].
Важным моментом также является вопрос несения ответственности. Если ИИ сделает ошибку, кто будет нести ответственность – разработчики, поставщики услуг здравоохранения или сами пользователи системы? Соответственно, необходимо вести работу, направленную на создание законодательной базы для контроля вопросов, связанных с искусственным интеллектом. Не помешает также принятие единых международных стандартов, регулирующих применение ИИ в сфере здравоохранения с целью восполнения юридических пробелов в трансграничном использовании ИИ.
Вышеперечисленные проблемы требуют решения, исправления или минимизации, а значит нужно принимать какие-либо решения в этом направлении.
Для защиты данных пациентов необходимо предусмотреть такие методы обезличивания данных, которые бы не позволяли идентифицировать пациента, но и не влияли на моменты, которые могли бы быть полезными для обучающегося алгоритма. Ввиду того, что ИИ – это дополнительный канал взаимодействия с данными, то повышается риск утечки. Соответственно, для передачи таких данных нуж- но предусмотреть методы шифрования, которые позволят защититься от несанкционированного доступа.
Только уполномоченные на то лица должны иметь возможность просматривать или использовать данные для работы с ИИ, а для этого нужна многоуровневая аутентификация и регулярный аудит доступа для поддержания безопасности.
Для понимания пользователем следует ввести дополнительные согласия, которые будут содержать информацию о том, какие данные используются, на протяжении какого времени они будут храниться и для какой конкретной задачи будут использоваться. Более того, такие согласия должны носить регулярный ха- рактер для предоставления пациенту возможности пересмотра своего мнения.
Вопросы касающиеся понимания и прозрачности требуют особого внимания. Важно, чтобы алгоритмы ИИ были «объяснимыми», это может быть достигнуто за счет создания прозрачных моделей ИИ, таких как метод LIME (Local Interpretable Model-agnostic Explanations), которые объясняют, какие факто- ры повлияли на результат анализа данных. Помимо этого, чтобы принимать обоснованные решения и использовать рекомендации
ИИ с уверенностью, должны быть сотрудники, понимающие основные принципы работы с искусственным интеллектом. Для этого помогут специальные образовательные программы для медицинских работников [5].
Вопросы обеспечения непредвзятости могут быть решены посредством контроля наборов данных, используемых для обучения алгоритмов, а также интегрировать в работу ИИ процедуры регулярного тестирования для своевременного нахождения ошибок для определенной группы пациентов.
Для контроля с юридической стороны необходимо разработать нормативные акты, регулирующие использование искусственного интеллекта в здравоохранении. Данные зако- ны должны предусматривать ответственность сторон, связанных с применением ИИ, включая разработчиков, медицинские учреждения и поставщиков ИТ-услуг.
Таким образом, внедрение искусственного интеллекта в медицинскую сферу имеет огромный потенциал, однако сопровождается рядом этических проблем, решение которых требует не только технических усилий, но и широких нормативных и юридических мер, а также вовлечения пациентов и медицинских работников в процесс принятия решений.
Список литературы Этическая составляющая использования искусственного интеллекта в здравоохранении
- Ethical Issues of Artificial Intelligence in Medicine and Healthcare. - [Электронный ресурс]. - Режим доступа: https://pmc.ncbi.nlm.nih.gov/articles/PMC8826344/(дата обращения: 07.11.2024).
- Artificial Intelligence (AI) in Healthcare Market Size Expected to Reach USD 613.81 Bn by 2034. - [Электронный ресурс]. - Режим доступа: https://www.globenewswire.com/news-release/2024/08/12/2928598/0/en/Artificial-Intelligence-AI-in-Healthcare-Market-Size-Expected-to-Reach-USD-613-81-Bn-by-2034.html (дата обращения: 07.11.2024).
- Аверьянова О.А. Искусственный интеллект в условиях современной медицины / О.А. Аверьянова, В.И. Коршак // Естественные и математические науки в современном мире. - 2016. - №5 (40). - С. 36. EDN: VWNWBF
- Алексеева, М.Г. Искусственный интеллект в медицине / М.Г. Алексеева, А.И. Зубов, М.Ю. Новиков // Международный научно-исследовательский журнал. - 2022. - № 7-2(121). - С. 10-13. DOI: 10.23670/IRJ.2022.121.7.038 EDN: JMMMDF
- Standards in Artificial Intelligence in Healthcare. - [Электронный ресурс]. - Режим доступа: https://tadviser.com/index.php/Article:Standards_in_Artificial_Intelligence_in_Healthcare (дата обращения: 07.11.2024).