Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении

Автор: Шутова А.А.

Журнал: Виктимология @victimologiy

Рубрика: Виктимология преступности

Статья в выпуске: 4 т.10, 2023 года.

Бесплатный доступ

Технологии искусственного интеллекта вызывают все больший интерес в области медицины и являются одним из ключевых направлений цифровой трансформации здравоохранения. По мнению ряда экспертов, медицинских работников и разработчиков цифровых технологий, применение медицинских изделий, оснащенных технологиями искусственного интеллекта, поднимет здравоохранение на высокий уровень, что приведет к улучшению принятия клинических решений, качественному анализу цифровых изображений, прогнозированию и контролю правильности назначаемого лечения. Однако неудачи, связанные с применением медицинских изделий, оснащенных системами искусственного интеллекта, могут иметь серьезные последствия как для клинических результатов, так и для пациентов. Эти последствия могут подорвать доверие общества к технологиям искусственного интеллекта и в целом к учреждениям системы здравоохранения. С учетом определенной новизны технологических решений, данные о клинической эффективности и безопасности продуктов, оснащенных искусственным интеллектом, считаются на данный момент недостаточными. В представленной публикации поднимается два важных вопроса. В первой части исследования описываются основные физические, социальные и психические характеристики (свойства) пациентов, которые повышают вероятность того, что они окажется в роли жертвы при возникновении криминогенной ситуации в сфере оказания инновационных медицинских услуг. Во второй части исследования определяются риски применения технологий искусственного интеллекта в здравоохранении, вызывающие наибольшее беспокойство как у пациентов, так и у лиц, эксплуатирующих инновационные технологии.

Еще

Искусственный интеллект в здравоохранении, цифровая медицина, цифровая преступность, машинное обучение, современные вызовы, этика

Короткий адрес: https://sciup.org/14129583

IDR: 14129583   |   DOI: 10.47475/2411-0590-2023-10-4-492-502

Список литературы Виктимность пациентов и риски применения технологии искусственного интеллекта в здравоохранении

  • khan B., Fatima H., Qureshi A., Kumar S., Hanan A., Hussain J. & Abdullah S. Drawbacks of Artificial Intelligence and Their Potential Solutions in the Healthcare Sector. Biomedical Materials & Devices. 2023;1:731–738. DOI: https://doi.org/10.1007/s44174-023-00063-2
  • Rajpurkar, P., Chen, E., Banerjee, O. &Topol, E. J. AI in health and medicine. Nat. Med. 2022. 28(1):31-38. DOI: https://doi.org/10.1038/s41591-021-01614-0
  • Singh RP, Hom GL, Abramoff MD, Campbell JP & Chiang MF. Current challenges and barriers to real-world artificial intelligence adoption for the healthcare system, provider, and the patient. Transl. Vis. Sci. Technol. 2020;9(2):45. DOI: https://doi.org/10.1167/tvst.9.2.45.
  • Kaplan A, Haenlein M. Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Bus Horiz. 2019;62(1):15–25. DOI: https://doi.org/10.1016/j.bushor.2018.08.004.
  • Dreyer K, Allen B. Artificial intelligence in health care: brave new world or golden opportunity? J Am CollRadiol. 2018;15(4):655–657. DOI: https://doi.org/10.1016/j.jacr.2018.01.010.S1546-1440(18)30032-2.
  • Asan O, Bayrak AE, Choudhury A. Artificial Intelligence and Human Trust in Healthcare: Focus on Clinicians. J Med Internet Res. 2020;22(6):e15154. DOI: https://doi.org/10.2196/15154.
  • Esmaeilzadeh P, Mirzaei T, Dharanikota S. Patients' Perceptions Toward Human-Artificial Intelligence Interaction in Health Care: Experimental Study. J Med Internet Res. 2021;23(11):e25856. DOI: https://doi.org/10.2196/25856.
  • Khazizulin VB. Patient as an element of the mechanism for providing medical care. Viktimologiya [Victimology]. 2023;10(1):107–114. (In Russ.). DOI: https://doi.org/10.47475/2411-0590-2023-10111.
  • Vlasenkova AO, Guznova AD, Prokin AA. Trends in the development of mobile applications. E-Scio. 2023;(5):388-396. (In Russ.).
  • Hatherley JJ. Limits of trust in medical AI. J Med Ethics. 2020;46(7):478-481. DOI: https://doi.org/10.1136/medethics-2019-105935..
  • Mullakhmetova NE. Victimological aspects of iatrogenic crimes. Viktimologiya [Victimology]. 2022;9(2):157-165. (In Russ.). DOI: https://doi.org/10.47475/2411-0590-2022-19203.
  • Quinn TP, Senadeera M, Jacobs S, Coghlan S, Le V. Trust and medical AI: the challenges we face and the expertise needed to overcome them. J Am Med Inform Assoc. 2021;28(4):890-894. DOI: https://doi.org/10.1093/jamia/ocaa268.
  • Lemogne C. L'empathieenmédecine, nécessairemais non dénuée de risques [EMPATHY IN MEDICINE, NECESSARY BUT NOT FREE FROM RISKS]. Rev Prat. 2015;65(8):1027-1030. (In French.). PMID: 26749697.
  • Calnan M, Rowe R. Researching trust relations in health care: conceptual and methodological challenges–introduction. J Health Organ Manag. 2006;20:349–358. DOI: https://doi.org/10.1108/14777260610701759.
  • Dmitrieva EV. Patient - Health Care Provider Communication in the Digital Era. Communicology. 2020;8(3):150-162. (In Russ.). DOI: https://doi.org/10.21453/2311-3065-2020-8-3-150-162.
  • Parry MW, Markowitz JS, Nordberg CM. et al. Patient Perspectives on Artificial Intelligence in Healthcare Decision Making: A Multi-Center Comparative Study. JOIO. 2023;57:653–665. DOI: https://doi.org/10.1007/s43465-023-00845-2.
  • Gusev AV, Astapenko EM, Ivanov IV, Zarubina TV, Kobrinsky BA. Principles of building trust in artificial intelligence systems for healthcare. Vestnik Roszdravnadzora [Bulletin of Roszdravnadzor]. 2022;(2):25-33. (In Russ.).
  • Kharitonova YuS. Legal means of ensuring the transparency principle of artificial intelligence. Journal of Digital Technologies and Law. 2023;1(2):337–358. (In Russ.). DOI: https://doi.org/10.21202/jdtl.2023.14.
  • Kleinberg G, Diaz MJ, Batchu S, Lucke-Wold B. Racial underrepresentation in dermatological datasets leads to biased machine learning models and inequitable healthcare. J Biomed Res (Middlet). 2022;3(1):42-47. PMID: 36619609; PMCID: PMC9815490.
  • Basu K, Sinha R, Ong A, Basu T. Artificial Intelligence: How is It Changing Medical Sciences and Its Future? Indian J Dermatol. 2020;65(5):365-370. DOI: https://doi.org/10.4103/ijd.IJD_421_20.
  • Gallese-Nobile K. Legal aspects of the use of artificial intelligence in telemedicine. Journal of Digital Technologies and Law. 2023;1(2):314–336. (In Russ.). DOI: https://doi.org/10.21202/jdtl.2023.13.
  • Hallowell, N., Badger, S., Sauerbrei, A. et al. “I don’t think people are ready to trust these algorithms at face value”: trust and the use of machine learning algorithms in the diagnosis of rare disease. BMC MedEthics. 2022;23:Art.112. DOI: https://doi.org/10.1186/s12910-022-00842-4.
Еще
Статья научная