Нечѐткие продукционные правила и нейросети глубокого обучения: объяснимый искусственный интеллект 2.0 для диагностики коронарных стенозов
Автор: Трофимов Ю.В., Семашко В.С., Муравьев И.П., Кузнецов Е.М., Аверкин А.Н.
Журнал: Сетевое научное издание «Системный анализ в науке и образовании» @journal-sanse
Рубрика: Моделирование и анализ данных
Статья в выпуске: 2, 2025 года.
Бесплатный доступ
В статье предлагается мультиуровневый подход к диагностике коронарных стенозов, основанный на глубоком обучении и нечѐткой логике. Рассматриваются проблемы нехватки размеченных данных, решается путем доаннотации датасета CADICA. Реализован алгоритм, включающий сегментацию сосудов с помощью модифицированной сверточной сети U-Net и CRF, дополненный методами XAI (Grad-CAM, LIME, Score-CAM). Добавлен нейро-нечѐткий модуль ANFIS для преобразования активаций модели в правила. Подход обеспечивает высокую точность сегментации (Dice ≈ 0,84; IoU ≈ 0,78) и надежность диагностики даже при слабо выраженной патологии. Полученные результаты подтверждают повышение доверия специалистов благодаря интеграции механизмов объяснимого ИИ.
Эхокардиография, сегментация изображений, глубокие нейронные сети, объяснимый искусственный интеллект, нейро-нечѐткие системы, коронарные стенозы
Короткий адрес: https://sciup.org/14133180
IDR: 14133180 | УДК: 004.8
Fuzzy production rules and deep learning neural networks: explicable artificial intelligence 2.0 for the diagnosis of coronary stenosis
The article proposes a multi-level approach to diagnosing coronary stenosis based on deep learning and fuzzy logic. It addresses problems of insufficient labeled data through additional annotation of the CADICA dataset. An algorithm has been implemented including vessel segmentation using a modified U-Net network and CRF, augmented with XAI methods (Grad-CAM, LIME, Score-CAM). A neuro-fuzzy module ANFIS transforms model`s activations into rules. The approach provides high segmentation accuracy (Dice ≈ 0.84; IoU ≈ 0.78) and diagnostic reliability even in subtle pathology cases. Results confirm in-creased expert trust due to integration of explainable AI mechanisms.