Эта статья является препринтом и не была отрецензирована.
О результатах, изложенных в препринтах, не следует сообщать в СМИ как о проверенной информации.
Explainable Artificial Intelligence in Medical Diagnostics: Bridging Accuracy and Trust
2025-12-14
В статье рассматривается проблема ограниченной интерпретируемости систем искусственного интеллекта, применяемых в медицинской диагностике. Несмотря на высокую точность современных моделей машинного обучения, их практическое внедрение в клиническую среду сдерживается недостаточной прозрачностью и сложностью объяснения принимаемых решений. В работе предложена авторская аналитическая структура Explainable Artificial Intelligence (XAI), ориентированная на клинические задачи и уровень диагностического риска. В отличие от обзорных исследований, представлена структурированная таксономия методов XAI, классифицирующая их по клинической применимости и потенциальным источникам неверной интерпретации. Обобщаются современные исследования и анализируются компромиссы между точностью диагностики и удобством использования объяснений. Предложенный подход может быть использован врачами, исследователями и разработчиками интеллектуальных медицинских систем при выборе и внедрении XAI-методов в практику здравоохранения.
Ссылка для цитирования:
Назаров Д. 2025. Explainable Artificial Intelligence in Medical Diagnostics: Bridging Accuracy and Trust. PREPRINTS.RU. https://doi.org/10.24108/preprints-3114081
Список литературы
1. Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning. arXiv preprint arXiv:1702.08608.
2. Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). "Why should I trust you?": Explaining the predictions of any classifier. Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining.
3. Lundberg, S. M., & Lee, S. I. (2017). A unified approach to interpreting model predictions. Advances in Neural Information Processing Systems, 30.
4. Samek, W., Wiegand, T., & Müller, K. R. (2017). Explainable artificial intelligence: Understanding, visualizing and interpreting deep learning models. arXiv preprint arXiv:1708.08296.
5. Tjoa, E., & Guan, C. (2020). A survey on explainable artificial intelligence (XAI): Toward medical XAI. IEEE Transactions on Neural Networks and Learning Systems, 32(11).
6. European Commission. (2021). Ethics guidelines for trustworthy AI. Digital Strategy Publications.
7. 15.E. Usupova and A. Khan, “Optimizing ML Training with Perturbed Equations,” 2025 6th International Conference on Problems of Cybernetics and Informatics (PCI), Baku, Azerbaijan, 2025, pp. 1-6, doi: 10.1109/PCI66488.2025.11219819.