Объединение устойчивости и объяснимости в разработке безопасных систем искусственного интеллекта

Автор: Жалилов А.А., Токторбаев А.М.

Журнал: Бюллетень науки и практики @bulletennauki

Рубрика: Технические науки

Статья в выпуске: 12 т.10, 2024 года.

Бесплатный доступ

Рассматриваются критические проблемы, связанные с обеспечением безопасности и надежности систем (ИИ), особенно в таких важных приложениях, как автономные транспортные средства, здравоохранение и финансовые технологии. Основная цель - выявить уязвимости в алгоритмах ИИ и предложить эффективные стратегии смягчения. Особое внимание уделяется современным угрозам, включая состязательные атаки, алгоритмическую непрозрачность, утечки данных и этические последствия развертывания ИИ. Состязательные атаки, при которых незначительные возмущения входных данных вызывают существенные ошибки классификации, представляют значительный риск для надежности ИИ. Такие методы, как надежное обучение, включающее модели обучения на состязательных примерах, показали эффективность в повышении устойчивости, хотя и с более высокими вычислительными требованиями. Рассматриваются инструменты ИИ (XAI), такие как LIME и SHAP, которые повышают прозрачность, проясняя процессы принятия решений сложных моделей. Прозрачность жизненно важна для укрепления доверия пользователей, особенно в таких областях, как медицина и финансы, где понимание решений ИИ имеет важное значение. Подходы XAI обеспечивают лучший надзор и соблюдение этических стандартов. Проблемы конфиденциальности данных решаются с помощью таких методов, как дифференциальная конфиденциальность, которая защищает конфиденциальную информацию путем добавления шума, и федеративное обучение, которое позволяет проводить децентрализованное обучение модели без раскрытия необработанных данных. Результаты показывают, что эти стратегии защищают данные, сохраняя при этом эффективность модели. Интегрируя надежность и объяснимость, это исследование вносит практические решения для укрепления систем ИИ против развивающихся угроз, повышения безопасности ИИ и укрепления доверия к этим технологиям.

Еще

Безопасность искусственного интеллекта, надежность ии, этические стандарты

Короткий адрес: https://sciup.org/14131721

IDR: 14131721   |   DOI: 10.33619/2414-2948/109/23

Список литературы Объединение устойчивости и объяснимости в разработке безопасных систем искусственного интеллекта

  • Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014). Explaining and harnessing adversarial examples. arXiv preprint arXiv:1412.6572. DOI: 10.48550/arXiv.1412.6572
  • Mądry, A., Makelov, A., Schmidt, L., Tsipras, D., & Vladu, A. (2017). Towards deep learning models resistant to adversarial attacks. stat, 1050(9).
  • Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). " Why should i trust you?" Explaining the predictions of any classifier. In Proceedings of the 22nd ACM SIGKDD international conference on knowledge discovery and data mining (pp. 1135-1144). DOI: 10.1145/2939672.293977
  • Zeiler, M. D. (2014). Visualizing and Understanding Convolutional Networks. In European conference on computer vision/arXiv (Vol. 1311).
  • Abadi, M., Chu, A., Goodfellow, I., McMahan, H. B., Mironov, I., Talwar, K., & Zhang, L. (2016). Deep learning with differential privacy. In Proceedings of the 2016 ACM SIGSAC conference on computer and communications security (pp. 308-318). DOI: 10.1007/978-3-319-10590-1_53
  • McMahan, B., Moore, E., Ramage, D., Hampson, S., & y Arcas, B. A. (2017).Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics (pp. 1273-1282). PMLR. DOI: 10.1145/2976749.2978318
  • Shokri, R., Stronati, M., Song, C., & Shmatikov, V. (2017). Membership inference attacks against machine learning models. In 2017 IEEE symposium on security and privacy (SP) (pp. 3-18). IEEE. DOI: 10.1109/SP.2017.41
Еще
Статья научная