Уязвимости больших языковых моделей: анализ и методы защиты

Автор: Рахмани Д., Байбара Б.В., Тетов С.Г.

Журнал: Проблемы информатики @problem-info

Рубрика: Теоретическая и системная информатика

Статья в выпуске: 3 (68), 2025 года.

Бесплатный доступ

В статье рассматриваются ключевые уязвимости, связанные с использованием больших языковых моделей (LLM) в корпоративной среде. В последние годы LLM находят широкое применение в различных сферах, включая клиентскую поддержку, маркетинг, анализ данных и автоматизацию бизнес-процессов. Однако их интеграция сопровождается значительными рисками для информационной безопасности, включая утечки конфиденциальных данных, компрометацию систем и генерацию вредоносного контента. В работе анализируются три наиболее критические уязвимости: промпт-инъекции, атаки на цепочку поставок и отравление данных. Для каждой из них приведены формальные модели, примеры эксплуатации и возможные стратегии защиты. Особое внимание уделяется методам предотвращения атак, включая валидацию пользовательского ввода, контроль зависимостей и мониторинг аномалий в поведении модели. Исследование показывает, что, несмотря на активное развитие механизмов защиты, уязвимости в LLM остаются серьезной угрозой, требующей дальнейшего изучения и разработки новых методов противодействия.

Еще

LLM, искусственный интеллект, промпт-инъекция, атака на цепочку поставок, отравление данных

Короткий адрес: https://sciup.org/143185310

IDR: 143185310   |   УДК: 004.89:004.056   |   DOI: 10.24412/2073-0667-2025-3-17-33