Подробное описание документа
Арустамян А. Б.
Методы защиты моделей машинного обучения от атак отравления данных через обнаружение аномалий / Арустамян А. Б., Цирлов В. Л., Шишкин И. И. // Русский инженер: II Всероссийский конгресс с международным участием. - М., 2024. -
Модели машинного обучения являются ключевым элементом в критических системах, что делает их уязвимыми к атакам, таким как отравление данных. В статье рассматриваются методы защиты от подобных атак, в том числе фильтрация аномалий с использованием алгоритма Isolation Forest. Проведенные исследования показали, что данный метод эффективно выявляет и устраняет искаженные данные, что помогает восстановить точность и надежность модели
004.056 Безопасность, защищенность данных