Подробное описание документа
Арустамян А. Б.
Методы защиты моделей машинного обучения от атак отравления данных через обнаружение аномалий / Арустамян А. Б., Цирлов В. Л., Шишкин И. И. // Русский инженер: : сборник тезисов 2-го Всероссийского конгресса с международным участием, Москва, 30 октября-1 ноября 2024 года / МГТУ им. Н. Э. Баумана (национальный исследовательский университет) ; вступ. сл. Гордин М. В. - М., 2024. -
Модели машинного обучения являются ключевым элементом в критических системах, что делает их уязвимыми к атакам, таким как отравление данных. В статье рассматриваются методы защиты от подобных атак, в том числе фильтрация аномалий с использованием алгоритма Isolation Forest. Проведенные исследования показали, что данный метод эффективно выявляет и устраняет искаженные данные, что помогает восстановить точность и надежность модели
004.056 Безопасность, защищенность данных