Герб МГТУ им. Н.Э. БауманаНаучно-техническая библиотека МГТУ им. Н.Э. Баумана

Подробное описание документа

   Статья

Арустамян А. Б., Цирлов В. Л., Шишкин И. И.
   Методы защиты моделей машинного обучения от атак отравления данных через обнаружение аномалий / Арустамян А. Б., Цирлов В. Л., Шишкин И. И. // Русский инженер: II Всероссийский конгресс с международным участием. - М., 2024. - С. 23-24.

Модели машинного обучения являются ключевым элементом в критических системах, что делает их уязвимыми к атакам, таким как отравление данных. В статье рассматриваются методы защиты от подобных атак, в том числе фильтрация аномалий с использованием алгоритма Isolation Forest. Проведенные исследования показали, что данный метод эффективно выявляет и устраняет искаженные данные, что помогает восстановить точность и надежность модели

004.056 Безопасность, защищенность данных

Статья опубликована в следующих изданиях

с. 23-24
   Русский инженер: II Всероссийский конгресс с международным участием. - М. : Изд-во МГТУ им. Н. Э. Баумана, 2024. - [402] с. - ISBN 978-5-7038-6447-0.