Уязвимость к состязательным атакам и недостаточная интерпретируемость нейронных сетей ограничивают их внедрение в production. Некоторые статьи показывают, что с помощью explainable AI («объяснимого» ИИ, XAI) можно не только отлаживать модели, но и противостоять атакам. Лекция состоит из введения в две области (состязательные атаки и XAI) и обзора этих статей. Автор лекции Константин Архипенко, сотрудник Института системного программирования РАН, преподаватель трека “Искусственный интеллект“ IT Академии Samsung на ВМК МГУ. Ссылка на презентацию - Это лекция - часть цикла вебинаров “Samsung Innovation Campus“ для тех, кто уже освоил основы нейронных сетей и задач по CV/NLP и двигается дальше. Авторы - специалисты Samsung Research Russia, Института системного программирования РАН, Сбербанка и других компаний и университетов. Ссылка на все лекции цикла Samsung Innovation Campus по
Hide player controls
Hide resume playing