Adversarial attacks: различия между версиями

Материал из SecSem Wiki
Перейти к навигации Перейти к поиску
(Новая страница: «== Атаки на обход методов глубинного обучения == На этой странице собраны материалы для пр…»)
 
Строка 16: Строка 16:
 
# Robust Physical-World Attacks on Deep Learning Models https://arxiv.org/abs/1707.08945
 
# Robust Physical-World Attacks on Deep Learning Models https://arxiv.org/abs/1707.08945
 
# Audio Adversarial Examples: Targeted Attacks on Speech-to-Text https://arxiv.org/abs/1801.01944
 
# Audio Adversarial Examples: Targeted Attacks on Speech-to-Text https://arxiv.org/abs/1801.01944
 +
# Свежий обзор https://openai.com/blog/adversarial-example-research/
  
 
Смотреть дополнительно: https://paperswithcode.com/task/adversarial-attack
 
Смотреть дополнительно: https://paperswithcode.com/task/adversarial-attack
 +
https://competitions.codalab.org/competitions/19090#learn_the_details
  
 
Код:
 
Код:
 
# https://github.com/QData/TextAttack
 
# https://github.com/QData/TextAttack
 
# https://github.com/tensorflow/cleverhans
 
# https://github.com/tensorflow/cleverhans
 +
# https://github.com/snakers4/msc-2018-final

Версия 18:51, 24 ноября 2020

Атаки на обход методов глубинного обучения

На этой странице собраны материалы для предварительного чтения по теме, дальше страницу будем дополнять более полезными ресурсами.

Тем, кто выбрал данную тему, надо обязательно посмотреть список спецкурсов (и основных курсов) кафедры ММП, и послушать всё наиболее близкое к DNN.

Задача на курсовую работу 2020/2021 года: Экспериментальный стенд для adversarial атак на нейросетевые классификаторы

Поисследовать свежие работы по adversarial example attack на DNN (deep neural networks), в первую очередь с конференций USENIX Security, IEEE Security & Privacy, на основе готовых примеров из работ сделать модельное приложение с классификатором (классификация изображений или распознавание голоса в текст или что-то третье) и работающие примеры adversarial атак на это приложение.

Материалы для чтения

Статьи:

  1. Hybrid Batch Attacks: Finding Black-box Adversarial Examples with Limited Queries https://www.usenix.org/conference/usenixsecurity20/presentation/suya
  2. Strike (with) a Pose: Neural Networks Are Easily Fooled by Strange Poses of Familiar Objects https://arxiv.org/abs/1811.11553
  3. https://keenlab.tencent.com/en/whitepapers/Experimental_Security_Research_of_Tesla_Autopilot.pdf
  4. Unravelling Robustness of Deep Learning based Face Recognition Against Adversarial Attacks https://arxiv.org/abs/1803.00401
  5. Robust Physical-World Attacks on Deep Learning Models https://arxiv.org/abs/1707.08945
  6. Audio Adversarial Examples: Targeted Attacks on Speech-to-Text https://arxiv.org/abs/1801.01944
  7. Свежий обзор https://openai.com/blog/adversarial-example-research/

Смотреть дополнительно: https://paperswithcode.com/task/adversarial-attack https://competitions.codalab.org/competitions/19090#learn_the_details

Код:

  1. https://github.com/QData/TextAttack
  2. https://github.com/tensorflow/cleverhans
  3. https://github.com/snakers4/msc-2018-final