Интерпретируемое машинное обучение (2022): различия между версиями

Материал из SecSem Wiki
Перейти к навигации Перейти к поиску
(Полезная литература)
(Полезнаые ссылки и литература)
Строка 19: Строка 19:
 
== Задания ==
 
== Задания ==
  
== Полезнаые ссылки и литература ==
+
== Полезные ссылки и литература ==
 
# [https://cset.georgetown.edu/publication/machine-learning-and-cybersecurity/ Machine Learning and Cybersecurity (2021)]
 
# [https://cset.georgetown.edu/publication/machine-learning-and-cybersecurity/ Machine Learning and Cybersecurity (2021)]
 
# [https://www.dropbox.com/s/wd6g3jhi0qy3eyv/interpretable-machine-learning.pdf?dl=0 Molnar "Interpretable Machine Learning" (2020)]
 
# [https://www.dropbox.com/s/wd6g3jhi0qy3eyv/interpretable-machine-learning.pdf?dl=0 Molnar "Interpretable Machine Learning" (2020)]

Версия 15:42, 8 апреля 2022

Курс Интерпретируемое машинное обучение читается в весеннем семестре первого года обучения магистерской программы "Искусственный интеллект в кибербезопасности".

Курс рекомендуется студентам, интересующимся методами интерпретации для моделей машинного обучения.

Оценка за курс будет определяться по результатам выполнения домашних заданий заданий. Выполнение всех домашних заданий позволяют получить "зачет" автоматически.

Занятия

Задания

Полезные ссылки и литература

  1. Machine Learning and Cybersecurity (2021)
  2. Molnar "Interpretable Machine Learning" (2020)
  3. Masis "Interpretable Machine Learning with Python" (2021)
  4. Ribeiro "“Why Should I Trust You?” Explaining the Predictions of Any Classifier" (2016)
  5. https://github.com/marcotcr/lime
  6. https://shap.readthedocs.io
  7. https://scikit-learn.org/stable/modules/partial_dependence.html
  8. Friedman, Jerome H. “Greedy function approximation: A gradient boosting machine.” Annals of statistics (2001): 1189-1232
  9. Apley, Daniel W. “Visualizing the effects of predictor variables in black box supervised learning models.” arXiv preprint arXiv:1612.08468 (2016)