Эта статья является препринтом и не была отрецензирована.
О результатах, изложенных в препринтах, не следует сообщать в СМИ как о проверенной информации.
1. Анализ уязвимости нейросетевых моделей YOLO к атаке Fast Sign Gradient Method / Тетерев Н.В., Трифонов В.Е., Левина А.Б. // Научно-технический вестник информационных технологий, механики и оптики. Т. 24, №6. с. 1066-1070. doi: 10.17586/2226-1494-2024-24-6-1066-1070
2. Adversarial attacks and defences: A survey / Chakraborty A., Alam M., Dey V., Chattopadhyay A., Mukhopadhyay D. // arXiv. 2018, arXiv:1810.00069v1. URL: https://doi.org/10.48550/arXiv.1810.00069
3. Threat of adversarial attacks on deep learning in computer vision: A survey / Akhtar N., Mian A. // IEEE Access. 2018, Vol. 6, pp. 14410–14430. URL: https://doi.org/10.1109/access.2018.2807385
4. Explaining and harnessing adversarial examples / Goodfellow I., Shlens J., Szegedy C. // Proc. of the 3rd International Conference on Learning Representations, ICLR, 2015
5. An efficient adversarial attack for tree ensembles / Zhang C., Zhang H., Hsieh C.-J. // Advances in Neural Information Processing Systems, 2020, vol. 33
6. It is all about data: A survey on the effects of data on adversarial robustness / Xiong P., Tegegn M., Sarin J.S., Pal S., Rubin J. // ACM Computing Surveys, 2024, Vol. 56, No. 7, pp. 1–41. URL: https://doi.org/10.1145/3627817
7. Regularization effect of fast gradient sign method and its generalization / Zuo C. // arXiv, 2018, arXiv:1810.11711. URL: https://doi.org/10.48550/arXiv.1810.11711
8. Understanding neural networks through deep visualization / Yosinski J., Clune J., Nguyen A., Fuchs T., Lipson H. // arXiv, 2015, arXiv:1506.06579v1. URL: https://doi.org/10.48550/arXiv.1506.06579
9. Towards evaluating the robustness of neural networks / Carlini N., Wagner D. // Proc. of the IEEE Symposium on Security and Privacy (SP), 2017, pp. 39–57. URL: https://doi.org/10.1109/sp.2017.49
10. Zeroth-order optimization for composite problems with functional constraints / Li Z., Chen P.-Y., Liu S., Lu S., Xu Y. // Proceedings of the AAAI Conference on Artificial Intelligence, 2022, vol. 36, no. 7, pp. 7453–7461. URL: https://doi.org/10.1609/aaai.v36i7.20709
11. Simple black-box adversarial attacks / Guo C., Gardner J., You Y., Wilson A., Weinberger K. // Proceedings of Machine Learning Research, 2019, vol. 97, pp. 2484–2493
12. Быстрая реализация расстояния Хэмминга на VLIW-архитектурах на примере платформы Эльбрус / Лимонова Е.Е., Рженев Н.Л., Усков А.В., Нейман-заде М.И. // «Труды Института системного анализа Российской академии наук», 2018
13. Building Towards «Invisible Cloak»: Robust Physical Adversarial Attack on YOLO Object Detector / Yang D. Y., Xiong J., Li X., Yan X., Raiti J., Wang, Y. // IEEE Annual Ubiquitous Computing, Electronics & Mobile Communication Conference, 2018 pp. 368-374
14. Physical adversarial examples for object detectors / Song D., Eykholt K., Evtimov I., Fernandes E., Li B., Rahmati A. // USENIX workshop on offensive technologies, 2018
15. Adversarial attack detection via fuzzy predictions / Li Y., Angelov P., & Suri N. // IEEE Transactions on Fuzzy Systems, 2024