Security of machine learning systems
- Machine learning (ML) models are not programmed explicitly but are learnt from a set of data points. This data-centric paradigm allows for diverse applications, and ML models are now widely deployed in practice as internal components of ML systems. This inclusion of machine learning, however, introduces a new attack surface to these systems since ML models are vulnerable to a myriad of possible attacks. While prior work made remarkable progress in understanding such attacks from the perspective of the model, the deployment in practical systems introduces additional constraints, and commonly studied threat models do not sufficiently express the knowledge, capabilities, and goals of practical adversaries. In this work, we therefore investigate the security of machine learning with a systems security approach. By viewing the ML model as part of a system, we study the increased attack surface of practical systems and how such systems can be secured.
- Modelle für Maschinelles Lernen (ML) werden nicht explizit programmiert, sondern aus einer Menge von Datenpunkten abgeleitet. Diese datenzentrische Perspektive ermöglicht vielfältige Anwendungen und ML-Modelle werden in der Praxis inzwischen häufig als interne Komponenten von ML-Systemen eingesetzt. Diese Integration eröffnet jedoch neue Angriffsflächen, da ML-Modelle anfällig für eine Vielzahl von Angriffen sind. Frühere Arbeiten haben solche Angriffe primär aus der Perspektive des Modells betrachtet, aber der Einsatz in einem praktischen System führt zu zusätzlichen Anforderungen und das allgemein untersuchte Angreifermodell bildet das Wissen, die Fähigkeiten und die Ziele realistischer Angreifer nicht ausreichend ab. In dieser Arbeit untersuchen wir die Sicherheit des maschinellen Lernens aus der Perspektive der Systemsicherheit. Indem wir das ML-Modell als Teil eines Systems betrachten, können wir die erhöhte Angriffsfläche evaluieren und wie Systeme besser geschützt werden können.
Author: | Thorsten EisenhoferGND |
---|---|
URN: | urn:nbn:de:hbz:294-106879 |
DOI: | https://doi.org/10.13154/294-10687 |
Referee: | Thorsten HolzORCiDGND, Nicolas PapernotGND, Konrad RieckGND |
Document Type: | Doctoral Thesis |
Language: | English |
Date of Publication (online): | 2023/10/19 |
Date of first Publication: | 2023/10/19 |
Publishing Institution: | Ruhr-Universität Bochum, Universitätsbibliothek |
Granting Institution: | Ruhr-Universität Bochum, Fakultät für Informatik |
Date of final exam: | 2023/06/19 |
Creating Corporation: | Fakultät für Informatik |
GND-Keyword: | Computersicherheit; Maschinelles Lernen; Deep learning; System; Sicherheit |
Dewey Decimal Classification: | Allgemeines, Informatik, Informationswissenschaft / Informatik |
faculties: | Fakultät für Informatik |
Licence (German): | Keine Creative Commons Lizenz - es gelten der Veröffentlichungsvertrag und das deutsche Urheberrecht |