Die Forscher von Facebooks AI-Abteilung haben eine neue Library
- Opacus
- für das PyTorch-Framework entwickelt, welche auch den erweiterten
Datenschutzanforderungen von Differential Privacy beim Training
von Machine-Learning-Modellen gerecht werden soll. Opacus steht
ab sofort als Open Source unter Apache-2.0-Lizenz frei zur Verfügung
und soll sowohl Entwickler von ML-Anwendungen, als auch Forscher
beim Privacy-preserving Machine Learning (PPML) unterstützen
- ohne Leistungs- oder Skalierungseinbußen beim Modelltraining.
Mit Opacus verfolgen die Facebook-Forscher den Ansatz des Differentially
Private Stochastic Gradient Descent (DP-SGD). Zur Durchsetzung und
Überwachung von Differential Privacy während des Trainings
wurde der Standardoptimierer von PyTorch
über die PrivacyEngine-API modifiziert. Laut Facebook soll
der implementierte Algorithmus die Privatsphäre eines Trainingsdatensatzes
schützen können, ohne dabei direkt in die Daten einzugreifen.
Ein Rauschen, welches den Gradienten in jeder Iteration hinzugefügt
wird, verhindert bei Opacus zudem, dass das Modell sich seine Trainingsbeispiele
merkt. Die geeignete Dosierung für das Rauschen ermitteln die
Facebook-Forscher ebenfalls mithilfe eines neuen Verfahrens. Dieses
soll Opacus gegenüber vergleichbaren Differential-Privacy-Librarys
einen entscheidenen Geschwindigkeitsvorteil verschaffen.
In der Ankündigung
von Facebook AI sind nähere Details zur PyTorch-Library
für Differential Privacy zu finden.
(jb, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|