|
In Zeiten des Machine
Learning ist Daten zu löschen alles andere als einfach.
Wurde anhand einer großen Datenmenge ein Algorithmus einmal
trainiert, kann dieser die Datenmenge nicht einfach vergessen. Aus
diesem Grund befasst sich Professor Nicolas Papernot von der Universität
Toronto mit dem jungen Thema des Machine Unlearning. Löscherfordernisse,
empfiehlt er, schon in der Vorbereitung des Algorithmen-Trainings
zu berücksichtigen.
Damit verfolgt der Forscher zwei Ansätze: Erstens lassen sich
anstatt eines großen Modells, welches mit allen verfügbaren
Daten trainiert wurde, mehrere kleinere Modelle erstellen, die jeweils
auf einen Teil der Daten zurückgreifen.
Zweitens: Es kann zunächst ein Modell mit einem Teil der Daten
trainieren, beispielsweise zehn Prozent, und das Ergebnis speichern.
In dem darauf folgenden Schritt wird das Modell genommen und mit
einem weiteren Datenteil weiterentwickelt. Diese Prozedur wird wiederholt,
bis es ein mit allen Daten gefüttertes Modell gibt. Müssen
jetzt später bestimmte Daten löschen werden, wird auf
die vorherige Version zurückgegriffen, der diese Datensätze
noch nicht kannte, und trainiert nur von dort an neu. Diese Methode
kann zu einem späteren Zeitpunkt Zeit und Geld sparen.
(hv, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|