Sogenannte Adversarial
Attacks gehören zu den größten, ungelösten
Schwachstellen von Deep Learning. Bei diesen Attacken handelt es
sich um einen Störfaktor, welcher für das menschliche
Auge scheinbar zufällig und nicht erkennbar scheint, in einem
System künstlicher Intelligenz jedoch zu schwerwiegenden Fehlern
führen kann.
Sticker, welche strategisch auf Verkehrsschildern angebracht werden
und autonome Fahrzeuge dazu bringen, die Geschwindigkeitsübergrenzung
zu überschreiten, sind nur eines von vielen bereits bekannten
Beispielen dieser Attacken. Auch die Manipulation der Farbahnmarkierungen
auf der Straße könnte Fahrzeuge, wie beispielsweise einen
Tesla,
dazu bringen, die Fahrspur zu wechseln. Weiterhin sind auch Rekonstruktionssysteme
auf Deep-Learning-Basis anfällig für Adversarial Attacks.
So wäre eine gezielte Adversarial Attack beispielsweise in
der Lage, bei Bildgebungsverfahren im Medizinbereich, einen Tumor
an einer Stelle zu "rekonstruieren", an welcher sich keiner
befindet.
Eine neue Methode, um Deep-Learning-Systeme vertrauenswürdiger
für sicherheitskritische Szenarien zu machen, wurde nun von
der Forscherin Bo Li und ihre Kollegen an der University
of Illinois at Urbana-Champaign vorgeschlagen. Das künstliche
neuronale Netzwerk, welches für die Bildrekonstruktion verantwortlich
ist, tritt dazu gegen ein anderes Netzwerk an, das beispielhafte
Adversarial Attacks kreiert - so wird ersteres Netzwerk trainiert,
ähnlich wie etwa bei GAN-Algorithmen.
Die neue Methode scheint bereits gut zu funktionieren: Bei einem
Test der Forscher, bei dem das verbesserte neuronale Netzwerk zwei
gängige Bilddatensätzen verarbeiten sollte, soll es die
"Wahrheit" besser rekonstruiert haben, als andere neuronale
Netzwerke. Dennoch seien die Ergebnisse noch nicht perfekt und müssen
weiter optimiert werden.
(jb, hannover)
(siehe auch: Heise-News-Ticker)
Hannover · EDV-Beratung ·
Linux · Novell · Microsoft · Seminar ·
IT-Consult · Netzwerk · LPIC · CLE
|