Gefälschte Gesichtserkennung  heise online

Gefälschte Gesichtserkennung heise online

Forscher des Cybersicherheitsunternehmens McAfee haben gezeigt, dass ein modernes Gesichtserkennungssystem gehackt werden kann, um eine andere Person als die Person vor der Kamera zu sehen. Zu diesem Zweck verwendeten sie maschinelles Lernen, um ein Bild zu erstellen, das für das menschliche Auge wie eine echte Person aussah, aber vom Gesichtserkennungsalgorithmus als jemand anderes identifiziert wurde. In einem realen Szenario wäre dies die Situation, in der ein System es jemandem ermöglicht, einen Flug zu besteigen, obwohl er auf der Flugverbotsliste steht.

„Wenn wir vor einer Live-Kamera stehen, die mithilfe der Gesichtserkennung erkennt und interpretiert, wen er ansieht, und sie mit einem Passfoto vergleicht, können wir diese Art der gezielten Fehlklassifizierung realistisch und wiederholt verursachen“, sagt der Hauptautor des Berichts. Forschung. Steve Povolny.

Mehr von Technology Review

Um den Algorithmus zu täuschen, verwendeten die Forscher einen Bildübersetzungsalgorithmus namens CycleGAN, mit dem Fotos von einem Stil in einen anderen transformiert werden. Zum Beispiel könnte ein Foto eines Hafens so aussehen, als wäre es von Monet gemalt worden. Oder ein Foto von Bergen im Sommer sieht plötzlich wie Winter aus.

Das traditionelle GAN (Generative Adversarial Network) besteht aus zwei Netzwerken: einem Generator, der mit Datensätzen wie der Sommerlandschaft trainiert, um mehr Sommerlandschaften auszuspucken; und einen Diskriminator, der die erzeugten Landschaften mit demselben Datensatz vergleicht, um zu entscheiden, ob sie real oder falsch sind. CycleGAN arbeitet mit zwei Generatoren, Diskriminatoren und Bildsätzen, z. B. Sommer- und Winterlandschaften, die Sie ineinander verwandeln möchten. Der erste Generator trainiert Bilder der Sommerlandschaften mit dem Ziel, Winterlandschaften zu erzeugen. Der zweite Generator macht genau das Gegenteil. Beide Diskriminatoren versuchen dann, die Fälschungen zu erkennen, bis die gefälschten Landschaften nicht mehr von den realen unterschieden werden können.

Das McAfee-Team hat jetzt 1.500 Fotos von jedem der beiden Projektmanager in ein CycleGAN-System eingespeist, um sie ineinander umzuwandeln. Anschließend verwendeten sie einen separaten Gesichtserkennungsalgorithmus, um zu testen, welche der beiden Personen ihn in den generierten gemischten Bildern erkennt. Nach der Erzeugung von Hunderten von Bildern erstellte das CycleGAN schließlich ein gefälschtes Bild, das mit bloßem Auge wie Person A aussah, bei Erkennung jedoch wie Person B aussah.

Während die Forschung klare Bedenken hinsichtlich der Sicherheit von Gesichtserkennungssystemen aufwirft, gibt es auch einige Einschränkungen. Erstens hatten die Forscher keinen Zugriff auf das eigentliche System, mit dem Flughäfen Passagiere identifizieren, und verwendeten stattdessen einen ausgeklügelten Open-Source-Algorithmus. „Meiner Ansicht nach [Problem] „Povolny sagt“, das wird für Angreifer am schwierigsten zu überwinden sein [sie] kann nicht auf das Zielsystem zugreifen. Angesichts der großen Ähnlichkeiten zwischen Gesichtserkennungsalgorithmen glaubt er, dass der Angriff auch auf realen Flughafensystemen funktionieren wird. Zweitens erfordert ein solcher Angriff heute viel Zeit und Ressourcen. CycleGANs benötigen jedoch leistungsstarke Computer und Fachwissen zum Trainieren und Ausführen.

Gesichtserkennungssysteme und automatisierte Passkontrollen werden jedoch zunehmend für die Flughafensicherheit auf der ganzen Welt eingesetzt. Diese Änderung war das Ergebnis der Covid-19 Pandemie und beschleunigt den Wunsch nach kontaktlosen Systemen. Die Technologie wird bereits von Regierungen und Unternehmen in diesem Bereich in großem Umfang eingesetzt Strafverfolgung, Einstellungen und Ereignissicherheit verwendet – obwohl viele Gruppen eine verwenden Moratorium forderte die Technologie für solche Entwicklungen und einige Städte verboten haben.

Es gibt auch andere technische Versuche, die Gesichtserkennung zu untergraben. Ein Team der Universität von Chicago hat kürzlich ein Tool namens Fawkes veröffentlicht, mit dem Gesichter getarnt werden können, indem die Fotos in den sozialen Medien leicht geändert werden, um die KI-Systeme zu täuschen, mit denen Datenbanken verwendet werden Milliarden solcher abgebauten Bilder sind. Forscher der KI-Firma Kneron haben ebenfalls gezeigt, wie Masken Die weltweit bereits verwendeten Gesichtserkennungssysteme können täuschen.

Die McAfee-Forscher sagen, sie möchten auf die inhärenten Schwächen dieser KI-Systeme hinweisen und klarstellen, dass die Menschen ständig vorsichtig sein müssen. „KI und Gesichtserkennung sind unglaublich leistungsstarke Tools zur Identifizierung und Überprüfung von Personen“, sagte Povolny. „Aber wenn Sie ein bestehendes System, das ausschließlich auf Menschen beruht, blind ersetzen, ohne einen sekundären Test durchzuführen, haben Sie plötzlich eine große Schwäche eingeführt.“


(Wahrscheinlich)

Zur Homepage

READ  Mit diesem Trick ist das Warten vorbei

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert