Was ich erreichen möchte
- Ein produktionsreifes Gesichtslebendigkeitsmodell, das funktioniert auf:
Wiederholungen des Telefonbildschirms - gedruckte Fotos
- unterschiedliche Lichtverhältnisse
- verschiedene Hauttöne und Geräte
[*]Der Fokus liegt auf realer Genauigkeit, nicht auf Benchmark-Ergebnissen
Was ich versucht habe
- Training von CNN-basierten RGB-Liveness-Modellen (MobileNet-Varianten)
- Verwendung gemischter Datensätze (echt + falsch):
Telefonwiedergabebilder - gedruckte Fotoangriffe
- benutzerdefinierte gesammelte Bilder
[*]Anwenden der Standardvorverarbeitung:
- Gesichtserkennung + Zuschneiden
- Normalisierung
Trotzdem:
- Gefälschte Bilder (insbesondere Telefonwiedergaben) werden oft als LIVE
- Modelle funktionieren bei Validierungssätzen gut, scheitern jedoch im realen Gebrauch
- Zunehmend Vertrauensschwellen helfen nur teilweise
- Keine Tiefenkamera/IR-Sensor (nur RGB)
- Muss auf Consumer-Android-Geräten ausgeführt werden
- Latenz und Modellgröße sind wichtig
- Bevorzugen Sie Lösungen, die realistisch in der Produktion eingesetzt werden können
- Empfohlene Datensätze, die sich gut auf reale Parodien übertragen lassen Angriffe
- Trainingsstrategien, die tatsächlich die Robustheit verbessern (nicht nur die Benchmark-Genauigkeit)
- Ob nur RGB-Lebendigkeit für den Produktionseinsatz grundsätzlich eingeschränkt ist
- Vorschläge für bessere Ansätze (z. B. bewegungsbasiert, Challenge-Response, Hybrid). Methoden)
- Alle produktionserprobten Modelle oder Formate, die für Mobilgeräte geeignet sind (ONNX / TFLite)
Ich bin nicht auf der Suche nach Genauigkeit auf Demo-Niveau oder akademischen Ergebnissen.
Ich möchte etwas, das unter realen Benutzerbedingungen zuverlässig funktioniert.
Jede Anleitung von Leuten, die Liveness-Erkennung in der Produktion eingesetzt haben, wäre wirklich hilfreich.
Mobile version