Was ist das zuverlässigste Modell und der zuverlässigste Datensatz zur Gesichtserkennung für mobile Apps in der realen WPython

Python-Programme
Anonymous
 Was ist das zuverlässigste Modell und der zuverlässigste Datensatz zur Gesichtserkennung für mobile Apps in der realen W

Post by Anonymous »

Ich arbeite an der Erkennung der Gesichtslebendigkeit (Anti-Spoofing) für reale mobile Apps (Flutter) und habe Mühe, außerhalb kontrollierter Datensätze eine zuverlässige Leistung zu erzielen.
Was ich erreichen möchte
  • Ein produktionsreifes Gesichtslebendigkeitsmodell, das funktioniert auf:

    Wiederholungen des Telefonbildschirms
  • gedruckte Fotos
  • unterschiedliche Lichtverhältnisse
  • verschiedene Hauttöne und Geräte
[*]Das Modell sollte verwendbar sein in Mobile Apps (vorzugsweise ONNX oder TFLite für Flutter)

[*]Der Fokus liegt auf realer Genauigkeit, nicht auf Benchmark-Ergebnissen



Was ich versucht habe
  • Training von CNN-basierten RGB-Liveness-Modellen (MobileNet-Varianten)
  • Verwendung gemischter Datensätze (echt + falsch):

    Telefonwiedergabebilder
  • gedruckte Fotoangriffe
  • benutzerdefinierte gesammelte Bilder
[*]Feinabstimmung vorab trainierter Modelle

[*]Anwenden der Standardvorverarbeitung:
  • Gesichtserkennung + Zuschneiden
  • Normalisierung
[*]Protokollierung Vorhersagen pro Bild, um falsch-positive Ergebnisse zu analysieren


Trotzdem:
  • Gefälschte Bilder (insbesondere Telefonwiedergaben) werden oft als LIVE
  • Modelle funktionieren bei Validierungssätzen gut, scheitern jedoch im realen Gebrauch
  • Zunehmend Vertrauensschwellen helfen nur teilweise
Einschränkungen
  • Keine Tiefenkamera/IR-Sensor (nur RGB)
  • Muss auf Consumer-Android-Geräten ausgeführt werden
  • Latenz und Modellgröße sind wichtig
  • Bevorzugen Sie Lösungen, die realistisch in der Produktion eingesetzt werden können
Was ich suche
  • Empfohlene Datensätze, die sich gut auf reale Parodien übertragen lassen Angriffe
  • Trainingsstrategien, die tatsächlich die Robustheit verbessern (nicht nur die Benchmark-Genauigkeit)
  • Ob nur RGB-Lebendigkeit für den Produktionseinsatz grundsätzlich eingeschränkt ist
  • Vorschläge für bessere Ansätze (z. B. bewegungsbasiert, Challenge-Response, Hybrid). Methoden)
  • Alle produktionserprobten Modelle oder Formate, die für Mobilgeräte geeignet sind (ONNX / TFLite)
Klarstellung
Ich bin nicht auf der Suche nach Genauigkeit auf Demo-Niveau oder akademischen Ergebnissen.

Ich möchte etwas, das unter realen Benutzerbedingungen zuverlässig funktioniert.
Jede Anleitung von Leuten, die Liveness-Erkennung in der Produktion eingesetzt haben, wäre wirklich hilfreich.

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post