Was ist das zuverlässigste Modell und der zuverlässigste Datensatz zur Gesichtserkennung für mobile Apps in der realen WAndroid

Forum für diejenigen, die für Android programmieren
Anonymous
 Was ist das zuverlässigste Modell und der zuverlässigste Datensatz zur Gesichtserkennung für mobile Apps in der realen W

Post by Anonymous »

Ich arbeite an der Erkennung der Gesichtslebendigkeit (Anti-Spoofing) für reale mobile Apps (Flutter) und habe Mühe, außerhalb kontrollierter Datensätze eine zuverlässige Leistung zu erzielen.
Was ich erreichen möchte
  • Ein produktionsreifes Gesichtslebendigkeitsmodell, das funktioniert auf:

    Wiederholungen des Telefonbildschirms
  • gedruckte Fotos
  • unterschiedliche Lichtverhältnisse
  • verschiedene Hauttöne und Geräte
[*]Das Modell sollte verwendbar sein in Mobile Apps (vorzugsweise ONNX oder TFLite für Flutter)

[*]Der Fokus liegt auf realer Genauigkeit, nicht auf Benchmark-Ergebnissen



Was ich versucht habe
  • Training von CNN-basierten RGB-Liveness-Modellen (MobileNet-Varianten)
  • Verwendung gemischter Datensätze (echt + falsch):

    Telefonwiedergabebilder
  • gedruckte Fotoangriffe
  • benutzerdefinierte gesammelte Bilder
[*]Feinabstimmung vorab trainierter Modelle

[*]Anwenden der Standardvorverarbeitung:
  • Gesichtserkennung + Zuschneiden
  • Normalisierung
[*]Protokollierung Vorhersagen pro Bild, um falsch-positive Ergebnisse zu analysieren


Trotzdem:
  • Gefälschte Bilder (insbesondere Telefonwiedergaben) werden oft als LIVE
  • Modelle funktionieren bei Validierungssätzen gut, scheitern jedoch im realen Gebrauch
  • Zunehmend Vertrauensschwellen helfen nur teilweise
Einschränkungen
  • Keine Tiefenkamera/IR-Sensor (nur RGB)
  • Muss auf Consumer-Android-Geräten ausgeführt werden
  • Latenz und Modellgröße sind wichtig
  • Bevorzugen Sie Lösungen, die realistisch in der Produktion eingesetzt werden können
Was ich suche
  • Empfohlene Datensätze, die sich gut auf reale Parodien übertragen lassen Angriffe
  • Trainingsstrategien, die tatsächlich die Robustheit verbessern (nicht nur die Benchmark-Genauigkeit)
  • Ob nur RGB-Lebendigkeit für den Produktionseinsatz grundsätzlich eingeschränkt ist
  • Vorschläge für bessere Ansätze (z. B. bewegungsbasiert, Challenge-Response, Hybrid). Methoden)
  • Alle produktionserprobten Modelle oder Formate, die für Mobilgeräte geeignet sind (ONNX / TFLite)
Klarstellung
Ich bin nicht auf der Suche nach Genauigkeit auf Demo-Niveau oder akademischen Ergebnissen.

Ich möchte etwas, das unter realen Benutzerbedingungen zuverlässig funktioniert.
Jede Anleitung von Leuten, die Liveness-Erkennung in der Produktion eingesetzt haben, wäre wirklich hilfreich.

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post