TensorFlow -Datensatz aus dem Datendaten -TrainingPython

Python-Programme
Anonymous
 TensorFlow -Datensatz aus dem Datendaten -Training

Post by Anonymous »

Ich erstelle einen Datensatz aus einer Datei mit Pfadnamen bis hin zu Bildpositionen und Maskenlokationen (

Code: Select all

xtr
und ytr ). Anfangs enthält der CSV ca. 1000 Elemente. Jedes Bild wird je nach Höhe des Bildes mit flat_map in 4 oder 8 Bilder aufgeteilt. Der Datensatz sollte also noch mindestens 1000 Elemente haben. < /P>
Hier ist meine Pipeline: < /p>
train_ds = (
tf.data.Dataset.from_tensor_slices((xtr, ytr))
.shuffle(200)
.map(self._load_image, num_parallel_calls=tf.data.AUTOTUNE)
.map(self._preprocess, num_parallel_calls=tf.data.AUTOTUNE)
.flat_map(self._split)
.map(self._augment)
.batch(self._batch_size, drop_remainder=True)
.prefetch(tf.data.experimental.AUTOTUNE)
)
< /code>
Bilder im Datensatz zählen in der Regel etwa 1700 Elemente (nach Aufteilung usw.).
Training erfolgt mit einer Stapelgröße von 4 und ca. 250 Schritte pro Epoche. Lokales Rendezvous ist mit dem Status abgebrochen: out_of_range
Manchmal erhalte ich auch Explicate -Benutzerwarnings über das Auslaufen der Daten.>

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post