Ich habe ein großes Problem mit Spring Cloud -Datenfluss, die Jobs mit Eigenschaften aus früheren Arbeitsplätzen ausführen. ist sogar möglich). class = "Lang-Java PrettyPrint-Override">import org.springframework.cloud.dataflow.rest.client.dsl.task.TaskSchedule;
Map scheduleProperties = Map.of(
"a", "value of a property",
);
TaskSchedule.builder(dataFlowOperations)
.scheduleName("my-job-schedule1")
.task(task)
.build()
.schedule(cronExpression, scheduleProperties);
< /code>
Dann ändert sich die Konfiguration und jetzt möchte ich den Job nicht mit Parameter "A" ausführen, sondern "B". < /p>
import org.springframework.cloud.dataflow.rest.client.dsl.task.TaskSchedule;
// unschedule my-job-schedule1
Map scheduleProperties = Map.of(
"b", "value of b property",
);
TaskSchedule.builder(dataFlowOperations)
.scheduleName("my-job-schedule2")
.task(task)
.build()
.schedule(cronExpression, scheduleProperties);
< /code>
Es ist für mich inakzeptabel, einen brandneuen Zeitplan zu erstellen, aber die Eigenschaften erhalten, die ich nicht gegeben habe (obwohl der komponierte Task -Läufer nur die Immobilie "B" erhielt). Ich benutze sogar den RunidIncrementer für jede Jobausführung.
Danke für jeden Rat.
Spring Cloud DataFlow Task -Eigenschaften Caching ⇐ Java
-
- Similar Topics
- Replies
- Views
- Last post