Ich habe eine kleine App, die zwei Threads erzeugt, die sich ständig in einem bestimmten Intervall wiederholen und jeweils eine Datenbanktabelle scannen. Wenn einer von ihnen einen Eintrag in seiner Tabelle aufnimmt, erzeugt er mithilfe des Multiprocessing-Pakets einen Prozess.
Die Funktion des Prozesses erstellt einen Scrapy-Webcrawler und startet ihn. Der Thread, der den Prozess gestartet hat, läuft weiter, ohne auf das Ergebnis zu warten. Der Prozess erstellt und startet programmgesteuert einen Crawler. Wenn das passiert, werden die Protokolle, die von den beiden Threads an die Protokolldateien gesendet wurden, an die Konsole gesendet. Scrapy muss also die Protokollierung irgendwie zurücksetzen. Wie kann ich das verhindern?
Der Prozess erzeugt einen anderen Prozess. Seine Protokolle wurden an eine Datei gesendet und werden jetzt an die Konsol ⇐ Python
-
- Similar Topics
- Replies
- Views
- Last post
Mobile version