Aktives Mitglied
Hallo, Zusammen.
Ein kurioses Verhalten lässt mich seit mehreren Tagen verzeifeln. Eventuell hatt hier jemand dieses schon mal und kann mich auf den richtigen Pfad brigen?! ;-)
Es geht um den Aufruf eines PHP Skriptes. Ich habe es programmiert und es läuft beim Aufruf über den Brwoser fehlerfrei und bis zum Ende.
Die Aufgabe des Skriptes ist es Daten zu importieren, und zwar in einer Schleife, für verschiedene Projekte.
Unabhängig der tatsächlich existierenden Anzahl von Porjekten (und Import-Schleifen) beendet sich das Skript nach derm 60ten Projekt, sofern es mit wget aufgerufen wurde.
Setzte ich ein Projekt inaktiv, wird das 61te Projekt importiert, u.s.w.
Da der Import grundsätzlich läuft schließe ich die Ursache in der Schleife aus.
Den Timeout habe ich im Skript schon auf 0 gesetzt und das memory_limit in der php.ini auf 4GB hochgesetzt.
Wie geschrieben, es läuft beim Aufruf des Browsers komplett durch, beim Aufruf mit wget unter Linux bricht es ab. Ach ja, ich habe auch schon den Aufruf von veschiedenen Linux Rechnern starten lassen - immer mit dem selben Phänomen.
Da das Skript sehr komplex ist, kann ich es hier nicht posten.
Ich habe beim großen g auch schon mehrfach diese Problemstellung in Foren gelesen, doch nie mit einer konkreten Lösung.
Mir geht es um die Frage, ob jemand dieses Phänomen kennt und ggf. eine Lösung dafür hat bzw. aus Erfahrung weiß, woran so etwas liegen kann.
Danke und schöne Grüße!
Ein kurioses Verhalten lässt mich seit mehreren Tagen verzeifeln. Eventuell hatt hier jemand dieses schon mal und kann mich auf den richtigen Pfad brigen?! ;-)
Es geht um den Aufruf eines PHP Skriptes. Ich habe es programmiert und es läuft beim Aufruf über den Brwoser fehlerfrei und bis zum Ende.
Die Aufgabe des Skriptes ist es Daten zu importieren, und zwar in einer Schleife, für verschiedene Projekte.
Unabhängig der tatsächlich existierenden Anzahl von Porjekten (und Import-Schleifen) beendet sich das Skript nach derm 60ten Projekt, sofern es mit wget aufgerufen wurde.
Setzte ich ein Projekt inaktiv, wird das 61te Projekt importiert, u.s.w.
Da der Import grundsätzlich läuft schließe ich die Ursache in der Schleife aus.
Den Timeout habe ich im Skript schon auf 0 gesetzt und das memory_limit in der php.ini auf 4GB hochgesetzt.
Wie geschrieben, es läuft beim Aufruf des Browsers komplett durch, beim Aufruf mit wget unter Linux bricht es ab. Ach ja, ich habe auch schon den Aufruf von veschiedenen Linux Rechnern starten lassen - immer mit dem selben Phänomen.
Da das Skript sehr komplex ist, kann ich es hier nicht posten.
Ich habe beim großen g auch schon mehrfach diese Problemstellung in Foren gelesen, doch nie mit einer konkreten Lösung.
Mir geht es um die Frage, ob jemand dieses Phänomen kennt und ggf. eine Lösung dafür hat bzw. aus Erfahrung weiß, woran so etwas liegen kann.
Danke und schöne Grüße!