SatansEier Geschrieben 15. Juni 2009 Geschrieben 15. Juni 2009 Hallo zusammen, auf nem SuSE-Rootserver gibt es ein Verzeichnis in dem Daten temporär abgelegt werden. Eine Routine liest das Verzeichnis aus und läuft Datei für Datei durch und "tut was damit". Nun trat ein Problem auf wenn mehr als 3000 Files in dem Verzeichnis abgelegt sind. Meine PHP-Function warf irgendwann einen Fehler das Files nicht mehr eingelesen werden können. Ich bin noch mitten am test- Details folgen. Jetzt schon mal vorab, womit könnte das zusammenhängen? Linux hat soviel ich weiß ein Kapazitätslimit, dass liegt aber irgendwo bei 3700 ?? Könnte es auch mit dem (Apache/PHP) memory_limit zusammenhängen? Das Verzeichnis wird ausgelesen und deren Inhalt in einem Array abgelegt. Was denkt ihr?
T3D Geschrieben 15. Juni 2009 Geschrieben 15. Juni 2009 Die beiden Sachen könnten dir weiterhelfen set_time_limit(1000); ini_set("memory_limit", "128M"); [/PHP] Ted
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden