Zum Inhalt springen

Empfohlene Beiträge

Geschrieben

Hallo zusammen,

auf nem SuSE-Rootserver gibt es ein Verzeichnis in dem Daten temporär abgelegt werden. Eine Routine liest das Verzeichnis aus und läuft Datei für Datei durch und "tut was damit". Nun trat ein Problem auf wenn mehr als 3000 Files in dem Verzeichnis abgelegt sind. Meine PHP-Function warf irgendwann einen Fehler das Files nicht mehr eingelesen werden können. Ich bin noch mitten am test- Details folgen.

Jetzt schon mal vorab, womit könnte das zusammenhängen?

Linux hat soviel ich weiß ein Kapazitätslimit, dass liegt aber irgendwo bei 3700 ??

Könnte es auch mit dem (Apache/PHP) memory_limit zusammenhängen? Das Verzeichnis wird ausgelesen und deren Inhalt in einem Array abgelegt.

Was denkt ihr?

Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde Dich hier an.

Jetzt anmelden

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...