hiho, ab und zu hab ich ja auch ma ne frage
also um direkt zur sache zu kommen. ich bin derzeit in der konzeption einer ip-cam-alarmbilder-übersicht.
bei jedem bewegungsalarm werden 6 bilder oder so in den space gejagt (natürlich auch bei fehl-alarmen)
da dachte ich mir zuerst: jau machste nen glob, zeigst die bilder an und feddich
nur bei knapp 1000 bildern war des arg langwierig..^^
jetzt bei 3000+ ist es unmöglich gewesen.
also exif-daten auslesen, gruppieren nach datum und hab ne anzahl X fürs zeigen
jedoch werden ja immernoch zuerst mal alle 3000+ bilder im ordner ausgelesen.
was wäre ein sinnvoller weg das prozedere zu beschleunigen?
wenn ich ne datenbank nutze, muss ich ja noch immer nen abgleich machen, ob neue bilder hinzugekommen sind.
wenn ich das ergebnis-array serialize und als cache speicher, bleibt mir ja auch nichts anderes übrig, als den abgleich zu machen.
ein bild hat knapp 30KB größe (die nachtbilder noch weniger) aber ich denke mir dass ich irgendwie die anzahl der auszulesenden bilder verringern muss.
cronjob und den dann jeden morgen laufen lassen und das ergebnis cachen?
fragen über fragen^^
hat wer von euch überhaupt schomma so ne menge an files verwurstet?
bin auf eure ideen gespannt
edit: 500 bildrequest sind da ca 25-30 sekunden