externe Bilder automatisch auf Server laden

  • Hallo Forum :smilie195:,

    vielleicht hat jemand eine Idee...

    Ich verlinke auf meiner Homepage News-Artikel verschiedener Webseiten.
    Nun möchte ich den Inhalt der Seiten auch gerne als Screenie auf meinem Server speichern, natürlich automatisch.

    Da ich keinen eigenen Webserver habe und es angeblich mit php nicht möglich ist, habe ich mir http://www.thumbshots.org/ angeschaut. Mit deren Hilfe kann ich einen Code für ein Image-Tag auf eine Seite setzen, angezeigt wird dann der Screenshot.

    Jetzt bräuchte ich eigentlich nur ein Script, welches es mir ermöglicht, das auf meiner Webseite eingebundene externe Bild per Click hochzuladen und umzubennen.
    Den Rest drumherum kriege ich selbst hin. Es geht nur um den Teil, der dafür sorgt, dass das externe Bild auf meiner Homepage per Click hochgeladen wird.

    Gibt es eine Möglichkeit?

    Danke und Gruß
    ferret

  • damit wir uns richtig verstehen einfach mal ein kurzes Beispiel:

    Du hast auf deiner Homepage eine Grafik.
    Ich binde diese normal per IMG-Tag in meiner HP ein.

    Bei Klick auf dieses Bild möchte ich, dass es auf meinem Server gespeichert wird.
    Das heisst vermutlich, dass ich einen Upload aus meinem Cache durchführen muss. Vielleicht kann ich das Bild auch direkt von der Quelle (deiner Seite) auf meinen Server übertragen.

    Während des Uploads bekäme das Bild dann einen generierten Namen und die Sache ist erledigt :)

    Selbstverständlich handelt es sich nicht um Bilderklau, wie bereits oben beschrieben.

  • Verdammt, leider kann man http://www.thumbshots.org auch vergessen.
    Also nochmal ganz von vorne....

    Ich möchte von einer in ein Formular eingegenen URL einen Screenshot auf meinem Webspace speichern.
    Kennt jemand eine Möglichkeit dies zB mit PHP zu realisierenoder eine Webseite wie thumbshots.org, die Thumbs in besserer Qualität liefert?

    "besserer Qualität" heisst die Texte die auf der Seite stehen sollen lesbar sein...

    Hintergrund: News diverser Internet-Seiten sollen archiviert werden.

  • Zitat von ferret

    Hintergrund: News diverser Internet-Seiten sollen archiviert werden.

    warum machst du das denn so umständlich? speichere doch einfach die html seite auf deinem rechner ab?!

  • Zitat von phore

    warum machst du das denn so umständlich? speichere doch einfach die html seite auf deinem rechner ab?!

    Hatte ich auch überlegt - einfach den Quelltext in ne Datenbank und gut is...
    aber es geht darum die Nachrichten nochmal aus dem Hut zu zaubern, wenn die Originalquelle weg ist. Und da ist ein bisschen Text unglaubwürdiger zu präsentieren als ein Screenshot.
    Natürlich kann der Screenshot auch manipuliert sein, aber ich denke dass er dennoch erheblich glaubwürdiger ist als ein einfacher Text.

    Ich habe inzwischen zig Internetseiten durchforstet und es scheint mir als gäbe es leider keine andere Möglichkeit als auf Screenshots zu verzichten. Es gibt offentlichtlic nur für MacOS entsprechende Tools / Scripte, das habe ich leider nicht.

    Wenn noch wer eine Idee für ein einfaches handling hat möge bitte posten :).

    Es muss ja nicht vollautomatisch sein, nur etwas weniger Arbeit als manuell Screenhot machen / einfügen / bearbeiten / speichern / umbennen / hochladen / verknüpfen sollte es schon sein....

    Es werden ca 10 neue News pro Tag von unterschiedlichen Personen gepostet, für jeden Eintrag muss dann ein Screenie erzeugt werden.

    Wenn ihr schon so nett seid und helft verrate ich auch wofür die Hilfe gedacht ist: http://policestate.de