Beiträge von petersausk

    Hi,

    ich möchte gerne fremde Webseiten (Links), meine lokalen Webseiten und lokale Dokumente auf meinem PC mit Tags versehen (ich meine hier nicht Meta-Tagging in HTML sondern als lokale Datenbank von Tags), um effektiv danach suchen + klassifizieren zu können.

    Welche Tools gibt's denn da ?

    Taugt das was + ist es sicher (kein Botnet oder sowas :)
    http://lunarfrog.com/download/

    Danke + Gruss, P.

    Danke für Deine Erläuterungen. Es ist also wirklich kein grösseres Problem (und somit nicht erstaunlich, dass man den Service - siehe dynDNS.org - auch umsonst bekommen kann). Vielen Dank -das hilft mir schon sehr bei der Einschätzung der Sache !

    Meine Eingangsfrage ist damit weitgehend beantwortet.

    PS: Ich war initial auch gar nicht persönlich gewesen.

    threadi
    Und es ist MEHR als naiv zu glauben alle anderen seien naiv - nur weil ihre Anzahl von Posts unter der eigenen liegt.
    Dein 'Grossmeisterlicher' Auftritt ist äusserst peinlich und leider keine Empfehlung für diese Forum-Community. Aber jeder muss ja selbst am besten wissen, warum er sich hier aufhält - als hilfreicher Ratgeber (dafür wurden Foren erfunden) oder zur herablassenden Abqualifizierung anderer (am risikoärmsten funktioniert das bei sogenannten 'Newbies', stimmt's ?). Ab dafür.

    Zur Sache + admin:

    Ja genau, ich meine wie bei dyndns.org. (Es gibt gewisse Gründe warum ich deren für privat freien Service nicht nutzen will/kann.)

    Ich wäre auch mit einem guten Link zufrieden wo ich etwas hilfreiches zu dem Thema lesen könnte. ABER: in einer technischen (!) Beschreibung zu DNS bekomme ich eben *DIESE OBIGE* Frage leider nicht schnell beantwortet. Natürlich braucht man für das konkrete Doing dann weiteres Wissen. Das war aber nicht mein Anliegen hier. Das zieh ich mir dann rein, wenn ich es brauche (Ich glaube nicht dass das jenseits von Linux-Admin, SSL, Socketprogrammierung oder Quantenelektrodynamik angesiedelt ist vom Komplexitätsgrad her :) ). Ich hatte gehofft jemanden zu finden, der das überblicken kann und mir bei einer kurzen Einschätzung hilft.

    ==> Also zur Spezifizierung meines Anliegens:
    ich will nicht wissen WIE es genau geht, sondern ob der AUFWAND drastisch über das hinausgeht was ich oben skizziert habe (finanziell, Ressourcen, Genemigungen bei DENIC oder oder). Wenn dann noch jemand im sehr groben Überblick (!) skizzieren kann was sonst noch gemacht werden müsste, bin ich eigentlich schon zufrieden...

    Danke für alle hilfreichen Hinweise !

    Hi,

    nehmen wir an, ich wollte selbst als Provider eines DynDNS Services (sagen wir mal 10000 dynamisch subdomains) auftreten im Web ? Was müsste ich dafür tun bzw wie aufwendig ist das (Admin, Kosten, Software, Organisation, Gebühren...) ?

    Eigentlich brauche ich doch nur
    - eine Domain auf einer festen IP (mit der Möglichkeit subdomains anlegen zu können; Ist das einfach/ganz selbstverständlich machbar oder irgendein Problem ?)
    - einen Provider der unter dieser IP-Adresse einen (wahrscheinlich eher 2 redundante) Server für mich betreibt
    - Nameserver Software für den Lookup
    - ein WebInterface, mit dem sich die 'Kunden' (die eine dyndns haben wollen) anmelden und ihre gegenwärtige IP in die aktuelle Nameserver-Datenbank eintragen können

    Der Aufwand wäre also ziemlich gering... (2x Servermiete, 1 Domain, Anmelde-Web-UI für die 'Kunden'). Oder ist das zu naiv ? (sorry ich bin kein DNS Freak).

    Für ein paar sachliche + einordnende Bemerkungen wäre ich Euch dankbar.

    Gruss, Peter

    Hi,

    ich experimentiere gerade mit dem Apache 2.2 Webserver. Habe ihn (nur für meinen eigenen User, also start von Konsole, nicht als Service) auf einem WinXP SP3 installiert
    (als binary: httpd-2.2.17-win32-x86-openssl-0.9.8o.msi von
    http://httpd.apache.org/download.cgi#verify )

    Funktioniert prima und er liefert mir lokal perfekt htm files zurück und mein Browser zeigt sie an. Also z.B. http://<meineIP>:8080/welcome.htm
    und zeigt mir das welcome.htm an...

    Jetzt probiere ich CGI - Skipting. Meine Direktiven im conf file sind:

    ScriptAlias /cgi-bin "C:/Programme/Apache Software Foundation/Apache2.2/cgi-bin"
    <Directory "C:/Programme/Apache Software Foundation/Apache2.2/cgi-bin">
    AllowOverride None
    Options None
    Order allow,deny
    Allow from all
    </Directory>

    Mein cgi Skipt hw.pl sieht so aus:

    #!c:/perl/bin/perl.exe
    print "Content-type: text/plain; charset=iso-8859-1\n\n";
    print "Hello world!\n\n";

    ALSO:
    sollte der Apache ALLE files in dem Dir als cgi's interpretieren, sie ausführen und deren output in meinen Browser schicken. Wenn ich das hier rufe:
    http://<meineIP>:8080/cgi-bin/hw.pl
    sollte mein Browser also 'Hello world!' anzeigen !

    TATSÄCHLICH geschieht folgendes:
    Ich bekomme vom Browser ein Sicherheitswarnung-Popup ob ich das file hw.pl wirklich von der Site <meineIP> downloaden will. Sage ich 'ja ausführen', dann läuft in einem cmd-Fenster das perl Skipt ab und verschwindet wieder...

    Ich habe erstmal versucht die Sicherheitseinstellungen meines Browsers zu ändern, aber das hat keinen Erfolg und ist ja auch nicht das Problem, weil: ich habe ja gesagt das cgi solle AUSGEFÜHRT werden am Server und der OUTPUT solle zu mir in den Browser kommen. Das geschieht aber nicht. Es kommt der Source-code des .pl files bei mir an. Es sieht aus, als ob ich cgi Execution im Apache gar nicht aktiviert hätte ...

    Was ist hier das Problem ?

    Für Hilfestellung wäre ich dankbar. :?
    Peter

    Ciao,

    ich will auf eine Tabellenzeile positionieren, da hatte ich (naiv) angenommen, dass die Positionierung des Ankers innerhalb des
    <tr>
    [hier]
    </tr>
    Blocks richtig ist. Und nicht

    <tr>
    <td> [hier] </td>
    <td>...</td>
    </tr>


    Aber OK, vielleicht probier ich's ja mal aus, das html ist sowieso per Java Code generiert.

    Danke + Gruss,
    Peter

    Hi,

    ich habe nochmal hartnäckig gegoogelt und bin auf das hier gestossen:
    http://aktuell.de.selfhtml.org/weblog/kompati…rnet-explorer-8

    Damit kann man im HTML Quellcode einer Webseite offenbar den IE8 auf einen IE7-kompatiblen Modus umschalten. Ich habe jetzt mal probeweise in meine Webseite (lokal) die Zeile

    <meta http-equiv="X-UA-Compatible" content="IE=EmulateIE7" />

    in den header eingefügt. Jetzt funktioniert es tatsächlich wieder - auch im IE8. Unglaublich !
    Auf jeden Fall ist das ein Bug im IE8 !

    Gruss, Peter

    Hi,

    ich habe eine Webseite mit vielen internen Verweisen drin. Es handelt sich um eine Tabelle mit vielen Zeileneinträgen. Jede Zeile hat 1 oder mehrere Anker-Namen, etwa so:

    ----------------------------
    <tr>

    <a name="myname"></a>
    <a name="name2"></a>
    <a name="name3"></a>

    <td>
    xyz
    </td>
    <td>
    bla bla
    </td>

    </tr>
    -----------------------------

    Durch Links wie
    <a href="#myname">Springe zu myname</a>
    springe ich diese Tabellenzeilen (innerhalb der gleichen Seite) an.

    PROBLEM:
    Im IE7 (7.0.5730.13CO) funktioniert(e) der Ansprung dieser Namen einwandfrei und positionsgenau. In meinem IE8 funktioniert das nicht mehr.

    Weiss jemand warum und was ich tun kann ?

    Die Konkrete Seite mit dem Problem findet ihr hier:
    http://eyes4skies.de/Internet/Astro…ossref.htm#m101
    Der positionierte Einsprung, sollte genau auf den Tabelleneintrag M101 erfolgen...

    Danke + Gruss,
    Peter

    Doch, doch ich kann es ja ändern + es funktioniert auch !Der Login kommt dann hoch usw.

    Ich frage mich jur GRUNDSÄTZLICH wie sicher dieser Zugriffsschutz ist.

    Gibt es - bei den Freaks - wohlbekannte techniken um das zu umgehen, oder nicht ? Wohlgemerkt ich will nicht wissen WIE das dann geht, sondern OB ? Nur damit ich ermessen kann, was ich auf die geschützten Seiten legen kann und was nicht (hochsensible Daten sowieso nicht, das ist schon klar !).

    Peter

    Ciao,

    ich hab eine einfache Hompage beim Provider 1+1. Ich kann einzelne Verzeichnisse mit USer und Pwd-Schutz versehen, dann muss man sich einloggen wenn man beim Surfen in diese Verzeichnisse wechselt. Ich möchte gerne einschätzen, wie sicher dieser Schutz gegen unauthorisierte Benutzer der passwort-geschützen Seiten ist. (Soweit ich weiss wird der .htaccess Mechanismus benutzt http://de.selfhtml.org/servercgi/server/htaccess.htm).

    Meine Frage(n) also:
    - Wie sicher ist dieser Schutz gegen unauthorisierte Benutzer der passwort-geschützen Seiten ?
    - Anders herum gefragt: Wie verbreitet ist evtl das Wissen solche Schutzmechanismen zu umgehen ?

    Danke für Eure Kommentare !

    Gruss, Peter