also ich hab erst an file_exists gedacht, jedoch bietet mir das keine möglichkeit auf urls zuzugreifen, sondern nur auf lokale pfade bzw urls, sofern diese auch über lokalen pfad erreichbar sind..
dann dachte ich an fopen, da ja fopen laut php.net
Zitat
Scheitert das Öffnen der Datei, gibt die Funktion FALSE zurück.
jedoch bekomme ich folgende meldung beim aufruf meines scriptes:
ZitatWarning: fopen(http://www.blabla.com/robots.txt) [function.fopen]: failed to open stream: HTTP request failed! HTTP/1.1 404 Not Found in C:\xampp\htdocs\entwicklung\functions.php on line 60
Keine robots.txt gefunden
die lesende funktion macht an der entsprechenden stelle folgendes
function readRobots($url){
$dateizeiger = fopen($url."robots.txt", "r"); //<---das hier
if($dateizeiger){
$inhalte = array();
$filtered = array();
while(!feof($dateizeiger)){
array_push($inhalte, fgets($dateizeiger));
}
fclose($dateizeiger);
.... noch anderes zeugs...
}
Alles anzeigen
wie kann ich dem kram dann entgegenwirken? also entsprechende fehlermeldung ausmerzen?
oder gibts ne andere variante mit der ich bei ner domain prüfen kann, ob die robots.txt vorhanden ist?