CyberSpyder Link Test 3.5.2
CyberSpyder ist ein Webrobot, der alle HTTP-Links ihrer Webseiten automatisch auf Gültigkeit überprüfen kann
CyberSpyder Link Test ist ein Webrobot, der alle HTTP-Links ihrer Webseiten auf Gültigkeit überprüft. Sie geben lediglich die URL ihrer Homepage vor. CyberSpyder lädt die HTML-Datei und filtert alle Links und Verweise auf ander Dateien, wie bsw. Graphiken heraus.Das Programm forder für alle Verweise die HTTP-Header vom Server an, um aus dem Antwort-Header zu ermitteln, ob die Datei vorhanden ist. Trifft CyberSpyder auf einen Link zu einer HTML-Datei, so wird auch diese heruntergeladen und deren Verweise gefiltert usw. Links zu anderen Domains als der angegebenen Homepage werden nur bis zur ersten Ebene verfolgt.
Nachdem alle Links überprüft wurden zeigt ihnen CyberSpyder einen Report in ihrem Webbrowser an, der ihnen alle aufgetretenen Fehler und deren HTTP-Fehlercode anzeigt. Als besondere Features erlaubt der Robot die Anmeldung mit Passwort auf geschützten Seiten, das Übergehen der Robot-Exclusions und das checken von CGI-Links.
Leider kann CyberSpyder nur HTTP-Links checken. Verweise zu FTP-, Gropher-, Mailservern oder zu lokalen Dateien können nicht überprüft werden.
Download - Verfügbare Versionen
setupCyberSpyder1.exe |
Ähnliche Downloads
Mit WebsitePing können Sie automatisch in bestimmten Zeitabständen einen Ping an einen Server senden. Damit können Sie zum Beispiel eine Internetseite oder einen eigenen Server überwachen, so dass Sie Ausfallzeiten bemerken und beheben können.
Fiddler ist vergleichbar mit Wireshark und protokolliert den HTTP Netzwerk-Verkehr zwischen Rechner und Internet direkt an der Netzwerkkarte.
Metaner kann Ihre Webseite in über 700 deutsche und internationale Suchmaschinen vollautomatisch eintragen. Zusätzliche Tools sind ein MetaTag-Generator, die Möglichkeit die Antworten der Suchmaschinen auszuwerten, Eintragung mehrerer Adressen gleichzeitig.
Acc IP ist ein IP Poster der die aktuelle IP-Adresse ihres Rechners zuhause automatisch auf einem Webserver veröffentlicht. So können sie ihren eigenen Rechner zum Webserver verwandeln, der immer unter der gleichen Adresse verfügbar ist.
GSiteCrawler erzeugt für ihre Homepage fertige Google Sitemaps und Yahoo URLLISTs. Damit unterstützten sie Google & Co. optimal beim Indexieren ihrer Website. GSiteCrawler arbeitet wie ein Webcrawler und erzeugt fertige sitemap.xml und urllist.txt Dateien.