Ein leistungsfähiges Web-Crawler-Dienstprogramm, um URL, Meta-Tags (Titel, Beschreibung, Stichwörter), Klartext, Seitengröße, Datum der letzten Änderung Wert von Web Site, Web-Verzeichnisse, Suchergebnisse, Liste der URLs von Datei zu extrahieren. Hohe Geschwindigkeit, multi-threaded, genaue Extraktion - direkt speichert Daten auf der Festplatte benötigt. Programm hat zahlreiche Filter zur Sitzung zu beschränken, wie - URL-Filter, Textfilter, Datenfilter, Domainfilter, Änderungsdatum. Es erlaubt Benutzer wählbaren Rekursionsebenen, Retrieval Themen, Timeout, Proxy-Unterstützung und viele andere Optionen. . A muss Werkzeug für Webmaster, die Suchverzeichnisse zu bauen
Anforderungen :
Windows 95/98 / Me / NT / 2000 / XP
< strong> Einschränkungen :
15-Tage-Testversion
Kommentare nicht gefunden