Robots.txt est un éditeur visuel pour Robot Exclusion de fichiers et un logiciel journal de l'analyseur. Il permet à un utilisateur de créer rapidement et facilement les fichiers robots.txt nécessaires pour instruire les robots des moteurs de recherche, qui sont parties d'un site Web ne doivent pas être indexés et peuvent être consultées par le public Web général, puis d'identifier les araignées, qui ne tenir à ces instructions. Le programme fournit à l'utilisateur un moyen de se connecter sur son serveur FTP ou réseau local, puis sélectionnez les documents et répertoires qui ne sont pas à faire des recherches. Par le biais de ce programme, vous serez en mesure de générer visuellement industrie fichiers robots.txt standards; identifier les araignées malveillants et indésirables et les interdire à partir de votre site; directs robots des moteurs de recherche aux pages appropriées pour les sites multilingues; garder les araignées hors des zones sensibles et privés de votre site Web; le suivi des visites d'araignée et plus. Program`s gratuites mises à jour et mises à niveau sans restriction dans le temps; . nombre illimité de sites Web de travailler avec
Exigences :
Windows 98 / Me / NT / 2000 / XP / 2003 Server
Commentaires non trouvées