
User-agent: IRLbot
Disallow: /
A ver si es cierto, sino tendremos que bloquear la IP, dado el interés exagerado que tiene por una de nuestras Webs. Con este, son 3 los robots que hemos bloqueado por su insistencia y escaso valor final:
User-agent: GigaBot
Disallow: /
User-Agent: MJ12bot
Disallow: /
User-agent: IRLbot
Disallow: /
ACTUALIZACION 2 DIAS DESPUES: El amigo crawler4.irl.cs.tamu.edu se pasa por ese sitio que todos sabemos la instrucción del fichero robots.txt y vuelve a visitar de forma exagerada la web; sólo queda la opción de bloquear la IP, cosa que hago y funciona. Poco serio para algo que pertenece a una universidad...
Relacionado: ¿Necesitas un Fichero Robots.txt?
No hay comentarios:
Publicar un comentario