Как веб-мастеру управлять поведением робота на своем сайте?

Еще в 1994 году создали протокол по исключениям для роботов, но до сегодняшнего дня его так и не внедрили, он остался как рекомендация.

Если робот ведет себя некорректно, то вы не можете на него пожаловаться, единственный выход – это запретить «нарушителю» вход на разработка сайта, вашего сайта, лучшего сайта, используя настройки для веб-сервиса или определители IP-адреса, с которого были отосланы не совсем правильные запросы.

Хотя, стоит отметить, что роботы крупных поисковиков придерживаются исключений и, кроме того, вносят свои дополнения и расширения. Так, применяя дополнения, которых нет в стандартных исключениях, поисковики дают возможность более гибкого управления своим роботом. Например, с инструкцией Crawl-delay веб- специалист может выставить определенный промежуток между осуществлением запроса 2-х документов для роботов с Yahoo! и MSN, а если использовать инструкцию Host, то есть возможность указывать адрес зеркала ресурса для поисковика «Яндекс».

Но при этом стоит быть осторожнее с дополнительными инструкциями, так как другой робот, к примеру Snapchat, может не учесть не только данную инструкцию, но и все правила, что относятся к ней.

Кроме того, вести управление посещаемости роботов можно и в косвенном порядке, то есть робот от Гугла будет в очередной раз забирать те документы, на которые делают ссылки чаще всего.

У меня техническое образование и всю свою сознательную жизнь связан с техникой. Это и работа, и хобби.
Подробнее
0