Нужно ли закрывать якорные ссылки от индексации?
В блоге давно действует возможность задать свой вопрос по SEO и получить на него ответ. Я всегда отвечаю всем, но раньше писал письмо лично каждому. Сегодня решил, что ответы на самые интересные вопросы или вопросы, которые могут возникнуть у многих — буду публиковать в блоге. Ссылки на чужие сайты естественно не публикую, личные данные не раскрываю 🙂
Вопрос у нас от Александра про якорные ссылки. Нужно ли их закрывать от индексации или нет?
Подскажите, нужно ли закрывать от индексации (например, в файле robots) ссылки вида site.ru/#contacts, которые перематывают страницу лэндинга к определенной области?
Или site.ru/#top, которая снизу перематывает в верх.
Сейчас у меня в Яндекс Счетчиках в разделе «Адрес страницы» первое место занимает просто домен, а потом ссылка домен/#top
Плохо это или нет?
Спасибо!
Якорные ссылки — это ссылки внутри одного документа. Т.е. при клике вы перемещаетесь внутри одной страницы сайта в нужную область. Часто их используют в оглавлении или для различных фильтров.
Плохо это или нет? Если данные ссылки помогают пользователю — это хорошо. Т.е. в данном случае убирать их не нужно. Если они не несут особой пользы — то просто откажитесь от них.
Закрывать якорные ссылки в файле robots.txt не нужно. До 2009 года проблема с ними была актуальна (в частности для Google), но уже сейчас поисковые системы отлично понимают, что ссылка site.ru/#top и site.ru — это одна страница. Таким образом — проблем с дублями страниц не будет.
Есть еще одна большая проблема, с которой может столкнуться неопытный SEO-специалист: закрывая в файле robots якорные ссылки, можно закрыть случайно весь сайт от индексации. Пример:
Правило: Disallow: /#top
Равнозначно правилу: Disallow: /
Так как решетка (#) — это элемент для обозначения комментариев и все, что справа от него, поисковой робот уже не прочитает.
Серьезная может быть ошибка. И неочевидная. Спасибо, что рассказали об этом. Интересный был вопрос, и очень интересный ответ.
спасибо