Хлопоты с динамическими адресами страниц сайта (URL)

Динамически формируемый контент и поисковая оптимизация


Наиболее популярное решение сделать из динамического сайта статический. То есть, отдавать поисковому роботу и браузеру не динамические адреса, а связанные с ними псевдостатические адреса страницы. При этом не забываем, что для уже проиндексированных динамических страниц нужно настроить 301 редирект на новые статические адреса.

Что такое динамически формируемое содержимое? Вы наверняка встречали адрес типа сайт.ru/?id=4. Такой адрес говорит про то, что контент на данной странице формируется динамически. В динамических сайтах находится один или несколько шаблонов страниц. Содержимое же этих страниц хранится в базе данных. Когда браузером запрашивается определенная страница, то по параметрам заданным в url (адрес страницы) идет запрос к базе данных. Выданное базой данных содержимое подставляется в шаблон.

Знак вопроса или другой символ показывают поисковым машинам, что это динамически сформированная страница. Если сайт большой, то на одной странице может быть несколько шаблонов. В такой ситуации параметры разделяются друг от друга амперсандом (&). Такой адрес усложнит индексирование поисковыми машинами. Поисковая машина не знает, что означает каждый параметр и является ли эта страница уникальной. Из-за этого велика вероятность, что поисковый робот пропустит такой адрес.

Также в динамических URL доставляют хлопот и ID-сессии. ID-сессии – это идентификаторы, которые вкладываются в адрес. Они позволяют отслеживать перемещения пользователя по сайту. Например, при покупке в интернет магазине сессии отслеживают объекты в корзине покупок. Если адрес страниц уникален для каждой сессии каждого пользователя, то такие страницы имеют проблемы с индексированием. Сессии могут вызвать трудности для поисковых роботов. Это связано с тем, что сессии могут непроизвольно создать большое количество ссылок для посещения роботом. Робот может несколько раз проиндексировать одну и ту же страницу. Получается, что одна и та же страница представляется другим ссылочным путем. Для робота она выглядит как новая. В результате робот загружает одну и ту же страницу много раз. Поэтому он старается избегать таких страниц. Если Вам необходимы сессии, храните их в cookies.

Поисковая оптимизация динамических сайтов

Нужна ли поисковая оптимизация динамических сайтов? Ведь поисковые машины умеют индексировать динамические сайты, а Google даже советует Веб-мастерам не менять динамические адреса на статические, убеждая при этом, что умеет индексировать и ранжировать их наравне со статическими. И все же в SEO статистические URL имеют ряд преимуществ перед динамическими:

Динамически формируемый контент и поисковая оптимизация

Что же в данной ситуации можно предпринять? Как вариант из адреса можно убрать лишние параметры. Но это не всегда возможно сделать. Чаще всего решением данной проблемы служит файл robots.txt. В нем необходимо прописать страницы, которые не нужно индексировать.

Структура каталогов

Поисковые машины за один проход индексируют определенное количество страниц сайта. При этом имеет значение уровень вложенности каталога. Не храните важную информацию глубже второй вложенной папки. Чем проще структура каталогов, тем лучше. Глубоко расположенные страницы не смогут быстро индексироваться поисковыми машинами.