Особенности оптимизации сайта с динамическим содержимым
Поисковая оптимизация — это сложная и кропотливая работа, построенная на малом количестве фактов, которые, как считают многие, работают. Отчасти это происходит потому, что поисковые системы не разглашают свои алгоритмы — они конфиденциальны, от них зависит конкурентоспособность поисковика. Поисковые системы тратят много времени и ресурсов, исследуя способы ранжирования информации в сети. Цель этого — люди, использующие поисковик, должны найти самые релевантные источники.
Поскольку скрытые алгоритмы поисковых систем развиваются стремительно, распространилось множество мифов о том, как работают поисковые машины.
Основной из них: поисковые системы не могут индексировать сайты с длинной строкой запроса в браузере, содержащей символы «?» и «=». Обычно поисковые системы отправляют своих «пауков» для сканирования и получают максимально возможное количество ссылок и страниц. Роботы переходят от ссылки к ссылке, собирая сведения обо всем. Эта простая система хорошо работает для так называемых «статических ссылок». Под ними понимаются ссылки на такие ресурсы, которые уже являются html-страницами сайта на сервере.
Сложнее поисковые программы анализируют динамические страницы, характерные для динамически генерируемых сайтов. Такие страницы фактически не существуют на сервере, пока пользователь не нажмет на ссылку на странице-шаблоне.
Длинные строки запроса могут привести к зацикливанию в работе программ, которые могут принимать динамические страницы за статические. Это вызывает рост количества учтенных ссылок на конкретный ресурс из-за определения алгоритмами невероятного количества страниц.
Вот почему поисковые системы установили запрет на индексацию ресурсов с длинными строками запроса и указанными выше символами. Это ограничение постепенно стараются убрать. Система Google, например, способна индексировать динамические ссылки и нормально их ранжировать.