|
После анализа и классификации страниц Вашего сайта наши алгоритмы приняли решение не включать его в поиск. Это может быть вызвано неуникальностью информации, использованием поискового спама или тем, что многие страницы сайта созданы автоматически и не предназначены для чтения пользователями. Все страницы с результатами поиск надо закрывать от индексации в robots.txt Неверная обработка 404 ошибки
Все несуществующие страницы должны отдавать 404 код ответа сервера. На рисунке 12 приведен пример ошибки на крупнейшем автопортале России. Какой бы адрес вы не придумали, открывается страница с кодом ответа сервера 200. Яндекс проиндексировал около 3000 страниц 'страница не найдена' на сайте auto.ru. Появление таких страниц нужно регулярно отслеживать в индексных базах поисковых систем. Самый лёгкий вариант - разместить определенные маркеры в шаблоне страниц, которые не должны индексироваться. Далее, если произвести поиск этих маркеров по сайту, то легко можно найти содержащие их страницы.
Рисунок 12 - Неверная страница ошибочного адреса Ошибки при выводе синонимов
Эта ошибка свойственна сайтам, разнесённым на несколько доменов. Например, когда разные подразделения компании имеют своё уникальное доменное имя. Ввиду того, что обычно такие сайты строятся на единой CMS, url имеют общие принципы построения. Необходимо очень внимательно проверять, чтобы одни и те же позиции не открывались на всех сайтах. Пересечение контента в этом случае может привести к санкциям. В частности, в поисковой системе Яндекс большая часть доменов может быть исключена из результатов поиска, так как они будут признаны афилироваными. Другие ошибки
В этом разделе статьи мы собрали наиболее частые ошибки, которые происходят по 'недосмотру' оптимизатора. Чаще всего к ним относятся: одинаковая мета-информация на большом количестве страниц, открытые серверные логи, нагрузочные ошибки, большое количество внешних ссылок. Одинаковая метаинформация
Каждая страница на сайте должна иметь уникальный заголовок (мета-тег title), который описывал бы конкретную страницу. Не рекомендуется использовать одни и те же заголовки для всех страниц сайта. Прописав уникальные заголовки для большей части страниц (часто это решается прописыванием правил формирования заголовков в CMS), вы обеспечите себе хороший приток целевых пользователей по низкочастотным поисковым запросам. Но главное, Вы уменьшите вероятность попадания в выдачу 'непродвигаемой' страницы (страницы, которая может не иметь внешних ссылок, но быть признанной более релевантной), т.е. снизите возможность внутренней конкуренции. Открытые серверные логи
Часто хостеры ставят бесплатную систему статистики, например, webalizer. Если индексирующий робот получает ссылку на статистику вашего сайта, он начинает активно индексировать страницы со статистическими данными. Тем самым значительно увеличивается количество неинформативных страниц, проиндексированных на вашем сайте. Возникают проблемы со скоростью индексации нового контента, так как страницы с серверными логами обновляются ежедневно, а значит, индексирующие роботы будут обращаться к ним в первую очередь.
Часто случается такая ситуация, что индексирующий робот поисковой системы сильно нагружает сайт. Если представители хостинга лояльно относятся к большому числу запросов с ip адреса поисковой системы, то движок сайта может этого не выдержать. Решением в этой ситуации может быть использование директивы crewl-delay в robots.txt или же передача индексирующему роботу исключительно закешированных страницх, генерирование которых не вызывает нагрузок.
Примером высокой нагрузки на сайты является робот поисковой системы webalta, который настолько сильно нагружал сервера, что многие оптимизаторы просто закрывали свои сайты для индексации этим роботом.
Часто бывает так, что на сайте есть большое количество исходящих ссылок. В исходящих ссылках нет ничего страшного, однако следует понимать и видеть грань между спамом и разумным кол-вом ссылок. Нужно знать каждую из ваших внешних ссылок. Есть два решения данного вопроса. Первое - посмотреть в live.com, воспользовавшись запросом linkfromdomain. Вторым способом является проверка всех страниц каким-либо десктопным приложением. В частности, удобным решением является программа xenu. Постоянный мониторинг - залог успеха
Из всех перечисленных ошибок большинство достаточно решить один раз, чтобы больше они не мешали. Но забывать о потенциальной возможности их появления не стоит. Есть такие ошибки, которые могут появляться вновь и вновь: Коды ответа сервера могут измениться после обновления ПО на хостинговой площадке, малоинформативные страницы могу появиться во время неполадок или обновлении версии движка, в индексной базе могут постоянно появляться страницы с неверными адресами, могут появляться новые внешние ссылки в результате спамерской активности и пр... Идеальный вариант - проверять всё перечисленное в автоматическом режиме и получать извещения об изменениях. Выводы- Релевантный и авторитетный документ не будет находиться поисковиками, если техническая база сайта будет иметь ошибки, мешающие и путающие индексирующий робот.
- Существует возможность управлять индексацией: robots.txt, sitemap.xml. Необходимо знать все возможности этих инструментов.
- Индексировать нужно только значимый для пользователя контент. Дубли, техническая информация, пустые страницы должны быть исключены из области индексации, если нет возможности избежать их наличия на сайте.
- Все три группы ошибок (ошибки во вспомогательных файлах, ошибки, возникающие по причине некорректной работы CMS и технические 'недосмотры' оптимизатора) должны быть устранены и проверены до непосредственного поискового продвижения.
- Необходим постоянный мониторинг технических ошибок. Желательно, чтобы он проводился в автоматическом режиме.
Страницы: 1 2 3 4
|
|
|
|
|