Вебмастеры часто спрашивают, почему некоторые страницы сайта или сайт не индексируются. Честно говоря, никогда нельзя быть уверенным до конца, пока Вы не устраните проблему, из-за которой страница или сайт не индексируются. Нужно проверить все шаг за шагом.
Для начала необходимо убедится в том, что страницы или сайта действительно нет в индексе поисковой системы. Естественно, у каждой поисковой системы (сокращенно будем называть «ПС») свой индекс, поэтому нужно проверить наличие страницы в каждой из ПС. В большинстве поисковых машин можно использовать специальный оператор, с помощью которого можно проверить наличие страницы в индексе.
Обратите внимание, что в операторе для Яндекса нужно указывать искомую страницу без http://, иначе ничего не найдете.
Затем лучше проверить индексируемость всего сайта, если не хватает много страниц, значит у вас проблема не только на одной старнице.
Основные причины, по которым страниц нет в индексе:
1. Спам. Если вы спамили другие сайты и оставляли там ссылку на свой или массово регистрировались в каталогах, поисковики могут наложить фильтр за спам и существенно сократить количество страниц в индексе.
2. Скрытый текст. За использование ключевых слов на странице тексом, который не виден пользователю или за использование ссылок размер 1х1 пиксель сайт тоже понижается в выдаче и сокращается число проиндексированных страниц. А можно и вообще получить бан от поисковой системы (ПС). В общем, лучше не пытаться обмануть ПС, это чревато печальными последствиями.
3. Не уникальные материалы. Если вы копируете материалы с других сайтов, а своих не пишете, или пишете мало, то за это тоже можно попасть под фильтр и опять же вылететь из индекса. Запомните! Уникальный материалы это основа сайта, ее фундамент.
4. Скрытые ссылки. Если навигация на сайте осуществляется путем JavaScript, Flash, и других не-HTML методов, маловероятно, что «пауки» смогут переходить по таким ссылкам, следовательно, и страницы не будут проиндексированы.
5. Динамические URL. Если ссылка чрезмерно длинная, если в ней есть множество параметров, идентификатор сессии, то поисковые системы могут их непроиндексировать.
6. Ошибка в robots.txt. Файл robots.txt показывает поисковикам, какие страницы включать в поиск, а какие исключать из сканирования. И если вы составите этот файл неправильно, то можете запретить «пауку» индексировать те страницы, которые индексировать нужно.
Это были проблемы, из-за которых в индексе могло не быть многих страниц, а теперь давайте рассмотрим возможные проблемы, которые ограничены одной страницей.
1. Неправильная пометка для роботов. Точно также, как файл robots.txt, метатеги рассказывают паукам, какую страницу включить в индекс, а какую исключить. Вот этот метатег запрещает поисковым системам индексировать страницу:
2. Требуется вход пользователя. Если на странице появляется всплывающее окошко, требующее залогиниться чтобы зайти на сайт, или требуется заполнить форму, то поисковые роботы не смогут этого сделать и проиндексировать страницу.
3. Неправильный редирект. Не используйте JavaScript перенаправление, потому что роботы его не понимают.
4. Плохое качество страниц. Если на странице множество ошибок и долгое html-кодирование, то вряд ли она будет правильно индексироваться.
Если вы исправите все проблемы, то вам останется только ждать, пока пауки вернутся на ваш сайт. Помните, что если страницы нет в индексе, то ее нельзя будет найти через поисковую систему. И не пользуйтесь «черными» методами.
Все материалы размещенные на сайте пренадлежат их владельцам и предоставляются исключительно в ознакомительных целях. Администрация ответственности за содержание материала не несет и убытки не возмещает. При копировании материала, ссылка на сайт обязательна!