Высоков.ру

Выпали все страницы сайтов из индексации Яндекса

DSC_3066

Обновилась поисковая база Яндекса, предоставив пользователям «зеркало Интернета» за 29-30 октября, и у меня выпало из индекса большинство сайтов.

Просто взяли и выпали. То есть, остались только главные страницы.

В панели веб-мастера во всех сайтах показано, что «Исключено роботом» все страницы со стандартными адресами wordpress, типа, site.ru/?p=111.

Совпадение: эти адреса всегда у меня были запрещены к индексации, но теперь информация о них появилась в панели веб-мастера одновременно с выпадением их дублей с «нормальными» адресами, с ЧПУ.

Начал я писать в техподдержку Яндекса письма с одним вопросом по разным сайтам…

В первом письме привел пример четырех сайтов и получил ответ, что три из них – говносайты. Почему-то про четвертый, который тоже обнулился, в ответе не  было ни слова. Дали мне ссылки почитать, что такое качественные сайты.

Подозреваю, что представитель техподдержки, который ответил на первое письмо, просто не разобрался в вопросе, потому что о стандартных адресах и выпавших вместе с ними ЧПУ не было сказано ни слова.

Ответ на второе письмо пришел более конкретный. То есть, просто конкретный: странные дела, дескать, творятся, и ваш «уникальный» случай мы передаем нашим суперспециалистам.

На третье письмо ответа пока нет.

А теперь удивляется другим совпадениям:

1. Напоминаю, что когда робот раздуплился, что адреса /?p= закрыты, то после составления их списка удалил из индекса их близнецов с ЧПУ. Совпадение?

2. На сайтах, где не закрыты от индексации страницы рубрик или меток, удалились из поиска все страницы, кроме… правильно! Кроме рубрик и меток. Ну и, главной страницы. Совпадение?

3. На сайтах, где вообще не было robots.txt, страницы из индекса не выпали. Не выпали и всё тут. Совпадение?

2013-10-29 23.06.35А по поводу некачественных сайтов… конечно, я люблю свои сайты, но Яндекс имеет полное право на своё мнение по этому поводу. Но еще одно совпадение: ко всем сайтам я отношусь примерно одинаково, создатель всех сайтов и автор статей – один, ваш покорный слуга. То есть, получается, что при прочих равных условиях, качество сайта зависит от того, есть ли на нем файл robots.txt? Других отличий-то нет!

Обидно, что назвали говносайтами странички, в которые я вкладывал душу, не говоря о времени и всём остальном. Досадно, что в любом случае, даже если я тысячу раз не виноват и сайты замечательные, в итоге получу только извинение и… сообщение, что вручную никто возвращать страницы в индекс не будет. И появятся они там, в лучшем случае, через несколько месяцев.

А всё из-за чего?

Для тех, кто ничего не понял, резюмирую:

  • Сайты все одинаковые.
  • Из индекса выпали полностью те, в которых запрещена индексация стандартных адресов wordpress при установленных ЧПУ.
  • На «говносайтах», которые лишились всех страниц, остались страницы рубрик, если они были открыты для индексации. То есть – тут говносайт, а тут не говносайт?
  • Нисколько не пострадали сайты, в которых не были запрещены к индексации никакие страницы или вообще отсутствовал файл robots.txt.

Казалось бы, при чем тут «наше мнение по поводу качественных сайтов»?..

P.S. Кстати, немного об адекватности Яндекса — скриншоты со страницы данных об этом сайте.

index1

Как видно, сообщается, что проиндексировано 76 страниц, а реально показано только две.

index2

Апдейт 9.11. «Яндекс – Капитан Очевидность?»

С грустью прочитал ответ Яндекса на своё письмо. Наверное, так будет всегда – никто не хочет вникнуть проблему. Здесь я даже процитирую, чтобы не быть голословным:

«Ранее индексирование страниц Вашего сайта [сайт] вида [сайт]/?p=136 было запрещено в Вашем файле robots.txt, в связи с чем они не были проиндексированы и не участвуют в поиске… В настоящий момент запрет отсутствует, страницы стали доступны для робота, поэтому по мере его обхода страницы будут проиндексированы. После этого информация в сервисе Яндекс.Вебмастер должна будет обновиться. Подробнее о файле robots.txt…» и так далее.

Интересно, что нового я узнал из этого ответа и ответ ли это на мой вопрос?

Я знаю, что «индексирование страниц Вашего сайта [сайт] вида [сайт]/?p=136 было запрещено». Я знаю, что «в настоящий момент запрет отсутствует» (потому что вообще удалил файл для роботов или удалил строку «disallow */p?*».

Вопрос же был в том, почему запрет был на стандартные адреса, а индексация прекратилась дублей этих страниц с ЧПУ, и все они выпали из индекса.

Наверное, это очень сложно – прочитать вопрос и ответить на него.

Комментировать