За что алгоритм Панда от Google наказывает сайты и как освободиться от него

Здравствуйте, уважаемые читатели блога Goldbusinessnet.com! В продолжение темы настала очередь оценить действие Панды как одного из фильтров Google в отношении вебсайтов, пытающихся манипулировать результатами поисковой выдачи.

В прошлой статье были рассмотрены нюансы работы другого представителя гугловской фауны - Google Пингвин, базовой задачей которого является понижение вебресурсов за ссылочный спам. Panda же пессимизирует вэбсайты в основном за внутреннюю переоптимизацию и низкое качество контента.

Зачем Гуглом был создан Панда и какие требования он предъявляет к вебпроектам

В общем и целом цели поисковых систем схожи: обеспечить максимальную степень релевантности страниц вебресурсов. Это необходимо для того, чтобы в результате ранжирования (в данном материале - о факторах, влияющих на содержание выдачи Яндекса и Гугла) вебресурсов в ТОПе оказывались бы те ресурсы, которые наиболее отвечали бы конкретным ПЗ (здесь - о видах поисковых запросов) пользователей.

Поэтому общие принципы механизмов, регулирующих качество находящихся в выдаче документов, у Гугла и Yandex тождественны. Алгоритм Panda, к примеру, наказывает практически за то же самое, что и фильтр АГС Яндекса, это касается и других фильтров обоих ПС, разница лишь в деталях.

Надо сказать, что за последнее время выдача и Google, и Yandex существенно очистилась. Особенно радует то, что резко сократилось число ГС, место которых заняли настоящие СДЛ (сайты для людей), хотя до идеала еще ой как далеко.

Однако, есть и другая сторона медали. Очень хорошо, что некачественные вебресурсы теряют надежду попасть в ТОП, что справедливо. Но во многих случаях вполне приличные ресурсы все равно оказываются не у дел. Это связано с тем, что поисковики постоянно экспериментируют, меняя содержание алгоритмов ради глобальной цели получения релевантной выдачи.

Сие благое намерение вполне понятно, впрочем оно сообразуется со стремлением Яндекса и Гугла добиться конечной цели в виде повышения своих доходов, которые достигают на данный момент десятков миллиардов долларов в год. Было бы весьма странно, если такие гигантские интернет корпорации не использовали бы такую возможность.

Расчет здесь весьма прост: чем больше пользователей будет находить конкретную информацию по искомому запросу, тем больший их процент будет доверять данному поиску. А в этом случае увеличится число кликов, совершаемых по объявлениям контекстной рекламы (в этом материале о монетизации сайта посредством контекста общая информация), доходы от которой составляют львиную долю ПС.

В общем, меркантильные интересы поисковиков налицо, что, впрочем, вполне логично. Кстати, частыми обновлениями алгоритмов они преследуют в том числе еще одну цель: создать условия для перехода части владельцев вебресурсов из SEO в другую область получения трафика для продвижения своего бренда, услуг либо товара, а именно с помощью использования контекста Директ или AdWords. То бишь, они стремятся увеличить армию рекламодателей, которые будут приносить дополнительный доход.

Но простые вебмастера, имеющие информационные проекты, не всегда имеют возможность таким образом заработать на сайте (в этой статье об этом подробнее) в соответствии с затраченными ресурсами (время, расходы на содержание вебпроекта и т.д.). Поэтому очень важно в данной ситуации вовремя предугадывать, в какую сторону поворачивает СЕО. Хотя в глобальном смысле алгоритмы не могут изменяться на 180 градусов, все-таки пожелания пользователей остаются теми же, однако нюансы могут быть. Дьявол, как известно, кроется в деталях.

Я позволил себе это информационное отступление, чтобы лишний раз напомнить о необходимости постоянного мониторинга всех событий, касающихся современного SEO, частью которого являются правила, устанавливаемые ПС, в том числе их сдерживающие фильтры.

Это необходимо, чтобы вовремя реагировать на них и обеспечить максимальную эффективность в продвижении своего проекта. Ну а теперь немедленно переходим к конкретике, актуальной именно на данный момент, и посмотрим, за что может наказать тот же Панда (этот алгоритм впервые появился в 2011 году). Итак, вэбсайт непременно понесет наказание, если Panda вдруг обнаружит следующее:

  • большое количество некачественного контента: copypast (копипаст), низкопробный рерайт и т.д.;
  • переоптимизация, заключающаяся в переспаме ключевиков в подавляющем большинстве текстов, причем не только в теле статьи, но и в заголовках, тайтлах, описании. Кроме того, под лапу Панды могут угодить материалы, в которых неестественно часто использованы теги акцентирования (например, тот же STRONG, обеспечивающий подчеркивание жирным);
  • объявления (в том числе блоки баннерной рекламы), не релевантные основному контенту на странице и в принципе огромное количество рекламных элементов;
  • невообразимое число дублированного контента. Как известно, современные CMS (Content Management System) очень удобны для создания вэбсайта или блога и имеют массу преимуществ, но некоторые из них генерируют дубли;
  • плохие поведенческие факторы (время, проведенное посетителями на вебсайте, показатель отказов, глубина просмотра);
  • массу не работающих линков, ведущих на страницу с ошибкой 404 (тут о том, как создать корректную page not found, можете узнать все детали);

Как определить, под действием какого алгоритма находится вебсайт

Итак, если вы увидите, что число посетителей, приходящих с поиска Гугл, вдруг начинает неуклонно падать (и это не связано с присущими вашему вэбсайту обычными сезонными колебаниями), то весьма вероятно, что ресурс попал под один из фильтров. Отслеживать посещаемость с поисковых систем удобнее всего используя сервис статистики сайтов LiveInternet, который обладает богатым функционалом. Вот график изменения посещаемости одного из моих проектов:

Как видите, с сентября 2014 года кривая трафика начала неуклонно ползти вниз. Как раз в это время был последний апдейт Панды. Проследить обновления всех фильтров можно с помощью специализированных сервисов, одним из которых является Moz.com, где представлены все даты обновлений:

Так что в данном случае все ясно, именно фильтр Panda стал причиной падения посещаемости. Однако не всегда так легко соотнести даты обновления алгоритмов и начавшиеся проблемы с проседанием позиций вэбресурса и, соответственно, трафика. Поэтому существует зарубежный ресурс Barracuda, который предлагает специальный инструмент Panguin Tool:

С его помощью можно проследить, например, кто из сладкой парочки Гугла (Панда или Пингвин) стал причиной крушения вашего вэбсайта. Правда, для этого необходимо предоставить доступ к вашей статистике Google Analytics. Конечно, мировому гиганту поиска можно доверять в вопросе сохранения конфиденциальных данных, но чем черт не шутит. Ведь с основным аккаунтом Google (в этой публикации о создании аккаунта в Гугле все подробности) обычно связана и учетная запись Адсенс, что как-то напрягает.

В этой связи я вспомнил, что вполне возможно делегировать права на данные Аналитикс другому своему профилю, на котором нет никакой важной информации, благо Google не накладывает ограничения на количество учетных записей. Что и было сделано. Для этого я вошел во вкладку «Администратор» основного профиля Гугл Analytics и выбрал раздел «Управление пользователями»:

Там прописал адрес электронной почты, соответствующей другой моей учетной записи. Этим самым я предоставил право получения статистических данных через другой аккаунт:

Далее я авторизовался в том аккаунте, который добавил и нажал кнопку «Log-in to Analytics» на вебстарнице Panguin Tool. В результате появилась табличка, информирующая о необходимости подключить автономный доступ:

Естественно, отреагировал на это положительно, кликнув по соответствующей кнопке. Дальше вылезло сообщение, предлагающее выбрать конкретный канал статистики:

В итоге была сформирован результирующий график, где точные даты обновлений алгоритмов накладываются на кривую изменения посещаемости моего блога.

Если проанализировать эту графическую информацию, то не заметен спад посещаемости после какого-либо апдейта. Единственный непродолжительный участок провала, где трафик упал до нуля, связан со снятием счетчика Аналитикс, сейчас уже не помню, по какой причине. Следовательно, Goldbusinessnet.com, похоже, пока избежал острых клюва и когтей Панды либо Пингвина.

Если по графику невозможно понять, под какой фильтр угодил вэбсайт (безусловно, бывает и такое), то при анализе трафика надо обратить внимание на следующее. Если вас клюнул Penguin, то проседание позиций, скорее всего, будет только для тех запросов, по которым вы продвигаете заспамленные "плохими ссылками" страницы. Если же покусал Panda, то падение начнется по всем ключевикам, следовательно, будет более стремительным.

Как обойти Google Panda или выйти из-под этого фильтра

В первой главе текущей публикации мной были упомянуты нарушения, при обнаружении которых Пандой может быть наказан вебресурс. Теперь рассмотрим, как сделать так, чтобы избежать его лап. Или, если вам не удалось этого избежать, каким образом восстановить позиции своего ресурса. Итак:

1. Ежели проект не содержит уникальный контент, отредактировать статьи таким образом, чтобы их содержание было эксклюзивным. Также неплохо бы добавить актуальную информацию, которая была бы полезна посетителям. Проверить статьи на уникальность можно посредством программ либо онлайн сервисов.

2. Ликвидировать переизбыток ключевых слов в Тайтле, заголовках H1-H3, Description (описании). Все заглавия и описания статей должны быть читабельны, понятны пользователям и цепляющими взгляд. Кроме этого, они обязаны полностью соответствовать содержанию публикаций. Ведь в противном случае читатели покинут вебсайт, поскольку не найдут обещанного.

3. Убрать лишнюю рекламу со страниц вепроекта, особенно те блоки, которые не являются релевантными его содержанию. Ведь такие рекламные объявления не принесут достойного дохода, а навредить могут серьезно. Также откажитесь от использования большого количества агрессивной рекламы типа попандеров, кликандеров, всплывающих окон и им подобных элементов.

4. Уничтожить весь имеющийся дублированный контент. Как это сделать, например, для блога WordPress с древовидными комментариями, я подробно писал в статье о ликвидации replytocom и других дублей страниц, которые, поверьте, могут стать причиной полного краха. Это действительно серьезно.

5. Улучшить поведенческие факторы вебсайта, качество которых связано с предыдущими шагами. Если реализуете первые три пункта, то большая часть работы будет выполнена.

6. Проверьте все внутренние и внешние ссылки на предмет их работоспособности. Можете почитать материал о том, как обнаружить битые ссылки и каким образом их удалить с помощью плагина Broken Link Checker.

Это основные пункты, следование которым поможет избежать Панды или, в худшем случае, освободиться от его объятий. Помните, что Panda это машинный алгоритм, который накладывается автоматически. Никакие обращения в хелп Гугла не помогут ускорить его снятие. Только после всех исправлений вы можете обратиться с подробным описанием всех предпринятых вами действий.

Поэтому лучше, конечно, изначально не давать ему повод испытать свои зубы на вас. Ну а если не посчастливиться, что вполне возможно при современном развитии событий, не примените воспользоваться моими рекомендациями, данными чуть выше. Хуже точно не будет.

Еще статьи по данной теме:
Самые интересные публикации из рубрики: Поисковые системы и браузеры

2 отзыва

  1. Александр

    Ох уж эти фильтры. Сколько информации нужно знать, чтобы не попасть под фильтр.

  2. Игорь Горнов

    Что же делать, Александр, доля у нас такая. 🙂

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Чтобы ввести любой код, вставьте его между [php] и [/php]. Ссылка (URL), помещенная в текст комментария, не будет активной. C целью ее выделения и более удобного копирования можно заключить ее между тегами <pre> и </pre>.