Изучаю гугл-кунгфу от Panda

Панда - убивает не СДЛ

Итак, похоже некоторые из моих самых старых, самых трастовых и просто мегапушистых сайтов, которые даже Яшка не трогает, попали слегка по раздачу кунгфу приемчиков от нового гугловского фильтра Panda. Так что в связи с необходимостью его детально изучить и вылезти из-под него — окунаюсь с головой в изучение сей восточной (хотя в реале западной) философии СДЛ с точки зрения Гугла.

Что такое Панда и с чем ее есть?

Итак, Panda (или бывший Farmer) – один из наиболее значительных алгоритмических изменений от Google, сделанных за последние 8 лет. Первое его внедрение затронуло более 16% всех поисковых запросов. По моим личным наблюдениям, пока под раздачу попали старые сайты с посещаемостью от 2К, хотя я не истина в последней инстанции.

Конечно, есть хитрые намеки на то, как же Вашему сайту пережить сей ужас, от самого Google. Первое — за прегрешения одной страницы фильтр будет наложен на весь сайт! Так что если у Вас такой себе минисайтик на 100 000, в том числе половина — полумодерируемый форум, то чистить придется очень много…

Суть и этих советов, и всего неутихающих обсуждений по всему Инету, сводится к нескольким факторам «наибольшего» риска, убрав которые с сайта — выведете его из-под фильтра. Только уж очень жестокие некоторые из них…

1 — Реклама. Даже свои же блоки AdSense могут стать причиной, что уже говорить о засилье баннеров и тизерных партнерок (я — грешен, что и говорить). Рекомендуют «уменьшить» (Гугл) или ВООБЩЕ УБРАТЬ рекламу до поры до времени (форумы и советы). Только что ж кушать-то в это время будем??? Как вариант, убираем рекламу, вводим в Гугл «затока приморье отзывы» — и валим «курить бамбук» на отдых, пусть и сайт тоже в отпуске повисит без рекламы.

2 — Исходящие ссылки. Первое — не должно быть слишком много (а это — всякие информеры и прочая «полезная» нечисть» в сайдабарах, бестолковые (или продажные) сквозняки и т.п.) Чистим футеры и сайдбары наших шаблонов. Второе — если ссылки есть, то они не должны быть битые. Опять же проверяем исходящие, чистим. Что оооочень сложно, если ссылка размещена вручную или где-то на форуме…

3 — Поисковый спам. Наконец и Гугл взялся за перебор вхождений ключа на странице. Так что если таковые шедевры имеются — либо переписать, либо удалить, поставив 301 редирект на нормальную страницу по теме.

4 — Дублированный контент. Прибить все «страницы для печати или для PDF», ибо это — зло, когда на 1 текст ведут три разных ссылки. Ну и про 301 редирект не забыть с них на основную страницу. Очень удобный совет в этой ситуации — это запретить в robots.txt обработку одинакового содержания. Используйте команду “disallow” и сканер гугла распознает, что Вы не хотите индексировать дублированный контент.

Например, у вас размещен одинаковый контент по ссылкам:

A) http://example.com/page.php?id=12
B) http://example.com/easter/eggs.htm

И предположим, что файл robots.txt содержит команды:

user-agent: *
disallow: /*?

Что запрещает сканировать URL (A), указанный выше. Используя подобную блокировку вы предотвратите распознавание нашим сканером двух ссылок с одинаковым содержанием. Но в случае, если мы найдем ссылки, ведущие на URL (A), возможно, что мы “тихо” проиндексируем их (без включения в результат работы сканера), и эти ссылки станут конечными для URL’а, который, по сути, неизвестен.

С другой стороны, если мы все-таки решили просканировать URL (A), то наша система, как правило, распознает, что по этим ссылкам находится идентичный контент, и сможет установить необходимые информационные связи (такие, как ссылки), опираясь на тот единственный URL, который было разрешено проиндексировать. Кроме того, вы можете использовать различные методы канонизации, чтобы убедиться, что мы индексируем те версии [ссылок], которые вы предпочли.

5. Единственный источник обратных ссылок. Ну, тут понятно — как можно сильнее разнообразьте беки — и будет Вам счастье!

Ну и к концу — извечный «Аминь!»  о том, что создавать нужно и можно только «Сайты Для Людей«, и будет Вам счастие.

Помните, Google часто вознаграждает сайты, которые предлагают хороший пользовательский опыт. Занимаясь написанием статей для вашего сайта, или выкладывая новый контент, всегда думайте о клиенте. Обилие рекламы, плохая навигация, просроченные материалы и “битые” ссылки говорят Google о низком качестве сайта. Google будет продолжать совершенствовать свой алгоритм, чтобы отсеивать сайты, не предлагающие новый опыт своим пользователям. Поэтому, если вы используете “белые” SEO-методы, меняете источник ваших ссылок и обеспечиваете качественное содержание, то вам никогда не придется беспокоиться о потере 90% вашего онлайн-бизнеса за одну ночь, как многим другим компаниям после этого апдейта.

Что делать, если сайт «попал» под Панду?

Ну, все перелопатить, исправить, установить (если не дай Бог еще не установлено) и настроить Google Webmaster Tools, еще раз им сайт пересмотреть. Ну и потом попробуйте связаться с Google Spam Team, чтобы отправить Ваш сайт на пересмотр.

Вот так-то.

Ушел работать, ибо перелопатить 10К статей — это Вам не шутка…


Похожие статьи:


Перейдите к концу и оставьте комментарий. Пинги закрыты

Оставить комментарий