94% сайтов не смогли подружиться с пандой
После введения алгоритма Google Panda 24 апреля 2012 года, по результатам опроса Search Engine Roundtable, под фильтр попали 65% сайтов. После настроек алгоритма, по прошествии 3-х апдейтов, ситуация несколько изменилась, однако коренного перелома, то есть ослабление настроек работы алгоритма так и не произошло.
Результаты следующего опроса от Search Engine Roundtable оказались не менее печальными. Согласно ему, 94% владельцев сайтов, так и не смогли побороть негативные последствия связанные с работой алгоритма. Лишь 13% утверждают о частичной реабилитации в глазах поисковой системы, при том что большинство — а именно 81% подтвердили неудачу всех своих попыток обойти анти спам фильтр.
Не исключено, что новый инструмент отклонения ссылок от Google поможет увеличить число счастливчиков полностью подстроившихся под работу с новым алгоритмом. К тому же, кейсы подтверждающие эффективность данного инструмента уже есть.
Основываясь на опыте зарубежных коллег, стоит посоветовать более активно пользоваться новым инструментом отклонения ссылок от Google.
Между тем, в декабре было очередное, 23-е по счету обновление алгоритма Panda от Google. Последнее обновление алгоритма затронуло 1,3% англоязычных запросов, что в масштабах крупнейшей поисковой системы составляет сотни тысяч, если миллионы запросов.
Напомним, что алгоритм Panda был введен 24 февраля 2012 года, с целью отсева из результатов выдачи ресурсов с низким качеством контента.
Некоторые веб-мастера были удивлены обновлением поскольку в середине декабря 2012 года, Google обещал не обновлять Panda до нового года.
C учетом регулярности обновлений, следует ожидать лишь усиления работы алгоритма.