Главная » 2014 » Февраль » 4 » Восстановление от метода Гугл Panda
16:41
Восстановление от метода Гугл Panda
Восстановление от метода Гугл Panda

Вместе с этим, Хадженс включил в собственной отчет о восстановлении в качестве советы кропотливую проверку собственного SEO-контента, подачу заявки на проверку методом Penguin и ряд других мер. Порядок действий, согласно сообщениям в Twitter Хадженса, был должен последующим: 1) удаление «мусорных» ссылок и ненадобных анкоров; 2) наполнение веб-сайта полезными ссылками; 3) воззвание к Дэнни Салливану с целью привлечь внимание интернет-СМИ к собственному хорошо произведенному ресурсу. В конечном итоге просто можно оказаться на первой страничке в поиске Гугл.WPMU.org — не единственный веб-сайт, ставший мишенью для Penguin; собственный отчет о восстановлении выпустили и другие ресурсы.

Каттс держит связь с веб-мастерами через твиты, в каких намекает, что Penguin обновляется не пореже, чем изменяется погода по ту сторону окна.

В чем разница — Каттс растолковал еще в Две тыщи 6 году в одной из записей собственного блога.

Как решить делему

Наинтереснейший отчет о восстановлении от деяния метода Гугл Penguin представил в собственном блоге SEOMoz на WPMU.org Росс Хадженс. По его воззрению, важный фактор в этом случае — это ликвидирование большей части непонятных ссылок на веб-сайт и на самом веб-сайте; Хадженс заявил, что сотрудники WPMU.org убили около Пятнадцать тыщ «ненадежных» ссылок, тем резко увеличив степень доверия к для себя.

Совершенно не так давно управляющий отдела Гугл по борьбе с поисковым мусором Мэтт Каттс анонсировал обновление метода Penguin — Penguin 1.1.Как утверждает Каттс, обновление воздействует на результаты наименее чем 0,1 процента ото всех английских запросов в поисковике. На самом деле, вышло не радикальное изменение механизма работы метода, а обновление базы данных.

Другие «жертвы»

Аналогичную статью, например, написал Дэнни Гудвин с веб-сайта WSJ.com. Как и многие другие, он считает, что Гугл проводит несправедливую политику, практически «насилуя и дискриминируя» малый бизнес и не давая ему шанса донести информацию до потребителя. Вобщем, метод довольно узкоспециализирован, и кропотливая проверка веб-сайта полностью может выявить и решить делему.

Как утверждает Гудвин, неувязкой для веб-сайта могут стать: 1) проплаченные ссылки с текстом в анкоре; 2) мусор в комментах; 3) размещенный «гостевой» контент на непонятных веб-сайтах; 4) продающие статьи; 5) ссылки с небезопасных веб-сайтов. Этот перечень смотрится довольно полным. Вобщем, если его будет недостаточно, в Вебе можно найти более ценные отчеты Брюса Клэя, Саймона Пенсона, Гиллауме Бушара, также Лизы Байер и Джеффа Слипко, которые также затрагивают вопрос борьбы с обновлениями алгоритмов вроде Panda.


Категория: Интернет | Просмотров: 296 | Добавил: Kippyqzh727 | Рейтинг: 0.0/0
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]