EMPO Logo
Тренинги по увеличению интернет-продаж
Живые тренинги в Киеве и онлайн-тренинги для стран СНГ
Спроси, как поднять продажи:
  • 0 800 80-30-11  Горячая линия
  • (044) 360-56-91
Киев, ул. Старокиевская, 10Г, корпус "B"

Твитнуть
Опубликовать в своем блоге livejournal.com

Понравилось? Нажми на социальную кнопку, чтобы поделиться с друзьями!

    

     Запомнить  Забыли пароль? Регистрация


Панды и пингвины – Гугл выкатил сразу два серьезных алгоритма

05.08.2012 | Автор: Андрей Буц | Рубрика: СЕО блог - раскрутка сайтов


В ночь на 25 апреля специалист по развитию качества поиска Мэтт Каттс сделал заявление: Гугл вводит новый алгоритм, который должен улучшить выдачу, наказать черных оптимизаторов и помочь белым. Добавил, что изменения затронут около 3% всех поисковых запросов. А уже утром многие оптимизаторы пришли в ужас: часть сайтов потеряла 5-30 позиций, а некоторые и вовсе исчезли из топ-100. После первых анализов топа и разных экспериментов стало понятно, что на этот раз Гугл допустил какую-то серьезную ошибку – в десятку попали страшно переспамленные сайты, порой без уникального контента и с дешевенькой ссылочной массой. Осознав это, наш любимый поисковик стал вносить правки в алгоритм. Результатом таких действий стало постоянное изменение выдачи во всех тематиках. Сайт мог занимать первое место по ВЧ-запросу, а уже через час опускался на 15 место. И так целыми днями. Сейчас большинство сайтов восстановило свои позиции, но некоторые так и остались лежать за пределами 100. Оказывается, алгоритм, который опускал сайты на 5-30 позиций, называется Пингвин. А тот, что выкинул сайт за пределы сотни – Панда.

А теперь рекомендации для тех, кто так и не оправился от изменений алгоритмов.
- Протестировать плотность ключевых слов. Нужно делать сразу на всех продвигаемых страницах, т.к. Панда фильтрует одновременно весь сайт и простое изменение одной страницы ничего не даст. Если после понижение плотности и переиндексации ничего не меняется – идем дальше по списку.

- Найти и устранить все дубли страниц и контента с помощью панели для вебмастеров. Похоже, что Гугл стал серьезнее наказывать сайты за копии контента внутри сайта. Берем в руки файл robots.txt, метатег Canonical и устраняем ненужные копии страниц. Нелишним будет удаление частичных копий текста по сайту – аннотаций к статьям, одинакового описания товарных позиций в листинге и самой карточке, девизов сайта типа «покупайте ххх в интернет магазине ууу – мир станет лучше и добрее».

- Работа со ссылочной массой. Если это возможно – разбавить анкоры, особенно точные вхождения. Оптимальная скорость составляет 5% от ссылочной массы в день. Затем накопить денег и пойти за покупками ссылок в ротапост или блогун. Гугл и до этого уважал ссылки с тематических блогов, а после этих изменений полюбит еще больше. Такие ссылки выглядят естественно сразу по нескольким причинам: ссылка публикуется одновременно с записью в блог, текст всегда уникальный и площадка близка по тематике к продвигаемому сайту. Примерные настройки фильтра: автономные площадки или площадки на blogspot, тиц от 30 и максимальное соответствие тематики. Лучше всего работают целы посты или пресс-релизы, которые посвящены вашему анкору. Цена за такую ссылку начинается от 20-30 гривен. Если бюджет не позволяет – нужно брать постовые. Все покупные ссылки с блогов должны быть безанкорными.

- Написать порядка 20 уникальных и полезных статей на сайте. Если полезное писать тяжело, то нужно хотя бы постараться имитировать её. Для этого в статье обязательно должны быть картинки и разметка в виде подзаголовков без ключей и тегов списков.

- Дополнительно можно почистить теги H2-H6 и strong от ключевых слов.

Нет гарантии, что все вышеперечисленные действия помогут избавиться от фильтра. Что ж, есть пока ещё нечестный и работающий метод. Покупаем домен желательно с возрастом и неплохой историей. Закрываем на нем индексацию. Переносим сайт на новый домен и изменяем структуру URL так, чтобы не осталось ничего похожего. Если продвигаемых страниц было очень много и существует большой шанс усталости, то можно упростить работу. Например, у адресов категорий был адрес типа site.com/category/laptops. Убираем из всех адресов категорий /category. После этого делаем 301 редирект со всех старых адресов на новые и открывает сайт для индексации. С большой вероятностью поисковик забудет о фильтрах. Этот метод относится к так называемой черной оптимизации, поэтому использовать его нужно в последнюю очередь.

Google+

You can follow any responses to this entry through the RSS 2.0 You can leave a response, or trackback.

Комментарии

12 Отзывов

  • Сергей Бердачук :

    Хочу поделиться еще одним наблюдением. Гугл стал понемногу возвращать позиции и, что интересно, видна корреляция с ютубом. Т.е. идет поднятие статей по темам, на которые оптимизирован текст под видео.
    При этом ссылки с видео ведут не на сами статьи, а на морду сайта.
    Похоже, что в алгоритм добавлен такой параметр, как связанные с сайтом видео.

  • Бегун Виталий :

    а где форум

    • Андрей Буц :

      empo.kiev.ua :)

  • Сергей Бердачук :

    Довольно подробный буржуйский обзор проблемы http://www.micrositemasters.com/blog/penguin-analysis-seo-isnt-dead-but-you-need-to-act-smarter-and-5-easy-ways-to-do-so/
    Предварительные выводы по основным причинам:
    1. Процент анкорных ссылок не должен превышать 50%
    2. Ссылки с не тематических сайтов увеличивают шанс попасть под фильтр

    там же ряд рекомендаций, как бороться с новым алгоритмом

  • Сергей :

    То есть, данные фильтры понижают сайт в выдаче временно? Подправить спам, теги, анкоры и все должно стать на свои места?
    За статью спасибо, добавил себе пару пунктиков на рассмотрение ))

    • Андрей Буц :

      Сергей, теоретически можно выйти из любого фильтра. Это вопрос времени.

      Если вам «зацепило», то помимо вышеперечисленных пунктов нужно еще и анкор-лист исправлять. 10-20% анкоров должны содержать ваш бренд, еще процентов 20 ссылок должны быть безанкорными, а голых вхождений запроса должно быть не больше 5%. Все остальное — разбавления и даже прерывания.

  • Андрей Буц :

    Попробую ответить всем.

    По плотности:
    Постарайтесь не превысить порог в 3%. При этом плотность служебных слов должна превышать плотность слов под раскрутку. У меня пока нет пострадавших сайтов в этом диапазоне.

    По поводу ключевиков в Н2-Н6 и стронгах:
    Например, вы продвигаете кондиционеры. Логично было бы написать какой-то тег Н1, можно просто кондиционеры, а в Н2-Н3 вписать с разбавлениями, т.е. с сч-нч запросы типа купить кондиционер в Киеве, купить кондиционер в кредит, цены на кондиционеры, кондиционеры — цены и другие. Так вот, я бы посоветовал «очеловечить заголовки». Т.е. оставить только один тег Н2 с ключевым словом, а пускай будут просто для людей: «Как купить кондиционер», «наши цены», «покупка в кредит». При чем текст под заголовками должен соответствовать самому заголовку, что логично. Теперь про стронги. Не советую в стронгом выделять «голый» запрос. Только какую-то мысль. Пример все наши кондиционеры имеют двухлетнюю гарантию. Стронг использовать не чаще чем один на абзац, при условии, что в абзаце не менее 500 символов. Если меньше, то один стронг на два абзаца.

    По алгоритму покупки:

    Начинать надо с безанкорных ссылок с постов в ротапосте и со статей в миралинксе. Закладывайте на такие ссылки 10% от ссылочной массы и начинайте покупку с них. В сапе чистых вхождений я бы вообще не делал, только в гогетлинкс.



Оставить отзыв

Ваш e-mail не будет опубликован. Обязательные поля помечены *

*



Можно использовать следующие HTML-теги и атрибуты: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Подписаться без комментирования

Hide me
Show me
Правила пользования  Политика конфиденциальности  Отказ от ответственности