Вход для клиентов: Поддержка | SEO
Написать директору
8 (495) 909 82 40
Позвоните мне сами
Фильтры поисковых систем

Фильтры поисковых систем

SEO представляется обывателям как отчаянная борьба оптимизаторов с бесконечными санкциями и ограничениями поисковых систем. С одной стороны маркетологи, балансирующие на грани дозволенного, чтобы поднять сайт в SERP, с другой - беспощадные фильтры Яндекса и Google. В итоге победителем из этой битвы всегда выходит качественный продукт. Сайт, созданный людьми и для людей. Стратегически правильным будет решение следовать правилам поисковых систем и идти в ногу со временем, не упуская никаких нововведений и трендов постоянно меняющегося рынка.

Однако, многие оптимизаторы «перегибают палку» в сторону одного из факторов ранжирования, пытаясь оказаться выше в выдаче, и тем самым подставляя свой сайт под удар санкций. Google и Яндекс не скрывают своей позиции к “черному seo”, и активно афишируют новые антиспам-алгоритмы, часто придумывая им замысловатые имена. В этой статье рассмотрим основные фильтры поисковых систем, симптомы попадания под них и рекомендации для выхода.

Фильтры за некачественный контент

Поисковики, агрегируя пользовательский опыт миллионов людей, складывают объективное представление о качестве той или иной веб-страницы. В Google стандарты качества задает фильтр Панда, в Яндексе аналог называется АГС (на сленге оптимизаторов предлагали вариант расшифровки как “АнтиГовноСайт”, что отражает суть, но не является верной трактовкой).


Как попасть под АГС или Панду?

Для того, чтобы попасть под вышеназванные фильтры, достаточно соответствовать нескольким условиям. Наличие одной проблемы вряд ли станет причиной наложения фильтра, но чем больше нижеперечисленных “симптомов”, тем выше шансы схлопотать санкции:

  • неуникальный контент;

  • низкокачественный и нечитабельный контент;

  • неуместное использование ключевых слов и ссылок (Например: В Москве мужчина выпал из окна металлопластиковые купить недорого и попал в больницу с переломом);

  • неудобный несовременный дизайн;

  • чрезмерное количество попапов, которые загораживают видимую часть контента и мешают просмотру страниц;

  • молодые сайты с большим количеством исходящих ссылок;

  • высокий показатель отказов;

  • признаки сайта-саттелита;

  • информация, не несущая ценности пользователю, а созданная для обмана поисковых систем;

  • малое количество контента при значительно большем объеме рекламы;

  • признаки дорвея;

  • сайты с дублированным контентом внутри и т. д.


Как выйти из-под фильтров АГС и Панда?

Рецепт выхода тривиален. Если ваш сайт создан для людей, а не с целью обмана поисковых систем, станьте на секунду целевым посетителем. Сравните ваш сайт и сайты конкурентов, находящиеся на первой странице поиска.

Наконец, закажите создание сайта у грамотных специалистов для того, чтобы он соответствовал современным показателям качества, был удобным и привлекательным целевой аудитории. Иногда имеет смысл запустить с нуля новый продукт и навсегда забыть о Панде. Во всяком случае, до ближайшего посещения зоопарка.

Фильтры за неестественный ссылочный профиль

И Google, и Яндекс не первый год громко заявляют о том, что сайты с покупными ссылками будут понижены в результатах поиска. Внешние ссылки как фактор ранжирования изначально занимали ключевую позицию. Но если на начальных этапах существования поисковиков базовым показателем было количество ссылочной массы, то с процессом развития технологий упор стал делаться на качество и тематичность.

В 2012 году Google анонсировал алгоритм Пингвин. А в мае 2015 Яндекс подхватил эстафету и разослал владельцам сайтов, балансирующих на грани дозволенного, «письма счастья» - так появился Минусинск, который до сих пор «радует» десятки тысяч вебмастеров. Фильтры за внешние ссылки действовали и до введения в бой этих алгоритмов, но рассмотрим их подробнее как наиболее актуальные и популярные на момент написания этой статьи.

Симптомы Минусинска и Пингвина схожи:

  • резкое снижение позиций сайта по всем целевым запросам (как минимум выпадение из топ-10);

  • снижение трафика на сайт;

  • сохранение позиций по «брендовым» запросам.


Как попасть под санкции за покупные ссылки?

  • массово и бесконтрольно закупать ссылки;

  • составлять несбалансированный анкор-лист ссылок;

  • выбирать нетематические домены-доноры (например, на сайт юридических услуг купить ссылку с сайта о прохождении компьютерной игры);

  • проставлять ссылки с сайтов-сателлитов (специально созданные сайты для продвижения основного);

  • выбирать неестественное место для размещения ссылки (подвалы сайтов, нечитабельные тексты, мелкие тексты и т. д.);

  • закупать ссылки “рывками”, несбалансированно;

  • значительно увеличить количество покупных ссылок над естественными.


Как выйти из-под Пингвина и Минусинска?

  • удалить покупные ссылки (лучше всего провести грамотную ревизию ссылочной массы и оставить только самые качественные бэклинки. О критериях качества читайте ниже);

  • загрузить список страниц с покупными ссылками в Disavow Tool (для Google);

  • отправить запрос на переиндексацию ссылочной массы в Яндекс Вебмастере (для Яндекса, только после удаления ссылок. И, конечно, написать Платону Щукину письмо-покаяние в грехах).


Что бы ни говорили представители ссылочных бирж, современный уровень развития поисковых систем определяет, покупная та или иная ссылка с вероятностью близкой к 90-95%. И иногда даже близкая тематичность домена-донора не спасает от ревизии. Спорным остается только вопрос о покупных ссылках на качественных и релевантных по тематике сайтах, сделанных для людей. Принимая решение о покупке ссылки через вебмастера или ссылочную биржу, после проверки базовых характеристик сайта-донора, оптимизатор должен задать себе ряд вопросов:

  • Будет ли ссылка полезна пользователям сайта-донора и страницы, на которой она будет размещена?

  • Получит ли пользователь ответ на запрос, кликнув по ней?

  • В удобном ли месте расположена ссылка?

  • Нет ли рядом на странице спамных ссылок на другие сайты?


Если на все вопросы получен положительный ответ, скорее всего, покупка такой ссылки будет оправдана и определенно сыграет в «плюс». Результатом же будут как приведенные по ссылке заинтересованные целевые пользователи, так и повышение позиций сайта в выдаче.


Резюмируя сказанное выше, напрашивается простой вывод: выбирая стратегию ссылочного продвижения, не надо стараться, чтобы ссылочный профиль был похож на естественный, надо, чтобы он стал естественным.

Фильтры за текстовый спам

Не секрет, что поисковым машинам легче всего ориентироваться по текстам на странице. Сейчас тексты - один из нескольких сотен факторов ранжирования, но для информационных сайтов и статей они по прежнему важны. Что представляют собой тексты с точки зрения поисковой системы? В первую очередь это семантический набор символов, который повторяет собой поисковые запросы в той или иной тематике. Пытаясь манипулировать поисковой выдачей, оптимизаторы зачастую перенасыщают текст ключевыми словами. Как следствие - на сайт накладывается фильтр Баден-Баден (последняя версия фильтра за переспам в Яндексе, от марта 2017 года) или фильтр за переспам.

Как попасть под Баден-Баден?

Рецепт попадания предельно прост - надо использовать ключевую фразу в тексте страницы как можно чаще. Для того, чтоб увеличить шансы, нужно не склонять ключ, выделять тегом <strong> и вписывать в нечитабельные словесные обороты. Если получившийся текст не будет нести смысловой нагрузки - считайте, что вы одной ногой (или двумя) в Баден-Бадене.

Но тут следует сделать важную ремарку. Речь идет о текстовом блоке веб-страницы. Например, для коммерческого сайта, продающего билеты на концерты, наличие 20, 50 и даже 100 фраз “купить билеты” на странице не будет считаться переспамом, если эти фразы будут расположены в кнопках на карточках с мероприятиями.

О применении фильтра к сайту Яндекс сообщит в панели Вебмастера, с пометкой “Переоптимизация”. Однако, сообщение будет показано только если фильтр применен ко всем страницам сайта, а не к отдельным страницам.


Как выйти из-под фильтра Баден-Баден?

Универсального рецепта выхода нет, каждый случай индивидуален. Но рассмотрим общие рекомендации:

  • Если сохраняется трафик из Google и на зафильтрованных страницах имеется важная информация (например, расположен каталог товаров), можно просто закрыть текст в <noindex> или переписать его.

  • Для информационных сайтов и статей наложение фильтра - очевидный сигнал к тому, что текст надо срочно переписать. При написании лучше всего использовать приемы LSI-копирайтинга, то есть не раскрывать суть прямыми вхождениями ключевых фраз, а написать живой и понятный текст для людей; разбить на абзацы, подзаголовки, дополнить уместными изображениями и видео. Лучше, если текст будет писать профессионал, а не универсальный “копирайтер-эксперт за 100 рублей за 1000 символов” по всем темам от “рецепта яичницы” до “теории сингулярности вселенной”.

  • После проделанных процедур - отправить переписанные страницы на переобход через Яндекс Вебмастер.


Фильтры за накрутку поведенческих факторов

Исторически сложилось, что Google менее “чувствителен” к накрутке поведенческих факторов, чем Яндекс. Соответственно, фильтры за данный метод черной оптимизации наиболее ощутимы именно в Яндексе.

Что такое поведенческие факторы и как их накрутить?

Пользователи, приходящие из поисковой выдачи так или иначе взаимодействуют с сайтом. При этом они могут совершать целевые действия или покинуть страницу, не получив ответа на запрос. Поисковые системы делают выводы о пользовательском опыте, накапливая Big Data и применяют его в результатах ранжирования. Это стало толчком к созданию сервисов по накрутке поведения. Стандартный сценарий выглядит так:

  • Заказчик просит ввести поисковый запрос.

  • Далее исполнитель ищет по целевому запросу сайт заказчика в поисковой выдаче.

  • Исполнитель кликает на сайт, пролистывает страницы, доходит до места, где он “конвертируется”, совершает целевое действие и уходит.

  • Исполнитель сдает “отчет” о проделанной работе, заказчик же проверяет правильность последовательности действий и оплатить работу

Предполагается, что таким способом поисковая система получит сигнал, что пользователь удовлетворил спрос, и повысит целевой сайт в выдаче по запросу. Однако, не все так просто.

Сегодняшний уровень развития поисковых систем может легко отличать проплаченные визиты от естественных. Способов существует достаточно, от сложных внутренних алгоритмов поведения до банальных:

  • отслеживание ip-адресов исполнителей заданий накрутки;

  • несоответствующие качеству сайта UX-показатели;

  • одинаковые действия исполнителей, слишком напоминающие шаблон;

  • банальное отслеживание переходов в поисковую систему из систем накрутки, а также на целевой сайт;

  • неестественный прирост посещаемости без изменений алгоритмов ранжирования.

Яндекс знает о вас больше, чем вы думаете. Аналогичный тезис применим не только к вам, но и к накрутчикам. Как следствие сайт может рискует потерять позиции в выдаче.


Как выйти из-под фильтра по поведенческим факторам?

Считается, что вернуть утраченные позиции зафильтрованному по данной статье сайту крайне сложно. Но можно применить такую последовательность:

  • Начинать надо с того, чтобы незамедлительно прекратить тратить деньги на накрутку.

  • Написать письмо в техподдержку Яндекса с попыткой получить инструкцию по выходу из-под санкций.

  • Ждать.


Сервисы по накрутке постоянно внедряют новые способы обхода санкций, пытаясь на шаг обогнать бдительные поисковые системы, порой даже обманывая нейросети, которые все чаще применяются в выстраивании алгоритмов ранжирования. Но практика показывает, что рано или поздно все способы накрутки становятся известными поисковикам. И если Google, как правило, хладнокровно игнорирует попытки манипуляции, то Яндекс активно и жестоко наказывает.


Прочие фильтры поисковых систем

Выше рассмотрены основные фильтры Google и Яндекса, которые определяют качество поиска и задают правила игры. Но помимо них есть и менее известные и узконаправленные санкции. Рассмотрим некоторые из них тезисно:

Спам в микроразметке

Попытки отобразить в структурированных данных страницы информации, которая невидима пользователю. Например, в микроразметку отдается рейтинг и отзывы, которые показываются в поисковом сниппете, но на странице нет ни функционала проставления рейтинга, ни отзывов. Как следствие удаляются все расширенные сниппеты и понижаются позиции сайта.


Кликджекинг

Применяется к сайтам, которые пользовательским кликам присваивают действия, которые они не совершали. Например, вы находитесь на странице интернет-магазина, а в соседней вкладке в браузере авторизованы Вконтакте. Вы кликаете на категорию товара и уходите с сайта, но тут же получаете личное сообщение Вконтакте от менеджера интернет-магазина с предложением вернуться. Как такое возможно? Технология использует данные авторизации Вконтакте и клик как лайк или подписку на группу интернет-магазина. Сами того не подозревая, вы оставили контакт продавцу. На данный момент технология легко вычисляется поисковыми системами и наказывается снижением позиций всего сайта.


Избыточная реклама и попапы

Ограничения касаются тех, кто переусердствует со всплывающими окнами и навязчивой рекламой. Особенно актуально это для отображения на мобильных устройствах. Если видимая часть контента сайта без каких-либо действий пользователя закрывается рекламой, мешает взаимодействовать с сайтом - это будет четким сигналом для поисковых систем понизить сайт в выдаче.


Непот-фильтр

Разновидность фильтра Яндекса, который наказывает за продажу ссылок. Обратная сторона Минусинска. В группе риска сайты, участвующие в биржах вечных и арендных ссылок, вебмастеры которых не заботятся о полезности той или иной ссылки.

Принимая во внимание вышеописанные фильтры, можно описать рецепт успеха сайта в органической поисковой выдаче простым напутствием: будьте профессионалами и делайте качественный продукт. Показатели качества же должны определяться не только поисковыми системами, но и здравым смыслом. Абсолютное большинство попыток обмануть поисковик приводит к тому, что на сайт накладываются фильтры. Очевидно, что проще предотвратить проблему до ее наступления, чем судорожно пытаться решить ее после.

Эпоха “черного seo” стремительно уходит в закат, а те оптимизаторы, которые пытаются ее догнать, получают справедливое наказание - фильтры и санкции от Google и Яндекс.



Андрей Дерипаско
Андрей Дерипаско
Специалист по поисковому маркетингу
Вопрос по статье