Фильтры поисковых систем: что это такое и зачем они нужны

Когда вы вводите запрос в «Яндексе» или Google, поисковая система подбирает для вас самые подходящие сайты. Чтобы в результатах не попадались подозрительные или бесполезные ссылки, поисковики используют фильтры — специальные инструменты, которые помогают сделать выдачу более качественной и честной.

В этой статье разберемся, как работают эти фильтры, и почему владельцам интернет-магазинов важно о них знать.

Зачем нужны фильтры

Поисковики, такие как «Яндекс» и Google, хотят, чтобы вы находили полезную информацию. Чтобы не показывать вам «пустышки», они используют фильтры — специальные механизмы, которые «наказывают» сайты с обманом, спамом или просто неудобным интерфейсом.

Сайт не удаляют, но могут опустить на 5–10 страниц вниз — туда, куда почти никто не доходит.

Какие бывают фильтры

У поисковых систем есть целый арсенал инструментов, которые помогают поддерживать порядок в выдаче. Эти фильтры можно разделить по разным признакам: какие поисковики их применяют, за что именно, и как они работают.

Разберем виды фильтров по порядку — это поможет лучше понять, почему сайт интернет-магазина может внезапно потерять позиции, и главное — что с этим делать.

По поисковым системам

  • Фильтры Google;
  • Фильтры «Яндекса»

По способу работы

  • Алгоритмические — включаются автоматически, когда система находит нарушение;
  • Ручные — их применяют сотрудники поисковой системы после проверки сайта.

По причинам, по которым сайт может попасть под фильтр

  • За попытку манипулировать поиском: покупка ссылок, накрутка поведенческих факторов, текстовый спам, черное SEO и т.д.

  • За технические ошибки: медленная загрузка, неудобный интерфейс, одинаковые тексты, проблемы с адаптацией под телефоны и планшеты.

Теперь разберем конкретные фильтры, с которыми можно столкнуться.

Аффилиат-фильтр («Яндекс»)

Официально «Яндекс» не подтверждает этот фильтр, но в среде SEO-специалистов о нем говорят давно. Этот фильтр работает так: если у одного человека несколько сайтов на одну и ту же тему, «Яндекс» покажет в поиске только один из них — тот, который больше соответствует запросу. Остальные — понизит или скроет.

Как понять, что сайт попал под фильтр

Если два ваших сайта с похожей тематикой никогда не появляются вместе в результатах поиска по одним и тем же запросам, возможно, они признаны «аффилированными».

Как это проверить

Вбейте запрос, добавив -site:вашдомен.ru. Если после этого в выдаче появился второй сайт — значит, фильтр, скорее всего, работает.

Как не попасть под фильтр

  • Укажите разные контактные данные, например, телефон, адрес, e-mail на сайтах;
  • Сделайте уникальный контент и разный дизайн;
  • Разместите сайты на разных хостингах и IP-адресах;
  • Не ставьте ссылки друг на друга и не направляйте трафик с одного сайта на другой;
  • Разделите рекламные кампании: используйте разные аккаунты в «Яндекс.Директе»;
  • Используйте разные CMS и не повторяйте URL-структуру.

Если соблюдать эти меры, можно избежать попадания под аффилиат-фильтр и сохранить конкурентные позиции в поисковой выдаче.

Фильтр «Минусинск» («Яндекс»)

Этот фильтр борется с покупными SEO-ссылками, которые ставятся не ради пользы, а только чтобы поднять позиции в поиске. Впервые он появился в 2015 году.

Что происходит с сайтом

Сильно падают позиции в поисковой выдаче, а трафик снижается.

Как не попасть под фильтр

  • Не закупайте ссылки через биржи и агрегаторы;
  • Старайтесь, чтобы на ваш сайт ссылались естественным путем — за счет полезного контента, которым хочется делиться.

Если уже попали под фильтр

  • Удалите неестественные ссылки, где это возможно.
  • Дождитесь, пока поисковые роботы заново обойдут сайты, с которых шли плохие ссылки.
  • В «Яндекс.Вебмастере» нажмите «Я все исправил» — это ускорит пересмотр.

После того как вы удалите купленные ссылки и поисковики обновят свои данные, ограничения снимутся, и сайт снова начнет нормально показываться в поиске.

Фильтр «Баден-Баден» («Яндекс»)

Этот фильтр наказывает сайты с переSEOшными текстами — когда в тексте слишком много ключевых слов, и он написан не для людей, а для поисковых роботов.

Признаки переспамленного текста:

  • Много одинаковых ключевых слов — одно и то же словосочетание повторяется слишком часто и выглядит неестественно. Пример: «купить красную кофту Москва недорого» — и так 10 раз подряд.

  • Текст трудно читать — фразы звучат странно, ломано, не по-человечески. Как будто писали не для людей, а чтобы «угодить» поисковику.

  • Нет смысла или пользы — большой объем текста, но он не дает ответов на вопросы пользователя. Просто «вода», набитая словами для продвижения.

  • Много однотипных фраз — предложения похожи друг на друга, повторяют одни и те же мысли. Текст читается скучно и монотонно.

  • Нарочито «оптимизированная» структура — заголовки, подзаголовки, списки — все как в учебнике по SEO, но при этом содержание слабое.

  • Плохой стиль и ошибки — текст как будто собрали из кусков или писали через автоматический генератор.

Как избежать санкций:

  • Проверить все тексты на сайте;
  • Переписать их простым, понятным языком — так, чтобы они были полезны людям, а не «поисковым машинам».

Фильтр «Непот» («Яндекс»)

В 2015 году «Яндекс» снова начал использовать фильтр под названием Непот. Он нужен для того, чтобы не учитывать «ненастоящие» ссылки при определении позиций сайта в поиске. Этот фильтр работает для всех сайтов, независимо от региона, и ослабляет влияние искусственно созданных ссылок.

Как понять, что сработал фильтр

Главный признак — поисковик не находит сайт, на который ведет ссылка, даже если сама ссылка уже проиндексирована. Это значит, что такая ссылка не передает вес и не помогает сайту расти в поиске.

Допустим, у вас есть интернет-магазин site-a.ru, и вы хотите его продвинуть. Для этого вы покупаете ссылку на другом сайте — site-b.ru, чтобы он написал про вас статью и вставил туда анкор-ссылку: «лучшие кроссовки для бега» → ведет на site-a.ru.

Вы надеетесь, что «Яндекс» увидит эту ссылку и поднимет ваш сайт выше в результатах по запросу «лучшие кроссовки для бега». Но если «Яндекс» посчитает, что ссылка куплена или размещена на подозрительном сайте, он применит Непот-фильтр.

Что произойдет

  • Ссылка останется на месте, ее будет видно.
  • Она даже будет проиндексирована.
  • Но если ввести в «Яндексе» точный текст ссылки — «лучшие кроссовки для бега» — ваш сайт никогда не появится в результатах.

Это значит, что ссылочный вес сайта-донора не передается, и ссылка не помогает продвигаться. Она просто «обнуляется».

Как проверить, есть ли фильтр

Чтобы понять, применяется ли к ссылке Непот-фильтр, нужно:

1. Убедиться, что ссылка на сайте-доноре проиндексирована, то есть «Яндекс» ее видит.

2. Проверить, что сайт, на который ведет ссылка, тоже есть в «Яндексе».

3. Посмотреть, что текст ссылки, то есть анкор, не повторяется где-то еще на странице — например, в заголовках или основном тексте.

4. Провести тест СНСС — это способ проверить, можно ли найти сайт-акцептор по точному тексту ссылки.

Если после всех этих шагов сайт не появляется в результатах поиска, скорее всего, на ссылку действует Непот-фильтр.

Автоматическая проверка

С 2016 года проверять, действует ли Непот-фильтр на ссылки, можно с помощью специального сервиса «Пиксель Тулс». Он помогает анализировать как отдельные ссылки, так и большие их списки.

SEO-специалистам важно учитывать влияние Непот-фильтра при покупке или аренде ссылок. Если фильтр срабатывает и ссылки перестают давать эффект, нужно менять стратегию продвижения и делать упор на естественные ссылки — то есть те, которые появляются сами, потому что сайт полезный и на него хочется ссылаться.

Фильтр за накрутку поведенческих факторов («Яндекс»)

Когда вы заходите на сайт из поиска, система смотрит, что вы делаете: остались ли вы на странице, кликнули ли по кнопкам, вернулись ли назад и т.д. Это называется поведенческие факторы, и они помогают понять, насколько сайт интересен и полезен для людей.

Чем лучше поведение пользователей — тем выше сайт может быть в поиске. Но некоторые владельцы сайтов пытаются обмануть систему — накручивают клики, долго сидят на странице, переходят по разделам.

Поисковые системы это отслеживают и применяют специальный фильтр, который понижает такие сайты в результатах поиска.

Как понять, что сайт попал под фильтр

1. Резкое падение позиций. Сайт начинает показываться гораздо ниже в поиске, трафик резко падает.

2. Уведомление от «Яндекса». Если вы используете «Яндекс.Вебмастер», в разделе «Безопасность и нарушения» может появиться предупреждение, что замечены подозрительные накрутки поведенческих факторов.

Как проверить и избежать фильтра

Анализируйте трафик. Если вдруг становится слишком много «прямых заходов» (люди вроде бы напрямую набирают адрес сайта), или резко увеличивается количество заходов с ботов — это повод задуматься.

Проверяйте источники трафика. Если вы видите, что сайт получает трафик с одних и тех же IP-адресов или с одного региона — это может говорить о накрутке.

Откажитесь от сомнительных методов продвижения. Не стоит использовать «черные» и «серые» схемы: программы, которые имитируют поведение пользователей, сервисы накрутки, фальшивый трафик. Лучше использовать «белые» методы: улучшать сайт, делать интересный контент, работать над удобством — и люди сами будут задерживаться дольше.

Почему это важно

Если сайт попадет под фильтр за накрутку поведенческих факторов, это может сильно испортить его репутацию и снизить количество посетителей. Выбраться из-под такого фильтра потом — сложно и долго. Поэтому проще и безопаснее работать честно, по правилам поисковых систем.

Google Panda

Google Panda — это специальный алгоритм, который появился в 2011 году. Он оценивает сайты по качеству контента. Главная задача Panda — поднять в поиске хорошие сайты с полезной информацией и опустить те, где тексты слабые, ворованные или бесполезные.

Что именно проверяет Google Panda

1. Качество контента. Тексты на сайте должны быть:

  • полезными — отвечать на вопросы пользователей;

  • уникальными — не скопированными с других сайтов;

  • хорошо структурированными — с заголовками, абзацами, списками, чтобы было удобно читать.

2. Повторяющийся контент. Если на сайте есть похожие страницы с минимальными отличиями, это плохо. Например, страницы с разными городами, где меняется только название города, а остальное — одинаковое. Такие сайты могут попасть под фильтр.

3. Неоригинальный контент. Если вы просто копируете тексты с других сайтов, без добавления своей пользы, Panda это увидит, и сайт просядет в поиске.

4. Удобство для пользователей (юзабилити). Алгоритм смотрит, насколько удобно пользоваться сайтом:
  • Быстро ли он загружается;
  • Есть ли раздражающая реклама;
  • Понятно ли устроено меню и навигация.

Как понять, что сайт попал под фильтр

Есть несколько признаков:

  • Трафик резко падает — особенно из поиска;

  • Позиции сайта опускаются — по всем ключевым запросам;

  • Новые страницы долго появляются в поиске — Google не спешит их индексировать;

Что делать, если сайт попал под фильтр:

1. Проверьте и улучшите контент. Проведите аудит: найдите слабые, бесполезные тексты — и либо удалите их, либо переработайте.

2. Избавьтесь от повторяющихся страниц. Для этого:

  • используйте канонические URL — они указывают, какая версия страницы главная;

  • закройте дубли от индексации, чтобы поисковик их не учитывал;

3. Ускорьте загрузку сайта. Сделайте сайт быстрым, особенно на телефонах.

4. Уберите агрессивную рекламу. Если баннеров слишком много и они мешают читать — это минус.

5. Сделайте сайт удобнее. Проверьте, удобно ли на нем искать информацию, понятно ли устроено меню, легко ли вернуться назад.

6. Регулярно публикуйте хорошие статьи. Пишите уникальные и полезные материалы — тогда сайт будет расти в поиске.

Google Panda «наказывает» за плохой контент и неудобные сайты. Но если все исправить и начать писать действительно полезные статьи, сайт сможет вернуться на хорошие позиции.

Google Penguin

Google Penguin — это алгоритм, который появился в 2012 году. Он создан для того, чтобы бороться с нечестными способами продвижения сайтов с помощью ссылок.

Раньше некоторые владельцы сайтов массово покупали ссылки или размещали их где угодно — лишь бы подняться выше в поиске. Penguin нацелен на то, чтобы такие «неестественные» ссылки не работали, а сайты, которые ими злоупотребляют, теряли позиции.

С 2016 года Penguin стал частью основного алгоритма Google и теперь работает в реальном времени. Это значит, что поисковик может почти сразу отреагировать, если у сайта появляются плохие ссылки.

Какие ссылки считаются спамными

Вот признаки, по которым алгоритм распознает плохие, или же неестественные, ссылки:

  • Покупные ссылки с нерелевантных сайтов. Например, на сайт про кухонную мебель ставят ссылку с блога о собаках — и это явно не по теме;

  • Слишком много одинаковых анкорных ссылок. Анкор — это текст, по которому размещена ссылка. Если у вас 100 ссылок с одинаковым текстом вроде «купить диван», это выглядит подозрительно;

  • Ссылки из комментариев, блогов и форумов в виде спама. Пример: кто-то заходит в комментарии к статьям и оставляет там ссылку вроде «самые дешевые сумки Gucci» — и так на десятках сайтов;

  • Ссылки с некачественных или взломанных сайтов. Если ваш сайт получает ссылки с подозрительных ресурсов, это может сыграть против вас.

Как понять, что сайт попал под фильтр

Обратите внимание на следующие признаки:

  • Трафик резко упал, особенно из поиска;

  • Позиции сайта снизились по важным ключевым словам;

  • В Google Search Console может появиться уведомление о «неестественных ссылках».

Что делать, если сайт попал под фильтр

1. Провести аудит ссылочного профиля. Посмотрите, какие сайты ссылаются на ваш, и определите, какие из них могут быть вредными.

2. Попробовать удалить плохие ссылки. Свяжитесь с владельцами сайтов, где размещены нежелательные ссылки, и попросите их удалить.

3. Отклонить проблемные ссылки через Google Disavow Tool. Это специальный инструмент, с помощью которого вы можете «отказаться» от вредных ссылок. Google не будет их учитывать при ранжировании.

4. Сосредоточьтесь на естественном росте ссылок. Пишите качественный контент, участвуйте в PR-активностях, чтобы люди сами хотели ссылаться на ваш сайт — тогда ссылки будут «живыми» и полезными.

Алгоритм Google Penguin следит за тем, чтобы только качественные и честные ссылки помогали сайтам продвигаться. Если вы будете соблюдать рекомендации Google и делать упор на контент и пользу для пользователя, сайт будет расти стабильно и без риска попасть под санкции.

Итоги

→ Поисковые фильтры — это не страшилки для владельцев сайтов, а важные инструменты, которые помогают поисковым системам отсеивать некачественные, нечестные или просто неудобные ресурсы.

→ Благодаря фильтрам пользователи быстрее находят нужную информацию, а бизнес — получает доверие и трафик, если все сделано по правилам.

→ У «Яндекса» и Google свои алгоритмы, и каждый из них следит за определенными нарушениями: покупными ссылками, дублированным контентом, накрутками, текстовым спамом и даже аффилированными сайтами.

→ Каждый фильтр можно обойти — но только честным способом: удаляя плохие ссылки, улучшая контент, делая сайт удобным для людей и прозрачным для поисковиков.

→ Покупать ссылки, накручивать поведение и заполнять сайт бессмысленным текстом — не стратегия, а риск. Сегодня это сработает, а завтра вы окажетесь за бортом поиска.

→ Главный вывод — делайте сайт для людей, а не для роботов. Пишите понятно, давайте пользу, не пытайтесь обмануть систему — и тогда ни один фильтр вам не страшен.
оставить заявку
Зарабатывайте на дропшиппинге больше. Оставляйте заявку и наш специалист свяжется с вами в ближайшее время и проконсультирует вас по всем вопросам.
с 09:00 по 21:00 по МСК