Фильтры поисковых систем: что это такое и зачем они нужны
Когда вы вводите запрос в «Яндексе» или Google, поисковая система подбирает для вас самые подходящие сайты. Чтобы в результатах не попадались подозрительные или бесполезные ссылки, поисковики используют фильтры — специальные инструменты, которые помогают сделать выдачу более качественной и честной.
В этой статье разберемся, как работают эти фильтры, и почему владельцам интернет-магазинов важно о них знать.
Поисковики, такие как «Яндекс» и Google, хотят, чтобы вы находили полезную информацию. Чтобы не показывать вам «пустышки», они используют фильтры — специальные механизмы, которые «наказывают» сайты с обманом, спамом или просто неудобным интерфейсом.
Сайт не удаляют, но могут опустить на 5–10 страниц вниз — туда, куда почти никто не доходит.
Какие бывают фильтры
У поисковых систем есть целый арсенал инструментов, которые помогают поддерживать порядок в выдаче. Эти фильтры можно разделить по разным признакам: какие поисковики их применяют, за что именно, и как они работают.
Разберем виды фильтров по порядку — это поможет лучше понять, почему сайт интернет-магазина может внезапно потерять позиции, и главное — что с этим делать.
По поисковым системам
Фильтры Google;
Фильтры «Яндекса»
По способу работы
Алгоритмические — включаются автоматически, когда система находит нарушение;
Ручные — их применяют сотрудники поисковой системы после проверки сайта.
По причинам, по которым сайт может попасть под фильтр
За попытку манипулировать поиском: покупка ссылок, накрутка поведенческих факторов, текстовый спам, черное SEO и т.д.
За технические ошибки: медленная загрузка, неудобный интерфейс, одинаковые тексты, проблемы с адаптацией под телефоны и планшеты.
Теперь разберем конкретные фильтры, с которыми можно столкнуться.
Аффилиат-фильтр («Яндекс»)
Официально «Яндекс» не подтверждает этот фильтр, но в среде SEO-специалистов о нем говорят давно. Этот фильтр работает так: если у одного человека несколько сайтов на одну и ту же тему, «Яндекс» покажет в поиске только один из них — тот, который больше соответствует запросу. Остальные — понизит или скроет.
Как понять, что сайт попал под фильтр
Если два ваших сайта с похожей тематикой никогда не появляются вместе в результатах поиска по одним и тем же запросам, возможно, они признаны «аффилированными».
Как это проверить
Вбейте запрос, добавив -site:вашдомен.ru. Если после этого в выдаче появился второй сайт — значит, фильтр, скорее всего, работает.
Как не попасть под фильтр
Укажите разные контактные данные, например, телефон, адрес, e-mail на сайтах;
Сделайте уникальный контент и разный дизайн;
Разместите сайты на разных хостингах и IP-адресах;
Не ставьте ссылки друг на друга и не направляйте трафик с одного сайта на другой;
Разделите рекламные кампании: используйте разные аккаунты в «Яндекс.Директе»;
Используйте разные CMS и не повторяйте URL-структуру.
Если соблюдать эти меры, можно избежать попадания под аффилиат-фильтр и сохранить конкурентные позиции в поисковой выдаче.
Фильтр «Минусинск» («Яндекс»)
Этот фильтр борется с покупными SEO-ссылками, которые ставятся не ради пользы, а только чтобы поднять позиции в поиске. Впервые он появился в 2015 году.
Что происходит с сайтом
Сильно падают позиции в поисковой выдаче, а трафик снижается.
Как не попасть под фильтр
Не закупайте ссылки через биржи и агрегаторы;
Старайтесь, чтобы на ваш сайт ссылались естественным путем — за счет полезного контента, которым хочется делиться.
Если уже попали под фильтр
Удалите неестественные ссылки, где это возможно.
Дождитесь, пока поисковые роботы заново обойдут сайты, с которых шли плохие ссылки.
В «Яндекс.Вебмастере» нажмите «Я все исправил» — это ускорит пересмотр.
После того как вы удалите купленные ссылки и поисковики обновят свои данные, ограничения снимутся, и сайт снова начнет нормально показываться в поиске.
Фильтр «Баден-Баден» («Яндекс»)
Этот фильтр наказывает сайты с переSEOшными текстами — когда в тексте слишком много ключевых слов, и он написан не для людей, а для поисковых роботов.
Признаки переспамленного текста:
Много одинаковых ключевых слов — одно и то же словосочетание повторяется слишком часто и выглядит неестественно. Пример: «купить красную кофту Москва недорого» — и так 10 раз подряд.
Текст трудно читать — фразы звучат странно, ломано, не по-человечески. Как будто писали не для людей, а чтобы «угодить» поисковику.
Нет смысла или пользы — большой объем текста, но он не дает ответов на вопросы пользователя. Просто «вода», набитая словами для продвижения.
Много однотипных фраз — предложения похожи друг на друга, повторяют одни и те же мысли. Текст читается скучно и монотонно.
Нарочито «оптимизированная» структура — заголовки, подзаголовки, списки — все как в учебнике по SEO, но при этом содержание слабое.
Плохой стиль и ошибки — текст как будто собрали из кусков или писали через автоматический генератор.
Как избежать санкций:
Проверить все тексты на сайте;
Переписать их простым, понятным языком — так, чтобы они были полезны людям, а не «поисковым машинам».
Фильтр «Непот» («Яндекс»)
В 2015 году «Яндекс» снова начал использовать фильтр под названием Непот. Он нужен для того, чтобы не учитывать «ненастоящие» ссылки при определении позиций сайта в поиске. Этот фильтр работает для всех сайтов, независимо от региона, и ослабляет влияние искусственно созданных ссылок.
Как понять, что сработал фильтр
Главный признак — поисковик не находит сайт, на который ведет ссылка, даже если сама ссылка уже проиндексирована. Это значит, что такая ссылка не передает вес и не помогает сайту расти в поиске.
Допустим, у вас есть интернет-магазин site-a.ru, и вы хотите его продвинуть. Для этого вы покупаете ссылку на другом сайте — site-b.ru, чтобы он написал про вас статью и вставил туда анкор-ссылку: «лучшие кроссовки для бега» → ведет на site-a.ru.
Вы надеетесь, что «Яндекс» увидит эту ссылку и поднимет ваш сайт выше в результатах по запросу «лучшие кроссовки для бега». Но если «Яндекс» посчитает, что ссылка куплена или размещена на подозрительном сайте, он применит Непот-фильтр.
Что произойдет
Ссылка останется на месте, ее будет видно.
Она даже будет проиндексирована.
Но если ввести в «Яндексе» точный текст ссылки — «лучшие кроссовки для бега» — ваш сайт никогда не появится в результатах.
Это значит, что ссылочный вес сайта-донора не передается, и ссылка не помогает продвигаться. Она просто «обнуляется».
Как проверить, есть ли фильтр
Чтобы понять, применяется ли к ссылке Непот-фильтр, нужно:
1. Убедиться, что ссылка на сайте-доноре проиндексирована, то есть «Яндекс» ее видит.
2. Проверить, что сайт, на который ведет ссылка, тоже есть в «Яндексе».
3. Посмотреть, что текст ссылки, то есть анкор, не повторяется где-то еще на странице — например, в заголовках или основном тексте.
4. Провести тест СНСС — это способ проверить, можно ли найти сайт-акцептор по точному тексту ссылки.
Если после всех этих шагов сайт не появляется в результатах поиска, скорее всего, на ссылку действует Непот-фильтр.
Автоматическая проверка
С 2016 года проверять, действует ли Непот-фильтр на ссылки, можно с помощью специального сервиса «Пиксель Тулс». Он помогает анализировать как отдельные ссылки, так и большие их списки.
SEO-специалистам важно учитывать влияние Непот-фильтра при покупке или аренде ссылок. Если фильтр срабатывает и ссылки перестают давать эффект, нужно менять стратегию продвижения и делать упор на естественные ссылки — то есть те, которые появляются сами, потому что сайт полезный и на него хочется ссылаться.
Фильтр за накрутку поведенческих факторов («Яндекс»)
Когда вы заходите на сайт из поиска, система смотрит, что вы делаете: остались ли вы на странице, кликнули ли по кнопкам, вернулись ли назад и т.д. Это называется поведенческие факторы, и они помогают понять, насколько сайт интересен и полезен для людей.
Чем лучше поведение пользователей — тем выше сайт может быть в поиске. Но некоторые владельцы сайтов пытаются обмануть систему — накручивают клики, долго сидят на странице, переходят по разделам.
Поисковые системы это отслеживают и применяют специальный фильтр, который понижает такие сайты в результатах поиска.
Как понять, что сайт попал под фильтр
1. Резкое падение позиций. Сайт начинает показываться гораздо ниже в поиске, трафик резко падает.
2. Уведомление от «Яндекса». Если вы используете «Яндекс.Вебмастер», в разделе «Безопасность и нарушения» может появиться предупреждение, что замечены подозрительные накрутки поведенческих факторов.
Как проверить и избежать фильтра
Анализируйте трафик. Если вдруг становится слишком много «прямых заходов» (люди вроде бы напрямую набирают адрес сайта), или резко увеличивается количество заходов с ботов — это повод задуматься.
Проверяйте источники трафика. Если вы видите, что сайт получает трафик с одних и тех же IP-адресов или с одного региона — это может говорить о накрутке.
Откажитесь от сомнительных методов продвижения. Не стоит использовать «черные» и «серые» схемы: программы, которые имитируют поведение пользователей, сервисы накрутки, фальшивый трафик. Лучше использовать «белые» методы: улучшать сайт, делать интересный контент, работать над удобством — и люди сами будут задерживаться дольше.
Почему это важно
Если сайт попадет под фильтр за накрутку поведенческих факторов, это может сильно испортить его репутацию и снизить количество посетителей. Выбраться из-под такого фильтра потом — сложно и долго. Поэтому проще и безопаснее работать честно, по правилам поисковых систем.
Google Panda
Google Panda — это специальный алгоритм, который появился в 2011 году. Он оценивает сайты по качеству контента. Главная задача Panda — поднять в поиске хорошие сайты с полезной информацией и опустить те, где тексты слабые, ворованные или бесполезные.
Что именно проверяет Google Panda
1. Качество контента. Тексты на сайте должны быть:
полезными — отвечать на вопросы пользователей;
уникальными — не скопированными с других сайтов;
хорошо структурированными — с заголовками, абзацами, списками, чтобы было удобно читать.
2. Повторяющийся контент. Если на сайте есть похожие страницы с минимальными отличиями, это плохо. Например, страницы с разными городами, где меняется только название города, а остальное — одинаковое. Такие сайты могут попасть под фильтр.
3. Неоригинальный контент. Если вы просто копируете тексты с других сайтов, без добавления своей пользы, Panda это увидит, и сайт просядет в поиске.
Позиции сайта опускаются — по всем ключевым запросам;
Новые страницы долго появляются в поиске — Google не спешит их индексировать;
Что делать, если сайт попал под фильтр:
1. Проверьте и улучшите контент. Проведите аудит: найдите слабые, бесполезные тексты — и либо удалите их, либо переработайте.
2. Избавьтесь от повторяющихся страниц. Для этого:
используйте канонические URL — они указывают, какая версия страницы главная;
закройте дубли от индексации, чтобы поисковик их не учитывал;
3. Ускорьте загрузку сайта. Сделайте сайт быстрым, особенно на телефонах.
4. Уберите агрессивную рекламу. Если баннеров слишком много и они мешают читать — это минус.
5. Сделайте сайт удобнее. Проверьте, удобно ли на нем искать информацию, понятно ли устроено меню, легко ли вернуться назад.
6. Регулярно публикуйте хорошие статьи. Пишите уникальные и полезные материалы — тогда сайт будет расти в поиске.
Google Panda «наказывает» за плохой контент и неудобные сайты. Но если все исправить и начать писать действительно полезные статьи, сайт сможет вернуться на хорошие позиции.
Google Penguin
Google Penguin — это алгоритм, который появился в 2012 году. Он создан для того, чтобы бороться с нечестными способами продвижения сайтов с помощью ссылок.
Раньше некоторые владельцы сайтов массово покупали ссылки или размещали их где угодно — лишь бы подняться выше в поиске. Penguin нацелен на то, чтобы такие «неестественные» ссылки не работали, а сайты, которые ими злоупотребляют, теряли позиции.
С 2016 года Penguin стал частью основного алгоритма Google и теперь работает в реальном времени. Это значит, что поисковик может почти сразу отреагировать, если у сайта появляются плохие ссылки.
Какие ссылки считаются спамными
Вот признаки, по которым алгоритм распознает плохие, или же неестественные, ссылки:
Покупные ссылки с нерелевантных сайтов. Например, на сайт про кухонную мебель ставят ссылку с блога о собаках — и это явно не по теме;
Слишком много одинаковых анкорных ссылок. Анкор — это текст, по которому размещена ссылка. Если у вас 100 ссылок с одинаковым текстом вроде «купить диван», это выглядит подозрительно;
Ссылки из комментариев, блогов и форумов в виде спама. Пример: кто-то заходит в комментарии к статьям и оставляет там ссылку вроде «самые дешевые сумки Gucci» — и так на десятках сайтов;
Ссылки с некачественных или взломанных сайтов. Если ваш сайт получает ссылки с подозрительных ресурсов, это может сыграть против вас.
Как понять, что сайт попал под фильтр
Обратите внимание на следующие признаки:
Трафик резко упал, особенно из поиска;
Позиции сайта снизились по важным ключевым словам;
В Google Search Console может появиться уведомление о «неестественных ссылках».
Что делать, если сайт попал под фильтр
1. Провести аудит ссылочного профиля. Посмотрите, какие сайты ссылаются на ваш, и определите, какие из них могут быть вредными.
2. Попробовать удалить плохие ссылки. Свяжитесь с владельцами сайтов, где размещены нежелательные ссылки, и попросите их удалить.
3. Отклонить проблемные ссылки через Google Disavow Tool. Это специальный инструмент, с помощью которого вы можете «отказаться» от вредных ссылок. Google не будет их учитывать при ранжировании.
4. Сосредоточьтесь на естественном росте ссылок. Пишите качественный контент, участвуйте в PR-активностях, чтобы люди сами хотели ссылаться на ваш сайт — тогда ссылки будут «живыми» и полезными.
Алгоритм Google Penguin следит за тем, чтобы только качественные и честные ссылки помогали сайтам продвигаться. Если вы будете соблюдать рекомендации Google и делать упор на контент и пользу для пользователя, сайт будет расти стабильно и без риска попасть под санкции.
Итоги
→ Поисковые фильтры — это не страшилки для владельцев сайтов, а важные инструменты, которые помогают поисковым системам отсеивать некачественные, нечестные или просто неудобные ресурсы.
→ Благодаря фильтрам пользователи быстрее находят нужную информацию, а бизнес — получает доверие и трафик, если все сделано по правилам.
→ У «Яндекса» и Google свои алгоритмы, и каждый из них следит за определенными нарушениями: покупными ссылками, дублированным контентом, накрутками, текстовым спамом и даже аффилированными сайтами.
→ Каждый фильтр можно обойти — но только честным способом: удаляя плохие ссылки, улучшая контент, делая сайт удобным для людей и прозрачным для поисковиков.
→ Покупать ссылки, накручивать поведение и заполнять сайт бессмысленным текстом — не стратегия, а риск. Сегодня это сработает, а завтра вы окажетесь за бортом поиска.
→ Главный вывод — делайте сайт для людей, а не для роботов. Пишите понятно, давайте пользу, не пытайтесь обмануть систему — и тогда ни один фильтр вам не страшен.
оставить заявку
Зарабатывайте на дропшиппинге больше. Оставляйте заявку и наш специалист свяжется с вами в ближайшее время и проконсультирует вас по всем вопросам.