Тонкости работы с фильтрами магазинов seo-google

Оцените этот post

Ты хоть раз пытался выбрать «белые кроссовки» на сайте, а тебе подсовывают чёрные, бежевые, ещё какие-то серо-убитые? Вот. Я тоже. И каждый раз хочется встать, хлопнуть ноутбук, как дверью, и пойти гулять босиком. Потому что, блин, казалось бы – просто найди нужное. Но нет.

Начинается всё с желания упростить

Ты такой: “Ладно, сделаем, чтобы покупателю было удобно”. Ставишь переключатели, галочки, слайдеры. Прям кайф: всё разложено по категориям, цветам, брендам. А потом приходит пользователь… и уходит через 3 секунды. Потому что ничего не работает так, как он ожидал.

Я однажды видел фильтр, где при выборе размера “M” исчезали вообще все товары. Даже “XS”. Просто пустота. Как будто мир кончился. Админ, вероятно, думал, что если нет точного совпадения – лучше ничего не показывать. Гениально.

Простой совет: не прячьте вещи

Покупатель не должен чувствовать себя Шерлоком. И если он выбрал “синее”, а вы ему говорите “ой, такого нет, держи пустую страницу”, – он не будет нажимать «сбросить». Он просто уйдёт. Навсегда. Поэтому:

  • Показывайте хотя бы что-то. Схожие цвета, альтернативы, соседние размеры.
  • Не обнуляйте выбор без разрешения. Это бесит. Особенно, если фильтров было 10.
  • И не грузите всё сразу. Когда открываешь список брендов и там 400 позиций от A до Ω – это не фильтр, это баг.

И вообще, вы тестировали это на живых людях?

Я серьёзно. Один владелец магазина как-то гордо сказал мне: “Наши фильтры идеально работают по логике базы данных.” Ага. Только человек – не SQL-запрос. Он не знает, что “технический трикотаж” у вас спрятан под “аксессуарами для спорта”. Он ищет “шапку” и всё. Простую, человеческую шапку.

Так что если вы строите структуру на внутреннем складе, а не на том, как думает реальный покупатель – будьте готовы сидеть в пустом магазине. С красивыми фильтрами. И нулём продаж.

Маленький трюк, который сработал у нас

Мы добавили крошечные иконки к категориям в фильтре. Всё. Буквально пиктограммы. Люди стали понимать быстрее. Процент отказов упал. Иногда нужно не улучшать, а упростить. Не добавлять, а выкидывать.

Так что если у вас в панели 18 вариантов “черного” – пересмотрите, что с вами не так.

И напоследок: фильтр – это не лаборатория

Это не место, где ты проверяешь, сможет ли клиент догадаться, как работает твоя система. Это способ не раздражать. Просто не мешай ему выбрать. Вот и всё.

Ну что, поехали. Или ты всё ещё думаешь, что “по цвету” – это достаточно?

Как структура фильтров влияет на индексацию страниц в поисковых системах

Ты серьёзно думаешь, что Google будет шариться по твоим страницам, если сам не понимаешь, как они устроены?

Одна лишняя комбинация – и всё, привет мусор в индексе

Вот представь: я однажды открыл каталог с одеждой. Казалось бы – всё логично. Цвета, размеры, бренды. Но потом зашёл в раздел «красные куртки размера XS от двух брендов одновременно» и понял, что таких страниц – сотни тысяч. Все разные URL, но почти одинаковые по содержанию. Знаешь, что поисковик с этим делает? Правильно. Или игнорит, или кидает в «низкокачественные».

Не надо пытаться угодить всем

Один из моих клиентов когда-то сказал: «А пусть будут все возможные комбинации, пользователь выберет!» Ну да, только вот Google – не пользователь. Он не будет сидеть и думать, какие страницы «настоящие», а какие – вариации на тему. Ему нужен смысл, а не вариативность ради галочки.

Что реально помогает?

  • Фиксированные маршруты – не давай пользователю собирать страницу как конструктор. Пусть будут чёткие категории и подкатегории.
  • Каноникал – это не волшебная палочка, но хотя бы не даст поисковику с ума сойти от дубликатов.
  • robots.txt + noindex – учись говорить «нет». Блокируй то, что не имеет смысла вне контекста.

Фильтр без цели – как швейцарский нож без лезвия

Ты, может, хочешь дать пользователю свободу, но если каждая комбинация цен и брендов генерит отдельную страницу, ты плодишь фантомов. Внешне живые, по факту – пустышки. Их много, они съедают краулинг-бюджет, но толку от них, как от TikTok-комментария без смысла.

Кейс из жизни (почти плакал)

Был проект. Мебель. У них структура была такая: «стол + дуб + круглый + Италия + акция + до 50000». Эти страницы индексировались. Проблема? Они не давали трафика вообще. Но сжирали почти весь бюджет обхода. Когда мы обрезали 90% таких URL и оставили только базовые маршруты – трафик вырос. Не сразу. Но как только Google перестал захлёбываться – всё пошло в рост.

Зачем это всё?

Потому что не количество URL решает. А их ценность. Если ты лепишь каждую возможную комбинацию – ты не навигацию строишь, ты лабиринт. И твой посетитель – это не мышь в поисках сыра. Он просто закроет вкладку. А Google – закроет к тебе интерес.

Маленький чеклист

  • Формируешь ЧПУ только на основе логических групп, а не комбинаций ради комбинаторики
  • Оцениваешь спрос на каждую страницу – реально ли она кому-то нужна?
  • И самое главное – спрашиваешь себя: если бы это был печатный каталог, ты бы правда напечатал эту страницу?

Короче. Структура – это не про дизайн. Это про смысл. Либо ты его создаёшь. Либо подкидываешь ещё один кирпич в стену хаоса. Тут уж решай сам.

Какие параметры фильтров блокировать от индексации и почему

Если у тебя урл заканчивается на ?color=red&size=XS&brand=unknown – поздравляю, ты только что скормил Google 4387 бесполезных страниц. И знаешь что? Он их съел. Потому что ты не сказал «не ешь».

Сначала – не мешай поисковику

Вот честно, половина проблем не из-за того, что что-то не настроено. А потому что никто не выключил то, что шумит. Как включённый утюг в квартире, где давно уже никто не живёт.

Не нужно индексировать страницы, которые появляются из-за динамических параметров. Они плодятся как кролики. Один клик по галочке в фильтре – и готов новый URL. А контент? Всё тот же. Только цвет кнопки изменился. Или сортировка по убыванию цены. Кому это надо в поиске?

Список «шумных» параметров, которые стоит закрывать от индексации:

  • sort= – сортировка по цене, рейтингу, чему угодно. Один товар – десять вариантов отображения.
  • view= – плитка или список. Это не новая страница, это просто косметика.
  • page= – пагинация. Особенно если основная категория уже индексируется.
  • brand=, если у тебя 348 брендов и среди них «noname» с нулём товаров.
  • availability= – «в наличии», «нет в наличии» – это не разный контент, это просто грусть и радость клиента.

Реальный случай

Был у нас один проект. Одежда. Женская. Фильтров – вагон, и в каждом по десятку значений. Google индексировал 140 000 URL. Половина – пустышки. При этом главные страницы – в топ не лезли. Почему? Потому что краулинговый бюджет жрали фильтры. Всё.

Как закрывать?

Не надо изобретать телегу. Есть проверенные методы. Вот краткая табличка, что использовать и где:

Метод Когда применять Пример
robots.txt Если надо вообще запретить доступ Disallow: /*?sort=
noindex, follow Если доступ нужен, но индексация – нет Метатег на странице: <meta name="robots" content="noindex, follow">
canonical Если страница дублирует основную <link rel="canonical" href="https://example.com/category/">
Search Console – Параметры URL Если нужно быстро и точечно Настройка через интерфейс Google

Зачем всё это?

Чтобы не превратить сайт в мусорку. Чтобы у Google была одна цель – главная категория. А не 80 версий одного и того же товара. Чтобы трафик шёл на реальные страницы. А не на ?page=17&sort=desc&brand=404.

Ты ж хочешь, чтобы люди заходили и покупали, а не бродили по теневым копиям одной и той же страницы?

И да, не переборщи

Бывает, люди закрывают всё подряд. Сортировку, фильтры, страницы, даже хлебные крошки. И получается: Google пришёл, а ему дверь в лицо. Уходи, мол, нечего тебе тут. Так тоже не надо.

Баланс – вот что решает. Закрывай шум. Оставляй суть. Всё просто. Ну, почти.

Как избежать дублирования контента при использовании товарных фильтров

Каждый раз, когда кто-то говорит «ну у нас фильтры на сайте, всё ок» – я сжимаюсь внутри. Потому что «всё ок» обычно значит: у каждой комбинации цвета и размера – отдельная страница. С одинаковым описанием. С одними и теми же заголовками. С клоном тайтла. И с ощущением, что ты попал в заезженную петлю. Как в лифте, где заело музыку.

Два пути – и оба кривые

Вот в чём засада. Или ты даёшь поисковику индексировать всё подряд – и получаешь сотни страниц-дублей, как будто пытаешься впечатлить Google количеством, а не смыслом. Или ты ломаешь весь интерфейс, чтобы спрятать фильтры и не вылезать за пределы одной страницы. Оба пути – провал.

Что реально работает?

Никакой магии. Просто здравый смысл и пара чётких шагов.

  • Используй canonical. Выстави канонический адрес для страниц с фильтрами. Пусть Google знает, кто тут главный. Например: фильтры «красный + XL» ведут на ту же canonical-страницу, что и просто категория «футболки».
  • Не плодись мета-данными. Не нужно генерировать уникальные тайтлы и дескрипшены на каждый фильтр. Это создаёт иллюзию уникальности, которой нет. Лучше пусть будет один качественный мета-блок, чем тысяча бесполезных.
  • Фильтры – через JS. Это спорно, но если ты не хочешь, чтобы страницы с фильтрами вообще попадали в индекс, проще всего отдать их через JavaScript. Google, конечно, умеет парсить, но по умолчанию такие страницы он обходит стороной.

Пример – из жизни, не из презентации

У одного моего знакомого был магазин одежды. Он долго не мог понять, почему органика села. А всё просто: один и тот же товар был доступен в 7 цветах и 5 размерах. А фильтры генерировали отдельную ссылку для каждой комбинации. Получалось 35 страниц с одинаковым описанием и одной фоткой. Google офигел. И просто выкинул почти всё из индекса.

После того, как ему сделали нормальную canonical-схему и закрыли всё лишнее от индексации – позиции вернулись. Медленно, но вернулись. А потом он сказал: «Чувак, я бы лучше вообще без фильтров жил, чем снова в это вляпался».

Проверь себя быстро

  • Открой любую страницу с фильтрацией.
  • Посмотри исходный код – есть canonical?
  • Погугли эту страницу – индексируется?
  • Разные фильтры ведут на разные URL? Сколько их вообще?

Если ты сейчас поймал себя на мысли: «чёрт, у меня это всё есть» – не паникуй. Просто начни с одного фильтра. Пройди путь руками. Посмотри, как он живёт в поиске. И оттуда – шаг за шагом.

И да, не пытайся всё автоматизировать

Автоматизация – это прекрасно, пока не начинает втихаря размножать страницы. Любая система фильтрации должна быть под контролем. Не в смысле – ручной работы, а в смысле – понимания, что она делает. Каждый фильтр – как ребенок. Если отпустить, он натворит такого, что ты потом полгода будешь расхлёбывать.

Короче, не надо усложнять. Если страница не несёт новой смысловой нагрузки – не пускай её в индекс. Всё остальное – это уже вкусовщина. А с дублями шутки плохи.

Способы внедрения ЧПУ для фильтрационных страниц без потери семантики

Никогда не верь разработчику, который говорит: «Фильтры не индексируются – и ладно». Это не «ладно». Это – просто потерянный трафик. И часто – жирный, с намерением, почти горячий. А ты его сливаешь в noindex или в урлы вида ?cat=45&color=green&type=6. Ну да, вкусно. Особенно для поисковика.

Решение? ЧПУ. Но не просто “красивые урлы”, а с умом

Просто подменить ?brand=nike&size=43 на /krossovki/nike/43 – недостаточно. Это косметика. А нужна – семантическая архитектура. И вот где начинается веселье.

Вот что реально работает, если не хочешь потерять ключевые слова, вложенность, и чтоб Google сказал “ого, да тут полезно!”:

  • Генерация страниц по комбинациям фильтров. Не всех подряд (иначе миллион мусорных страниц), а тех, что реально ищут. Используй данные из https://auslander.ru/seo-2025/ – там есть чёткий подход, какие фильтрационные страницы индексировать, а какие – в сад.
  • URL, которые читаются как человек. Не надо /products/brand-nike-type-sneakers-size-43. Сделай /krossovki/nike/43 – и человеку удобно, и смысл не теряется. Главное – сохраняй логичность вложенности.
  • Автоматическая генерация мета-тегов и заголовков. Каждая страница – как будто она написана вручную. Без шаблонного «Товары со скидкой Nike 43». Бери идеи отсюда: https://auslander.ru/seo-pereproshivka-2025-lite/. Там реально крутые приёмы. Особенно, если руки из плеч растут.

Пример из жизни: как я сам облажался – и потом починил

Был проект – спортивная обувь. Урлы были как у калькулятора. Всё закрыто в noindex, потому что “ну это же фильтры”. Потом подсунули Google по-нормальному собранные страницы: /krossovki/adidas/zhenskie/novinki – и бац, топ по «женские кроссовки adidas новинки».

Что поменялось? Не код. Не ссылки. Только URL и мета. Ну и то, что фильтрация перестала быть «внутренним интерфейсом», а стала частью сайта, которая живёт и индексируется.

Пару технических нюансов – на коленке, но по делу

  • Используй server-side рендеринг или пререндер. Не полагайся на JS – Google не всегда ждёт.
  • Учитывай каноникал. Если у тебя /nike и /nike/43 – не делай каноникал на первую. Это убьёт вторую.
  • Подключи логгер. Смотри, что реально сканит бот. Иногда ты думаешь “ну всё видно”, а по факту – дыра.

В итоге?

Смысл не в том, чтобы сделать “короткий адрес”. А в том, чтобы смысл не терялся. Чтобы каждый URL говорил: “Вот ответ на твой запрос”. А не “Ну ты же знаешь, как работает фильтр, да?”.

И нет, это не волшебство. Это просто – по-человечески. Для бота. Для юзера. Для тебя.

DVMAGICAuthor posts

Avatar for DVMAGIC

Dmitri Shevelkin — SEO-специалист и основатель DVMAGIC Team. Тот, кто вовремя выбросил чек-листы нулевых и начал говорить с Google на языке смысла. До 2023 года — органика, рост трафика, технические дебри. С 2023 — смысл, структура, доверие. Не «оптимизирую», а перепрошиваю сайты, чтобы они дышали, говорили и приносили результат. Пишу на четырёх языках, работаю без ИИ-штампов, говорю прямо и по делу. Если сайт не работает — я не посочувствую. Я переделаю так, чтобы работал.

Комментарии отключены