Ты хоть раз пытался выбрать «белые кроссовки» на сайте, а тебе подсовывают чёрные, бежевые, ещё какие-то серо-убитые? Вот. Я тоже. И каждый раз хочется встать, хлопнуть ноутбук, как дверью, и пойти гулять босиком. Потому что, блин, казалось бы – просто найди нужное. Но нет.
Начинается всё с желания упростить
Ты такой: “Ладно, сделаем, чтобы покупателю было удобно”. Ставишь переключатели, галочки, слайдеры. Прям кайф: всё разложено по категориям, цветам, брендам. А потом приходит пользователь… и уходит через 3 секунды. Потому что ничего не работает так, как он ожидал.
Я однажды видел фильтр, где при выборе размера “M” исчезали вообще все товары. Даже “XS”. Просто пустота. Как будто мир кончился. Админ, вероятно, думал, что если нет точного совпадения – лучше ничего не показывать. Гениально.
Простой совет: не прячьте вещи
Покупатель не должен чувствовать себя Шерлоком. И если он выбрал “синее”, а вы ему говорите “ой, такого нет, держи пустую страницу”, – он не будет нажимать «сбросить». Он просто уйдёт. Навсегда. Поэтому:
- Показывайте хотя бы что-то. Схожие цвета, альтернативы, соседние размеры.
- Не обнуляйте выбор без разрешения. Это бесит. Особенно, если фильтров было 10.
- И не грузите всё сразу. Когда открываешь список брендов и там 400 позиций от A до Ω – это не фильтр, это баг.
И вообще, вы тестировали это на живых людях?
Я серьёзно. Один владелец магазина как-то гордо сказал мне: “Наши фильтры идеально работают по логике базы данных.” Ага. Только человек – не SQL-запрос. Он не знает, что “технический трикотаж” у вас спрятан под “аксессуарами для спорта”. Он ищет “шапку” и всё. Простую, человеческую шапку.
Так что если вы строите структуру на внутреннем складе, а не на том, как думает реальный покупатель – будьте готовы сидеть в пустом магазине. С красивыми фильтрами. И нулём продаж.
Маленький трюк, который сработал у нас
Мы добавили крошечные иконки к категориям в фильтре. Всё. Буквально пиктограммы. Люди стали понимать быстрее. Процент отказов упал. Иногда нужно не улучшать, а упростить. Не добавлять, а выкидывать.
Так что если у вас в панели 18 вариантов “черного” – пересмотрите, что с вами не так.
И напоследок: фильтр – это не лаборатория
Это не место, где ты проверяешь, сможет ли клиент догадаться, как работает твоя система. Это способ не раздражать. Просто не мешай ему выбрать. Вот и всё.
Ну что, поехали. Или ты всё ещё думаешь, что “по цвету” – это достаточно?
Как структура фильтров влияет на индексацию страниц в поисковых системах
Ты серьёзно думаешь, что Google будет шариться по твоим страницам, если сам не понимаешь, как они устроены?
Одна лишняя комбинация – и всё, привет мусор в индексе
Вот представь: я однажды открыл каталог с одеждой. Казалось бы – всё логично. Цвета, размеры, бренды. Но потом зашёл в раздел «красные куртки размера XS от двух брендов одновременно» и понял, что таких страниц – сотни тысяч. Все разные URL, но почти одинаковые по содержанию. Знаешь, что поисковик с этим делает? Правильно. Или игнорит, или кидает в «низкокачественные».
Не надо пытаться угодить всем
Один из моих клиентов когда-то сказал: «А пусть будут все возможные комбинации, пользователь выберет!» Ну да, только вот Google – не пользователь. Он не будет сидеть и думать, какие страницы «настоящие», а какие – вариации на тему. Ему нужен смысл, а не вариативность ради галочки.
Что реально помогает?
- Фиксированные маршруты – не давай пользователю собирать страницу как конструктор. Пусть будут чёткие категории и подкатегории.
- Каноникал – это не волшебная палочка, но хотя бы не даст поисковику с ума сойти от дубликатов.
- robots.txt + noindex – учись говорить «нет». Блокируй то, что не имеет смысла вне контекста.
Фильтр без цели – как швейцарский нож без лезвия
Ты, может, хочешь дать пользователю свободу, но если каждая комбинация цен и брендов генерит отдельную страницу, ты плодишь фантомов. Внешне живые, по факту – пустышки. Их много, они съедают краулинг-бюджет, но толку от них, как от TikTok-комментария без смысла.
Кейс из жизни (почти плакал)
Был проект. Мебель. У них структура была такая: «стол + дуб + круглый + Италия + акция + до 50000». Эти страницы индексировались. Проблема? Они не давали трафика вообще. Но сжирали почти весь бюджет обхода. Когда мы обрезали 90% таких URL и оставили только базовые маршруты – трафик вырос. Не сразу. Но как только Google перестал захлёбываться – всё пошло в рост.
Зачем это всё?
Потому что не количество URL решает. А их ценность. Если ты лепишь каждую возможную комбинацию – ты не навигацию строишь, ты лабиринт. И твой посетитель – это не мышь в поисках сыра. Он просто закроет вкладку. А Google – закроет к тебе интерес.
Маленький чеклист
- Формируешь ЧПУ только на основе логических групп, а не комбинаций ради комбинаторики
- Оцениваешь спрос на каждую страницу – реально ли она кому-то нужна?
- И самое главное – спрашиваешь себя: если бы это был печатный каталог, ты бы правда напечатал эту страницу?
Короче. Структура – это не про дизайн. Это про смысл. Либо ты его создаёшь. Либо подкидываешь ещё один кирпич в стену хаоса. Тут уж решай сам.
Какие параметры фильтров блокировать от индексации и почему
Если у тебя урл заканчивается на ?color=red&size=XS&brand=unknown
– поздравляю, ты только что скормил Google 4387 бесполезных страниц. И знаешь что? Он их съел. Потому что ты не сказал «не ешь».
Сначала – не мешай поисковику
Вот честно, половина проблем не из-за того, что что-то не настроено. А потому что никто не выключил то, что шумит. Как включённый утюг в квартире, где давно уже никто не живёт.
Не нужно индексировать страницы, которые появляются из-за динамических параметров. Они плодятся как кролики. Один клик по галочке в фильтре – и готов новый URL. А контент? Всё тот же. Только цвет кнопки изменился. Или сортировка по убыванию цены. Кому это надо в поиске?
Список «шумных» параметров, которые стоит закрывать от индексации:
- sort= – сортировка по цене, рейтингу, чему угодно. Один товар – десять вариантов отображения.
- view= – плитка или список. Это не новая страница, это просто косметика.
- page= – пагинация. Особенно если основная категория уже индексируется.
- brand=, если у тебя 348 брендов и среди них «noname» с нулём товаров.
- availability= – «в наличии», «нет в наличии» – это не разный контент, это просто грусть и радость клиента.
Реальный случай
Был у нас один проект. Одежда. Женская. Фильтров – вагон, и в каждом по десятку значений. Google индексировал 140 000 URL. Половина – пустышки. При этом главные страницы – в топ не лезли. Почему? Потому что краулинговый бюджет жрали фильтры. Всё.
Как закрывать?
Не надо изобретать телегу. Есть проверенные методы. Вот краткая табличка, что использовать и где:
Метод | Когда применять | Пример |
---|---|---|
robots.txt | Если надо вообще запретить доступ | Disallow: /*?sort= |
noindex, follow | Если доступ нужен, но индексация – нет | Метатег на странице: <meta name="robots" content="noindex, follow"> |
canonical | Если страница дублирует основную | <link rel="canonical" href="https://example.com/category/"> |
Search Console – Параметры URL | Если нужно быстро и точечно | Настройка через интерфейс Google |
Зачем всё это?
Чтобы не превратить сайт в мусорку. Чтобы у Google была одна цель – главная категория. А не 80 версий одного и того же товара. Чтобы трафик шёл на реальные страницы. А не на ?page=17&sort=desc&brand=404
.
Ты ж хочешь, чтобы люди заходили и покупали, а не бродили по теневым копиям одной и той же страницы?
И да, не переборщи
Бывает, люди закрывают всё подряд. Сортировку, фильтры, страницы, даже хлебные крошки. И получается: Google пришёл, а ему дверь в лицо. Уходи, мол, нечего тебе тут. Так тоже не надо.
Баланс – вот что решает. Закрывай шум. Оставляй суть. Всё просто. Ну, почти.
Как избежать дублирования контента при использовании товарных фильтров
Каждый раз, когда кто-то говорит «ну у нас фильтры на сайте, всё ок» – я сжимаюсь внутри. Потому что «всё ок» обычно значит: у каждой комбинации цвета и размера – отдельная страница. С одинаковым описанием. С одними и теми же заголовками. С клоном тайтла. И с ощущением, что ты попал в заезженную петлю. Как в лифте, где заело музыку.
Два пути – и оба кривые
Вот в чём засада. Или ты даёшь поисковику индексировать всё подряд – и получаешь сотни страниц-дублей, как будто пытаешься впечатлить Google количеством, а не смыслом. Или ты ломаешь весь интерфейс, чтобы спрятать фильтры и не вылезать за пределы одной страницы. Оба пути – провал.
Что реально работает?
Никакой магии. Просто здравый смысл и пара чётких шагов.
- Используй canonical. Выстави канонический адрес для страниц с фильтрами. Пусть Google знает, кто тут главный. Например: фильтры «красный + XL» ведут на ту же canonical-страницу, что и просто категория «футболки».
- Не плодись мета-данными. Не нужно генерировать уникальные тайтлы и дескрипшены на каждый фильтр. Это создаёт иллюзию уникальности, которой нет. Лучше пусть будет один качественный мета-блок, чем тысяча бесполезных.
- Фильтры – через JS. Это спорно, но если ты не хочешь, чтобы страницы с фильтрами вообще попадали в индекс, проще всего отдать их через JavaScript. Google, конечно, умеет парсить, но по умолчанию такие страницы он обходит стороной.
Пример – из жизни, не из презентации
У одного моего знакомого был магазин одежды. Он долго не мог понять, почему органика села. А всё просто: один и тот же товар был доступен в 7 цветах и 5 размерах. А фильтры генерировали отдельную ссылку для каждой комбинации. Получалось 35 страниц с одинаковым описанием и одной фоткой. Google офигел. И просто выкинул почти всё из индекса.
После того, как ему сделали нормальную canonical-схему и закрыли всё лишнее от индексации – позиции вернулись. Медленно, но вернулись. А потом он сказал: «Чувак, я бы лучше вообще без фильтров жил, чем снова в это вляпался».
Проверь себя быстро
- Открой любую страницу с фильтрацией.
- Посмотри исходный код – есть canonical?
- Погугли эту страницу – индексируется?
- Разные фильтры ведут на разные URL? Сколько их вообще?
Если ты сейчас поймал себя на мысли: «чёрт, у меня это всё есть» – не паникуй. Просто начни с одного фильтра. Пройди путь руками. Посмотри, как он живёт в поиске. И оттуда – шаг за шагом.
И да, не пытайся всё автоматизировать
Автоматизация – это прекрасно, пока не начинает втихаря размножать страницы. Любая система фильтрации должна быть под контролем. Не в смысле – ручной работы, а в смысле – понимания, что она делает. Каждый фильтр – как ребенок. Если отпустить, он натворит такого, что ты потом полгода будешь расхлёбывать.
Короче, не надо усложнять. Если страница не несёт новой смысловой нагрузки – не пускай её в индекс. Всё остальное – это уже вкусовщина. А с дублями шутки плохи.
Способы внедрения ЧПУ для фильтрационных страниц без потери семантики
Никогда не верь разработчику, который говорит: «Фильтры не индексируются – и ладно». Это не «ладно». Это – просто потерянный трафик. И часто – жирный, с намерением, почти горячий. А ты его сливаешь в noindex или в урлы вида ?cat=45&color=green&type=6. Ну да, вкусно. Особенно для поисковика.
Решение? ЧПУ. Но не просто “красивые урлы”, а с умом
Просто подменить ?brand=nike&size=43
на /krossovki/nike/43
– недостаточно. Это косметика. А нужна – семантическая архитектура. И вот где начинается веселье.
Вот что реально работает, если не хочешь потерять ключевые слова, вложенность, и чтоб Google сказал “ого, да тут полезно!”:
- Генерация страниц по комбинациям фильтров. Не всех подряд (иначе миллион мусорных страниц), а тех, что реально ищут. Используй данные из https://auslander.ru/seo-2025/ – там есть чёткий подход, какие фильтрационные страницы индексировать, а какие – в сад.
- URL, которые читаются как человек. Не надо
/products/brand-nike-type-sneakers-size-43
. Сделай/krossovki/nike/43
– и человеку удобно, и смысл не теряется. Главное – сохраняй логичность вложенности. - Автоматическая генерация мета-тегов и заголовков. Каждая страница – как будто она написана вручную. Без шаблонного «Товары со скидкой Nike 43». Бери идеи отсюда: https://auslander.ru/seo-pereproshivka-2025-lite/. Там реально крутые приёмы. Особенно, если руки из плеч растут.
Пример из жизни: как я сам облажался – и потом починил
Был проект – спортивная обувь. Урлы были как у калькулятора. Всё закрыто в noindex
, потому что “ну это же фильтры”. Потом подсунули Google по-нормальному собранные страницы: /krossovki/adidas/zhenskie/novinki
– и бац, топ по «женские кроссовки adidas новинки».
Что поменялось? Не код. Не ссылки. Только URL и мета. Ну и то, что фильтрация перестала быть «внутренним интерфейсом», а стала частью сайта, которая живёт и индексируется.
Пару технических нюансов – на коленке, но по делу
- Используй server-side рендеринг или пререндер. Не полагайся на JS – Google не всегда ждёт.
- Учитывай каноникал. Если у тебя
/nike
и/nike/43
– не делай каноникал на первую. Это убьёт вторую. - Подключи логгер. Смотри, что реально сканит бот. Иногда ты думаешь “ну всё видно”, а по факту – дыра.
В итоге?
Смысл не в том, чтобы сделать “короткий адрес”. А в том, чтобы смысл не терялся. Чтобы каждый URL говорил: “Вот ответ на твой запрос”. А не “Ну ты же знаешь, как работает фильтр, да?”.
И нет, это не волшебство. Это просто – по-человечески. Для бота. Для юзера. Для тебя.