#1 2015-04-19 01:23

KonstantinK
Пользователь

robots.txt

Всем доброго времени суток!
Нужно закрыть от индексации некоторые фильтры
http://domain.ru/category/subcategory/ - без фильтра
http://domain.ru/category/subcategory1/filter1...n - с фильтром

Disallow: /category/category1/*/ Это правильное правило для моей цели?

Неактивен

 

#2 2015-04-20 14:41

rat
Администратор

Re: robots.txt

http://domain.ru/category/subcategory/ - без фильтра
http://domain.ru/category/subcategory1/filter1...n - с фильтром

В одном URL subcategory, в другом subcategory1. Так и должно быть?

Неактивен

 

#3 2015-06-10 15:50

tumba
Пользователь

Re: robots.txt

Подскажите, ради бога! Вот эту хрень надо закрывать в роботе----published/SC/html/scripts или нет? Может у кого нормальный роботс есть для магазина shop script ?

Неактивен

 

Board footer

Powered by PunBB