Вітання, Вам мої читачі! Cьогодні хочу
поділитись важливою інформацією 🔻🔻🔻 про те, по яким причинам в індексі можуть залишатись
і не випадати технічні сторінки сайту.
Ваша Катерина Турбіна #imturbinababy
SEO-оптимізація сайту, це комплекс дій
спеціаліста спрямований на покращення видачі сайту по ключовим словам в ТОП
пошуку певної пошукової системи. SEO-оптимізація сайту це не одноразовий
процес, адже сайт не стоїть на місці і постійно розвивається, доповнюється
товарами, послугами, статтями, фото та іншим. Тому важливою роботою
оптимізатора є відслідковування якості цих нових сторінок та головне їх
правильна поява в індексі.
В руках сошника є різні інструменти для того,
щоб заблокувати технічні сторінки, це 301 Redirect, блокування у
файлі robots.txt, перенаправлення на 404.html, meta name="robots"
content="noindex, nofollow" та ін.
Розглянемо одну із ситуацій, з якою я нещодавно
стикнулась, та як ці «неякісні» сторінки можуть з’являтись.
Зокрема я помітила часте виникнення у індексі
сторінок такого типу:
- http://site.com/catalogue/?search=bla-bla
- http://site.com/catalogue/?search=bla-blu
Не дивлячись на заблоковане “?search=” у файлі
robots.txt , індекс продовжував наповнюватись подібними сторінками. OMG! He sees it!
Як виявилось
це SMM-щик створював пости і рекламував товар за назвами колекцій, які можна
було відсортувати лише методом пошуку по сайту.
Таке блокування (у файлі robots.txt) також дозволить не пускати в
індекс будь-які результати пошуку по сайту яке здійснює користувач.
Якщо користувацький пошук таким блокуванням у
файлі robots.txt блокується добре, то пости у соц. мережах це вже небезпечніше,
оскільки:
- по-перше таке посилання множилось по мережі за допомогою share,
- по друге по цим посиланням чимало людей переходять на сайт.
