Вы здесь:
Не блокируйте URL c параметрами в файле robots.txt

Автор (Прочитано 190 раз)

 

Lizzza

  • Новичок
  • *
  • 15
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
Сотрудник команды Google Джон Мюллер порекомендовал SEO-специалистам не блокировать URL с параметрами в файле robots.txt. Он сказал, что если вы используете такой метод блокировки, то робот Google не способен каноникализировать страницы, в результате чего теряется их ценность для ресурса.

Так ли опасны URL c параметрами для SEO-продвижения
GET-параметры представляют собой часть адреса, которая идет после знака «?». Они используются для отслеживания источника перехода, для фильтрации в карточках интернет-магазинов, для изменения порядка отображения карточек, при поиске по сайту и в других случаях. 

Большинство специалистов блокируют параметры в URL-адресах через robots.txt, поскольку опасаются таких проблем:
•   Появление дублированного контента. Для роботов поисковых систем каждая страница с дополнительным значением параметра является новой. Хотя по факту содержимое может измениться незначительно. Например, если пользователь изменил порядок отображения товаров по цене. Поисковик воспримет это как дубль.
•   Лишний расход краулингового бюджета. Каждое новое значение создает новый URL-адрес, которую необходимо просканировать. Так как число запросов робота к ресурсу в день ограничено, оптимизаторы не хотят тратить бюджет на лишние страницы.
•   Снижение CTR. Параметры в URL делают ссылку малопривлекательной. Пользователь вряд ли кликнет на нее.

Самым простым решением является использование атрибута rel=canonical. Так вы сообщаете поисковому роботу, что есть основной раздел, и другие с GET-параметрами относятся к нему. Таким образом, значения, появляющиеся в строке браузера не отразятся на SEO.

 

 

Vlad

  • Новичок
  • *
  • 16
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
Начитался много противоречивой информации о правильности составления урлов и их значимости. То есть кривые ссылки с атрибутами поисковикам не нравятся, но как  ними бороться? Какая разница для бота, если он всё равно обходит все страницы и сканирует размещенный на них контент?
Стоит ли вообще париться с этими параметрами для SEO?
 

 

Стасян

  • Новичок
  • *
  • 13
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
По моему опыту, для SEO это не играет роли. А вот для пользователя да, если у вас на сайте размещены ЧПУ ссылки, ориентироваться по ним куда проще, в выдаче сайт выглядит привлекательнее, чем домен с какой-то абракадаброй)) От этого улучшаются поведенческие, соответственно, и сайт растет. Можно посмотреть на это с такой позиции.
 

 

SEOdino

  • Новичок
  • *
  • 10
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
Это влияет на SEO. Главное в данном случае, чтобы у вас был ЧПУ – это полезно не для роботов а для пользователей. А также важно, чтобы не было возможности попасть на одну и ту же страницу, прописав разные параметры в одном и том же адресе, т.е. чтобы не было дублей и чтобы не генерились новые страницы, если добавляется новый параметр в урле. Надеюсь, понятно объяснил.
 

 

Nice

  • Новичок
  • *
  • 11
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
Конечно, стоит заморочиться. А еще добавление ключевого слова в урл точно влияет на его ранжирование. Не раз встречала сайты конкурентов в выдаче с меньшей ссылочной, но на позициях в топе. Вот и делайте выводы.
Я бы добавила ко всем комментариям выше, что слово в ЧПУ урле имеет большее значение и высокий вес для поисковой системы. И только после идут title, description и проч.
-Наличие ключа в урле поможет странице продвинутся в топ – это факт.
-ЧПУ также помогает оформить структуру сайта, которая будет понятна роботу (соответственно, лучшее отображение в выдаче, грамотное распределение веса страницам сайта по заданным ЧПУ вам обеспечены).