Вы здесь:
Ранжирование новых сайтов: какие факторы влияют на позиции

Автор (Прочитано 485 раз)

 

Nice

  • Новичок
  • *
  • 11
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
В рамках последней видеовстречи Джон Мюллер дал ответы на вопросы вебмастеров относительно порядка ранжирования молодых веб-ресурсов.
Джону задали вопрос: способны ли эти веб-сайты выйти на топовые позиции в выдаче поисковой системы исключительно благодаря качественному контенту? Или же для высоких позиций необходимо подождать определенное время, и последнее будет являться решающим фактором?

Как Google проводит оценку сайтов
Вопрос вебмастера возник в том числе в результате последнего обновления поискового алгоритма BERT, согласно которому контенту будет уделяться еще больше внимания. Плюс ко всему, Google постоянно сообщает о своем намерении поощрять релевантный экспертный контент. В связи с этим возникает вопрос, может ли площадка, существующая не более двух недель, занять лидирующие места в органической выдаче, лишь благодаря экспертной статье? Если же нет, то, получается, время по-прежнему является решающим фактором, а, значит, Google противоречит сам себе.

В ответ на это Мюллер сказал, что алгоритмы нельзя ограничить двумя параметрами – временем и контентом. В отношении недавно появившихся веб-сайтов Google более скрупулёзен и проводит более детальную предварительную оценку.
В некоторых случаях недавно проиндексированный ресурс может занять высокие места в выдаче, хотя на самом деле не будет их заслуживать. С течением времени роботы продолжают индексацию, собираются аналитические данные, система получает более детальные данные, сигналы, и стабилизирует позиции ресурса. Так что, иногда система действительно может завышать и неправильно толковать полученные сигналы с недавно появившейся в индексе площадки.

Можно сделать несколько выводов относительно ранжирования новых сайтов:
•   Из-за того, что у подобных веб-сайтов отсутствуют какие-либо сигналы, кроме on-page, то скорее всего именно они и будут учитываться для оценки.
•   Со слов Джона Мюллера, ранжирование новых сайтов не определяется временем. Тем более компания многократно опровергала мнение о существовании так называемой «песочницы», когда недавно появившиеся веб-сайты подмешиваются на первые места результатов поиска.
•   Влияние оказывают большое количество алгоритмов, кроме контента и времени.

Замечали тенденцию, что ранжирование новых сайтов изначально приводит к более топовым местам?

 

 

Vika

  • Новичок
  • *
  • 11
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
А у меня вот такой вопрос: если ввожу в поиске Гугла site:сайт.ru/& то вижу количество страниц, которые занесены в индекс. Если пролистать до последней страницы выдачи, будет надпись, которая сообщает, что часть результатов скрыта, т.к. "они очень похожи на уже представленные выше". Получается, там спрятаны все страницы, которые Гугл посчитал неподходящими и понизил? Может ли это быть технической ошибкой? Информации в официальной справке не нашла, на форуме подобных тем тоже нет..
 

 

Magistr

  • Новичок
  • *
  • 16
    Сообщений
  • Карма: +0/-0
  • seotoker
    • Просмотр профиля
А у меня вот такой вопрос: если ввожу в поиске Гугла site:сайт.ru/& то вижу количество страниц, которые занесены в индекс. Если пролистать до последней страницы выдачи, будет надпись, которая сообщает, что часть результатов скрыта, т.к. "они очень похожи на уже представленные выше". Получается, там спрятаны все страницы, которые Гугл посчитал неподходящими и понизил? Может ли это быть технической ошибкой? Информации в официальной справке не нашла, на форуме подобных тем тоже нет..

Слушайте, где вы сейчас находите информацию про /&-запросы?)) Не тратьте на них время. Вы еще в песочницу гугла поверьте! Изучите, что за страницы у вас попали в скрытые, может, контент подкачал или дублируется. Думаю, при более точном анализе выясните причину