Узнайте, почему этот статус появляется в Google Search Console, и о том, как от него можно избавиться.
Если вы видите в Google Search Console «Страница обнаружена, но не проиндексирована», то это значит, что Google знает об URL-адресе, но еще не просмотрел и не проиндексировал его.
Это вовсе не означает, что страница никогда не будет проиндексирована. В документации Google говорится, что поисковик может вернуться к ней позже, и сделать это без каких-либо дополнительных усилий с вашей стороны.
Но некоторые факторы могут помешать Google просматривать и индексировать страницу. Среди них:
- Проблемы технического характера, ограничивающие возможности по сканированию.
- Проблемы, связанные непосредственно с самой страницей. Например, ее плохое качество.
Вы можете использовать Google Search Console, чтобы проверить coverageState URL-адресов.
Запрос индексации через Google Search Console
В большинстве случаев запрос на индексацию помогает убрать этот статус. Иногда Google просто медленно сканирует новые адреса – такое тоже имеет место быть. Но порой виновниками становятся куда более глубокие и комплексные ситуации.
После запроса на индексацию может произойти одно из двух:
- Страница получит статус «Просканирована, но не проиндексирована».
- Страница будет «временно» проиндексирована.
И то, и другое – это следствия, а не причины.
Второе, например, происходит потому, что запрос на индексацию иногда может поднять URL немного выше, но это не должно вас обнадеживать. Это временно.
Вопрос качества страницы
Это достаточно сложная тема, и здесь можно легко запутаться в определениях. Меня часто спрашивали: «А как Google вообще определяет качество той или иной страницы, если она еще не была проиндексирована?».
Проблема в том, что Google этого не делает. Поисковая машина лишь выдвигает предположения о качестве страницы, основываясь на других адресах этого домена. В анализе он опирается на шаблоны и общую архитектуру сайта.
Google может посчитать, что страница недостаточно качественная, поэтому он отложит индексацию на неопределенный срок.
Но почему он вообще может так решить? Дело в том, что он, возможно, наткнется на объективно плохие страницы в интернете, но эти адреса покажутся ему похожими на ваши. Например, в плане архитектуры.
На этом причины не заканчиваются. Google также может отложить индексацию если:
- Контент будет низкого качества – сгенерирован при помощи ИИ или сервисов для автоматического рерайта.
- Контент на странице будет 100% плагиатом.
Работа над улучшением качества контента может возродить интерес Google к сайту, чтобы он пересмотрел контент на нем.
Вы также можете отказаться от индексации других страниц своего сайта, которые не отличаются особым качеством, чтобы улучшить соотношение плохих и хороших адресов.
Краулинговый бюджет и его эффективное распределение
Краулинговый бюджет часто понимается в SEO неправильно.
Дело в том, что абсолютному большинству сайтов даже не нужно беспокоиться о нем. Так, Гэри Иллис из Google официально заявлял, что 90% сайтов не нужно думать о краулинговом бюджете. Над его распределением, пожалуй, должны ломать голову лишь крупные компании. Но, с другой стороны, эффективность сканирования влияет на любые сайты. Если не уделять процессу должного внимания, это может привести к проблемам с тем, что Google не будет видеть сайт достойным.
Обычно Google откладывает индексацию если:
- Вы дублируете URL-адреса.
- Вы неправильно пользуетесь косой чертой.
- Ваш сайт доступен и по HTTP, и по HTTPS.
- Ваше сайт работает с нескольких поддоменов (например, https://website.com и https://www.website.com).
Если есть что-то из вышеперечисленного, то вы расходуете бюджет Google на дополнительное сканирование ненужных URL-адресов и запросов. Учитывая, что боты просматривают сайты «заходами», все это может привести к тому, что они не смогут обнаружить новые адреса так быстро, как вам этого хотелось бы.
Поэтому вы должны следить за тем, чтобы:
- Страницы размещались на одном поддомене.
- Одновременно был только один протокол HTTP.
- Нужные URL канонизировались.
- Внутренние ссылки не перенаправляли без явной на то необходимости.
Если на вашем сайте есть, например, возможность отфильтровать товары, вы можете ограничить ботам сканирование этих путей, внеся пару правок в robots.txt.
Ваш сервер также может играть важную роль в том, когда и как Google будет сканировать сайт. Если он часто бывает перегружен, или отвечает на запросы слишком медленно, то у ботов возникнут проблемы с исследованием – они не смогут получить доступ, в результате чего часть контента не будет просмотрена.
Google, вероятно, вернется еще раз для повторной индексации, но вы потеряете драгоценное время.
Внутренняя перелинковка
Для практически каждого сайта важно иметь внутренние ссылки, которые будут вести с одной страницы на другую.
Google обычно уделяет меньше внимания URL-адресам, у которых нет внутренних ссылок, или у которых их недостаточно. Может быть и такое, что Google вовсе откажется их индексировать.
Вы можете проверить количество внутренних ссылок с помощью утилит по типу Screaming Frog и Sitebulb.
Организованная и логичная структура с органичными внутренними ссылками — это, пожалуй, лучший способ оптимизации сайта. Но если у вас с этим возникли проблемы, убедитесь, что перелинковка была реализована грамотно. Это можно сделать с помощью sitemaps-файлов.
Кроме того, если на вашем сайте много URL-адресов, целесообразно создать такую цепочку перелинковок, чтобы они все были связаны между собой.
Внутренние ссылки также должны использовать тег <a>, а не полагаться на скрипы Java по типу onClick.
Если вы используете фреймворк Jamstack или Java, узнайте, как они обрабатывают внутренние ссылки. Все должно быть в виде тегов.
Источник: https://searchengineland.com/understanding-resolving-discovered-currently-not-indexed-392659