Почему GOOGLE индексирует ограниченные веб-страницы

Почему Google индексирует ограниченные веб-страницы

Почему Google индексирует ограниченные веб-страницы

Blog Article



Джон Мюллер из Google объяснил, почему Google индексирует ограниченные страницы, также почему отчеты Search Console, связанные с этим, можно безопасно пропускать.

Джон Мюллер из Google разъяснил на вопрос о том, почему Google индексирует страницы, которые запрещены для выполнения обхода с помощью файла robots.txt, и почему можно игнорировать соответствующие отчеты Search Console об этих обходах.

Трафик ботов к URL-адресам с параметрами запроса

Человек, задающий вопрос, задокументировал, что боты создают ссылки на несуществующие URL-адреса с параметрами запросов (?q=xyz) на страницы с мета-тегами noindex, которые также блокированы в robots.txt. Вопрос был вызван тем, что Google обходит эти ссылки на страницы, блокируется в robots.txt (не замечая мета-тег noindex), а затем указывает об этом в Google Search Console как "Индексируется, хотя заблокировано robots.txt."

Человек спросил следующий вопрос:

"Но вот главный вопрос: почему Google индексирует страницы, когда он не может просмотреть содержимое? В чем тут выгода?"

Джон Мюллер из Google подтвердил, что если они не могут обойти страницу, они не могут увидеть мета-тег noindex. Он также сослался на оператор site:search, посоветовав пропускать результаты, потому что "средние" пользователи не видят их.

Он написал:

"Да, вы правы: если мы не можем просканировать страницу, мы не можем увидеть noindex. Тем не менее, если мы не можем просматривать страницы, для нас там мало что можно индексировать. Так что, хотя вы можете увидеть некоторые из этих страниц с помощью целевого запроса site:, средний пользователь их не увидит, поэтому я бы не беспокоился. Noindex также работает (без запрета в robots.txt), это просто означает, что URL-адреса будут сканироваться (и попадут в отчет Search Console как 'обойдены/не индексируются' — ни один из этих статусов не создает проблем для остальной части сайта). Важно, чтобы вы не делали их доступными для обхода и индексации."

Связанный: Google рекомендует сайтам использовать файл robots.txt для блокировки URL-адресов действий.

Выводы:

1. Ответ Мюллера подтверждает ограничения использования оператора Site:search для диагностических целей. Одной из причин является то, что он не связан с обычным поисковым индексом, это совсем отдельная вещь.

Джон Мюллер из Google прокомментировал оператор site search в 2021 году:

"Короткий ответ заключается в том, что запрос site: не предназначен для исчерпывающего отображения, а также для диагностических целей.

Запрос site: — это определенный вид поиска, который ограничивает результаты определенным веб-сайтом. Это, по сути, просто слово "site", двоеточие и затем домен веб-сайта.

Этот запрос сужает результаты специфическим веб-сайтом. Он не предназначен для того, чтобы быть исчерпывающей коллекцией всех страниц этого сайта."

Оператор site не отображает индекс поиска Google, что приводит к тому, что его ненадежным для осмысления того, какие страницы Google уже проиндексировал или нет. Как и другие операторы улучшенного поиска Google, они ненадежны как инструменты для выяснения любых вопросов, связанных с тем, как Google распределяет или индексирует контент.

2. Мета-тег noindex без применения robots.txt подходит для таких ситуаций, когда бот составляет ссылки на виртуальные страницы, которые выявляются Googlebot.

Мета-тег noindex на страницах, которые не блокируются в robots.txt, разрешает Google просканировать страницу и прочитать директиву noindex, гарантируя, что страница не появится в поисковом индексе, что желательно, если цель состоит в том, чтобы не позволить страницу в поисковый индекс Google.

3. URL-адреса с мета-тегом noindex породят в Search Console запись "обойдены/не индексируются", что не вызовет негативного эффекта на остальную часть веб-сайта.

Эти записи в Search Console, в контексте страниц, которые целенаправленно заблокированы, лишь указывают на то, что Google просканировал страницу, но не включил в индекс. По сути говоря, что это случилось, а не то, что (в этом конкретном контексте) есть что-то, что нужно исправить. Эта запись полезна для оповещения издателей о страницах, которые непреднамеренно заблокированы мета-тегом noindex или по какой-либо другой причине, мешающей индексации страницы. Тогда это стоит изучить.

Report this page