Джон Мюллер из Google: ответы на 4 вопроса по SEO
Джон Мюллер из Google отвечает на четыре быстрых вопроса об общих технических проблемах SEO, с которыми почти каждый сталкивается в тот или иной момент.
Мюллер отвечает на вопросы людей, связанных с:
- Блокировка файлов CSS
- Обновление файлов Sitemap
- Повторная загрузка сайта в Интернет
- Сканирующий бюджет робота Googlebot
Ответы на эти вопросы содержатся в последней серии видеороликов «Спросите Googlebot» на YouTube.
Традиционно в этих видеороликах основное внимание уделяется ответу на один конкретный вопрос с максимально подробной информацией, которую может предоставить Google.
Однако не на каждый вопрос о SEO требуется целое видео, чтобы ответить. На некоторые можно ответить одним или двумя предложениями.
Вот несколько быстрых ответов на вопросы, которые часто задают люди, только начинающие заниматься SEO.
Может ли блокировка файлов CSS в файле robots.txt повлиять на рейтинг?
Да, блокировка CSS может вызвать проблемы, и Мюллер говорит, что вам следует избегать этого.
Когда CSS заблокирован в файле robots.txt, робот Googlebot не может отображать страницу так, как ее увидят посетители.
Возможность полностью увидеть страницу помогает Google лучше понять ее и подтвердить, что она удобна для мобильных устройств.
Все это способствует ранжированию веб-страницы в результатах поиска.
Как мне обновить карту сайта для моего сайта?
По словам Мюллера, не существует простого простого решения для обновления карт сайта, которое работало бы на всех веб-сайтах.
Однако большинство настроек веб-сайтов имеют собственные встроенные решения.
Обратитесь к справочным руководствам вашего сайта, чтобы узнать о настройках карты сайта или о совместимом плагине, который создает файлы карты сайта.
Обычно нужно просто включить настройку, и все готово.
Скромный сеошник: Я не знал что в 2021 году у кого-то еще может возникать подобный вопрос. Как понятно из вопроса, то человек новичок в сайтостроении и таким людям можно сказать следующее.
Скорее всего, Вы будете использовать готовые решения по типу WordPress, DLE, Hooomla, OpenCart - которые простые в изучении и имеют довольно большой набор разных дополнений в интернете. Во всех этих CMS уже вшит автообновляемый и автогенерируемый sitemap.xml.
Каков правильный способ повторно представить сайт в Google?
Невозможно сбросить индексирование веб-сайта, удалив его файлы и повторно загрузив их.
Google автоматически сосредоточится на новейшей версии сайта и со временем откажется от старой.
Вы можете ускорить этот процесс, используя перенаправления с любых старых URL-адресов на новые.
Скромный сеошник: Скорее всего речь о переиндексации сайта или страницы идет и тут можно посоветовать:
- Вручную добавлять сайт на переиндексацию через Search Console;
- Подключить API Search Console;
- Bot Webmaster в Telegram;
- Нарастить на нужные страницы ссылки с социальных сетей.
Это то, что поможет быстро и без усилий ускорить процесс переиндексации. Остальные варианты - долгие и более сложные.
Улучшит ли удаление RSS-каналов сканирование роботом Googlebot?
Человек пишет Мюллеру, что 25% бюджета сканирования Googlebot уходит на URL-адреса RSS-каналов, которые находятся в заголовке каждой страницы.
Они спрашивают, улучшит ли сканирование удаление RSS-каналов.
Мюллер говорит, что с RSS-потоками проблем нет, и системы Google автоматически балансируют сканирование веб-сайта.
Иногда это приводит к тому, что Google сканирует определенные страницы чаще, но страницы будут сканироваться повторно только после того, как робот Googlebot хотя бы раз просмотрел все важные страницы.