В этом году Google обновил свой поисковый движок в техническом плане и индексатор обрабатывает веб-страницы практически как обычный современный браузер, где включены JavaScript и CSS. Сегодя Google обновил свои рекомендации для вебмастеров в свете упомянутой функции.
Теперь для оптимальной индексации и обработки страниц Google рекомендует не скрывать используемые на сайте внешние файлы изображений, JavaScript и CSS в robots.txt, а давать гуглботу полный к ним доступ. Закрытие этих файлов может привести к неверному распознаванию страниц и повлиять на ранжирование.
Исторически, система индексации Google была построена по аналогии с текстовыми браузерами типа Lynx, поэтому важно было лишь наличие и доступность текста на странице. Но сейчас эта система работает аналогично другим браузерам, поэтому нужно обратить внимание на следующие моменты:
— Как и все современные браузеры, поисковый робот может не поддерживать какие-то из используемых на страницах технологий. Стоит убедиться, что дизайн сайта следует принципам прогрессивного улучшения, это поможет гуглу видеть полезный контент и основной функционал, когда некоторые из особенностей дизайна пока не поддерживаются.
— Быстрая загрузка страниц нравится не только пользователям, но также позволяет более эффективно индексировать документы поисковой системой. Google рекомендует удалить ненужные запросы/загрузки и оптимизировать сами CSS и JavaScript файлы.
— Убедитесь, что сервер нормально воспримет дополнительную загрузку хранимых скриптов и стилей гуглботом.
В панели для вебмастеров (инструмент “Просмотреть как Googlebot”) можно видеть, как поисковик обрабатывает те или иные страницы, там же можно обнаружить некоторые особенности индексации, например, закрытые в robots.txt файлы, редиректы (по которым Googlebot не ходит) и другие
Автор:
-=(C)DRU987=-
(Dev) / 13 Ноября 2015 в 16:37 / Просмотров: 664