Google рассказал, как работать с javascript
Джон Мюллер, сотрудник отдела Google качества поиска, подробно рассказал вебмастерам об особенностях работы с javascript-содержимым сайтов и отношении роботов к Progressive Web Apps. Также специалист уточнил, что обмануть Google Bot клоакингом будет чрезвычайно сложно – все может закончиться попаданием под спам-фильтры.
При работе с javascript-содержимым вебмастерам необходимо помнить, что весь контент должен быть доступен всем пользователям. Если какой-то контент по техническим причинам окажется недоступным (к примеру, из-за не обновившегося у пользователя браузера), он вовсе не должен попадать в индекс – все равно ценности в нем нет. При необходимости рекомендуется использовать полифиллы для эмуляции уникальных возможностей HTML5 и CSS3.
От старой схемы работы с AJAX вебмастерам следует отказаться, удалив «meta fragment» из HTML-копий таких страниц. Этот тег также запрещен к использованию на страницах с тегом «escaped fragment».
В URL не следует использовать нестандартные символы вроде "#". Их предпочтительнее заменить обычным слешем, для корректного распознавания полной ссылки.
Также Джон Мюллер рекомендует провести ревизию подключаемых к странице файлов и ресурсов, включая JS. По достижению некоторого времени загрузки браузер отображает имеющиеся данные, не дожидаясь других частей. Уменьшение объема подключаемых файлов поможет сохранить целостность страницы и ускорить загрузку.
Новости по теме:
Как коронавирус повлиял на поведение пользователей в интернете
Джон Мюллер пояснил, что такое качественный контент
Названы 3 типа сайтов, которым нужен Sitemap
Для добавления комментария надо зарегистрироваться и авторизоваться.
Добавить комментарий можно после авторизации через Loginza.