Джон Мюллер поделился рекомендациями по индексации сайтов на JavaScript | Новости рынка SEO: 09 Марта 2016

Без рубрики

Специалист отдела качества поиска Google Джон Мюллер поделился описанием того, как алгоритмы поисковика обрабатывают сайты на JavaScript (включая AJAX) и Progressive Web Apps. Публикация включает в себя следующие советы:

  • Не пытайтесь обмануть Googlebot, прибегая к помощи клоакинга. Чтобы сделать содержимое сайта доступным для всех пользователей, используйте техники feature detection и progressive enhancement. Остерегайтесь редиректов на страницы, не поддерживающиеся браузером. При необходимости используйте polyfill – скрипты, эмулирующие спецификации HTML5 или CSS3, и позволяющие браузеру правильно отображать контент.
  • Для указания канонического URL используйте атрибут rel=canonical (если контент размещен на нескольких URL-ах).
  • Не используйте устаревшую схему сканирования AJAX на новых сайтах.
  • Избегайте использования «#» в URL-ах, так как Googlebot редко индексирует такие адреса.
  • Используйте Сканер Google для сайтов в Search Console для проверки того, как Googlebot видит страницы.
  • Удостоверьтесь, что все запрашиваемые ресурсы не закрыты от индексации в файле robots.txt. Сканер Google для сайтов покажет заблокированные ресурсы.
  • Ограничьте количество встроенных ресурсов, запрашиваемых для отображения страницы (число JavaScript-файлов и ответов сервера).
  • Google поддерживает использование JavaScript для предоставления тайтлов, метаописаний и метатегов robots, структурированных и других метаданных.
  • Не забывайте, что другие поисковые системы могут не поддерживать JavaScript или использовать другие подходы при индексации таких страниц.

Джон Мюллер также отметил, что ни одна из вышеперечисленных рекомендаций не является чем-то новым для специалистов. Однако они останутся актуальными в обозримом будущем.

Источник: Search Engine Roundtable

.