Специалист отдела качества поиска Google Джон Мюллер поделился описанием того, как алгоритмы поисковика обрабатывают сайты на JavaScript (включая AJAX) и Progressive Web Apps. Публикация включает в себя следующие советы:
- Не пытайтесь обмануть Googlebot, прибегая к помощи клоакинга. Чтобы сделать содержимое сайта доступным для всех пользователей, используйте техники feature detection и progressive enhancement. Остерегайтесь редиректов на страницы, не поддерживающиеся браузером. При необходимости используйте polyfill – скрипты, эмулирующие спецификации HTML5 или CSS3, и позволяющие браузеру правильно отображать контент.
- Для указания канонического URL используйте атрибут rel=canonical (если контент размещен на нескольких URL-ах).
- Не используйте устаревшую схему сканирования AJAX на новых сайтах.
- Избегайте использования «#» в URL-ах, так как Googlebot редко индексирует такие адреса.
- Используйте Сканер Google для сайтов в Search Console для проверки того, как Googlebot видит страницы.
- Удостоверьтесь, что все запрашиваемые ресурсы не закрыты от индексации в файле robots.txt. Сканер Google для сайтов покажет заблокированные ресурсы.
- Ограничьте количество встроенных ресурсов, запрашиваемых для отображения страницы (число JavaScript-файлов и ответов сервера).
- Google поддерживает использование JavaScript для предоставления тайтлов, метаописаний и метатегов robots, структурированных и других метаданных.
- Не забывайте, что другие поисковые системы могут не поддерживать JavaScript или использовать другие подходы при индексации таких страниц.
Джон Мюллер также отметил, что ни одна из вышеперечисленных рекомендаций не является чем-то новым для специалистов. Однако они останутся актуальными в обозримом будущем.
Источник: