1. Индексация и robots.txt
Первое что нужно проверить — правильно ли поисковые роботы видят и индексируют ваш сайт. Ошибки в robots.txt могут заблокировать весь сайт от индексации.
- Файл robots.txt существует и доступен по адресу /robots.txt
- В robots.txt нет случайного запрета на индексацию Disallow: /
- Файл sitemap.xml указан в robots.txt
- Закрытые служебные страницы (корзина, личный кабинет) заблокированы
- Sitemap.xml существует и содержит все важные страницы
- Sitemap обновляется автоматически при добавлении новых страниц
- В Яндекс Вебмастер и Google Search Console нет ошибок индексации
Частая ошибка: при разработке сайт закрывают от индексации строкой Disallow: /, а после запуска забывают убрать. Робот не может попасть на сайт — трафика нет.
2. HTTPS и безопасность
С 2019 года HTTPS — обязательный фактор ранжирования. Сайт без SSL-сертификата помечается браузером как "небезопасный" и теряет доверие пользователей и поисковиков.
- SSL-сертификат установлен и действующий
- Сайт доступен только по HTTPS, HTTP редиректит на HTTPS
- В ресурсах страниц нет смешанного контента (http:// в img, script)
- Сертификат не истекает в ближайшие 30 дней
- www и без www перенаправляют на одну версию
3. Скорость и Core Web Vitals
Google с 2021 года использует Core Web Vitals как фактор ранжирования. Медленный сайт теряет позиции независимо от качества контента.
- LCP (загрузка главного контента) менее 2.5 секунд
- CLS (сдвиг макета) менее 0.1
- FID (задержка ввода) менее 100 мс
- Изображения оптимизированы (WebP, сжатие)
- Включено кэширование браузера
- CSS и JavaScript минифицированы
- Нет блокирующих рендеринг ресурсов в <head>
- Включено GZIP/Brotli сжатие на сервере
4. Мобильная версия
Google использует mobile-first индексацию — робот сначала смотрит мобильную версию. Если она плохая, сайт теряет позиции даже если десктопная версия идеальна.
- Тег viewport присутствует в <head>
- Сайт адаптирован под экраны от 320px
- Шрифт не меньше 16px на мобильных
- Кнопки и ссылки достаточного размера для нажатия пальцем (44x44px)
- Горизонтальная прокрутка отсутствует
- Скорость загрузки на мобильных приемлема
5. Дубли и редиректы
Дублированный контент — одна из самых частых технических проблем. Поисковик не знает какую версию страницы показывать и "размывает" вес между дублями.
- На каждой странице есть canonical тег
- Нет страниц с одинаковым контентом по разным URL
- Страницы пагинации правильно обработаны
- Нет 301/302 цепочек редиректов (редирект → редирект)
- Удалённые страницы отдают 404, а не 200
- URL с параметрами (utm, sort) закрыты в robots.txt или canonical
6. Структура URL
Читаемые и логичные URL помогают и пользователям и поисковикам понять о чём страница.
- URL содержат ключевые слова на латинице или транслите
- Нет URL длиннее 100 символов
- Нет заглавных букв в URL
- Используются дефисы, а не подчёркивания
- Структура URL отражает иерархию сайта
Как быстро проверить всё сразу
Проходить по этому чек-листу вручную занимает 3-4 часа. Автоматический SEO аудит сайта через Audit4SEO проверяет все ключевые технические параметры за 30 секунд.
Результат — понятный отчёт с баллом от 0 до 100 и конкретными рекомендациями по каждому блоку. Вы сразу видите что критично исправить в первую очередь.
Проверьте свой сайт по этому чек-листу
Запустите бесплатный SEO-аудит — все ключевые параметры за 30 секунд. Без регистрации, с готовым планом исправлений.