Валидатор sitemap.xml
Глубокая проверка: статус каждого URL, дубли, редиректы, broken links, скорость ответа, актуальность lastmod. До 100 URL за раз.
Что мы проверяем
Каждый URL — параллельно через HEAD-запрос
Берём список URL из sitemap.xml и делаем по 10 параллельных HEAD-запросов на каждый. Считаем статус (200/3xx/4xx/5xx), время ответа, редиректы. Если сервер не поддерживает HEAD — fallback на GET.
Дубли
Каждый URL должен быть в sitemap ровно один раз. Дубли — частая ошибка автоматических генераторов (Yoast иногда добавляет /page и /page/ как два разных). Дубли вызывают каннибализацию и снижают эффективность crawl budget.
Скорость ответа
Медленные URL = плохой Crawl Budget. Если медианное время >500ms — Googlebot обходит сайт реже. Цель: median < 500ms, p95 < 1000ms.
Lastmod актуальность
lastmod подсказывает поисковику что страница обновилась. Если все lastmod 2020 года — поисковик решает что сайт мёртвый. Цель: важные страницы с lastmod свежее 180 дней.
Что значит Score
- 80–100 — sitemap чистый, ≥95% URL → 200, нет дублей, скорость в норме
- 50–79 — есть мелкие проблемы (несколько 3xx, медленные URL, дубли)
- 0–49 — sitemap нуждается в чистке: много 4xx/5xx, много редиректов
FAQ
Что делать если у меня sitemap-index?
Sitemap-index — это файл, который ссылается на дочерние sitemap-файлы (для крупных сайтов >50k URL). Мы автоматически берём первый дочерний sitemap и проверяем его URL. Для проверки всех дочерних — используйте платные инструменты (ScreamingFrog).
Можно ли проверить sitemap по нестандартному URL?
Да. Введите полный URL — например, https://example.com/sitemap-news.xml или https://example.com/sitemaps/products.xml. Если ввели только домен — мы возьмём /sitemap.xml по умолчанию.
Почему результат отличается от Search Console?
Search Console смотрит свежие данные за длительный период с учётом фильтров canonical, noindex, soft-404. Наш чекер делает реальный HTTP-запрос здесь и сейчас. Если страница вернула 200 нам, но Search Console пишет «Canonical: иной URL» — это мета-проблема, не sitemap.
Что делать с 5xx URL в sitemap?
5xx — критическая ошибка сервера. Возможно: сервер падает на этом URL (баг в коде), upstream проксируется некорректно, или сервер перегружен (rate limit). Срочно чините — иначе Googlebot пометит сайт как «нестабильный».
Почему ваш чекер ограничен 100 URL?
Это бесплатный сервис. Полная проверка 50000 URL занимает ~10 минут и нагружает наш сервер. У платных пользователей лимит увеличивается до 1000-10000. Для серьёзного аудита больших сайтов используйте ScreamingFrog или Ahrefs Site Audit.
Связанные инструменты
- robots.txt, sitemap, llms.txt — базовая проверка SEO-файлов
- Анализатор HTTP-заголовков
- Проверка DNS-записей
- Проверка SSL/TLS
- Полный SEO-аудит сайта по 80 параметрам