Валидатор sitemap.xml

Глубокая проверка: статус каждого URL, дубли, редиректы, broken links, скорость ответа, актуальность lastmod. До 100 URL за раз.

Что мы проверяем

Каждый URL — параллельно через HEAD-запрос

Берём список URL из sitemap.xml и делаем по 10 параллельных HEAD-запросов на каждый. Считаем статус (200/3xx/4xx/5xx), время ответа, редиректы. Если сервер не поддерживает HEAD — fallback на GET.

Дубли

Каждый URL должен быть в sitemap ровно один раз. Дубли — частая ошибка автоматических генераторов (Yoast иногда добавляет /page и /page/ как два разных). Дубли вызывают каннибализацию и снижают эффективность crawl budget.

Скорость ответа

Медленные URL = плохой Crawl Budget. Если медианное время >500ms — Googlebot обходит сайт реже. Цель: median < 500ms, p95 < 1000ms.

Lastmod актуальность

lastmod подсказывает поисковику что страница обновилась. Если все lastmod 2020 года — поисковик решает что сайт мёртвый. Цель: важные страницы с lastmod свежее 180 дней.

Что значит Score

  • 80–100 — sitemap чистый, ≥95% URL → 200, нет дублей, скорость в норме
  • 50–79 — есть мелкие проблемы (несколько 3xx, медленные URL, дубли)
  • 0–49 — sitemap нуждается в чистке: много 4xx/5xx, много редиректов

FAQ

Что делать если у меня sitemap-index?

Sitemap-index — это файл, который ссылается на дочерние sitemap-файлы (для крупных сайтов >50k URL). Мы автоматически берём первый дочерний sitemap и проверяем его URL. Для проверки всех дочерних — используйте платные инструменты (ScreamingFrog).

Можно ли проверить sitemap по нестандартному URL?

Да. Введите полный URL — например, https://example.com/sitemap-news.xml или https://example.com/sitemaps/products.xml. Если ввели только домен — мы возьмём /sitemap.xml по умолчанию.

Почему результат отличается от Search Console?

Search Console смотрит свежие данные за длительный период с учётом фильтров canonical, noindex, soft-404. Наш чекер делает реальный HTTP-запрос здесь и сейчас. Если страница вернула 200 нам, но Search Console пишет «Canonical: иной URL» — это мета-проблема, не sitemap.

Что делать с 5xx URL в sitemap?

5xx — критическая ошибка сервера. Возможно: сервер падает на этом URL (баг в коде), upstream проксируется некорректно, или сервер перегружен (rate limit). Срочно чините — иначе Googlebot пометит сайт как «нестабильный».

Почему ваш чекер ограничен 100 URL?

Это бесплатный сервис. Полная проверка 50000 URL занимает ~10 минут и нагружает наш сервер. У платных пользователей лимит увеличивается до 1000-10000. Для серьёзного аудита больших сайтов используйте ScreamingFrog или Ahrefs Site Audit.

Связанные инструменты