Техническое SEO — фундамент, на котором держатся все усилия по продвижению. Можно создать идеальный контент и получить мощные внешние ссылки, но если сайт медленный, индексируется плохо и полон ошибок — результата не будет.
В 2025 году требования поисковиков стали ещё жёстче. Стали чаще учитывать пользовательский опыт, мобильную оптимизацию, безопасность и архитектуру сайта. Поэтому технический аудит и настройка SEO — не опция, а необходимость.
SEO гайд — не просто чеклист, а пошаговое руководство, где узнаете:
- что именно проверять в техническом SEO;
- какие инструменты использовать;
- как интерпретировать результаты и устранить проблемы;
- какие ошибки делают даже опытные оптимизаторы.
✅ 1. Скорость загрузки сайта и Core Web Vitals: что мешает сайту быть быстрым и как это исправить
📌 Почему это важно
Скорость сайта — один из ключевых факторов ранжирования в Google и Яндекс, особенно с внедрением Core Web Vitals. Но даже если забыть о SEO, представьте поведение реального пользователя:
💬 «Открыл сайт — ждёт, крутится загрузка… Ну его, пошёл к конкуренту».
Такая реакция — не редкость. По статистике, более 50% пользователей уходят, если страница загружается дольше 3 секунд. А с каждым дополнительным секундным ожиданием — конверсия может падать на 20-30%.
Вот почему ускорение загрузки — одновременно SEO и забота о бизнесе.
🔍 Что нужно проверять: Core Web Vitals
Google оценивает скорость и «качество» загрузки сайта по трём метрикам:
| Метрика | Идеальное значение | Что измеряет | Пример |
|---|---|---|---|
| LCP (Largest Contentful Paint) | ≤ 2.5 сек | Когда загружается главный визуальный элемент страницы | Например, заглавное фото статьи или блок с товаром |
| FID (First Input Delay) | ≤ 100 мс | Насколько быстро сайт реагирует на клик или касание | Пользователь нажимает на меню — сайт должен ответить моментально |
| CLS (Cumulative Layout Shift) | < 0.1 | Насколько «прыгает» интерфейс при загрузке | Если текст уезжает вниз из-за поздно загруженной рекламы — это плохо |
🛠️ Как это проверить
- PageSpeed Insights
Вставьте URL — получите анализ по всем метрикам, советы, полевые данные с реальных устройств. - Lighthouse
Встроен в Chrome DevTools → вкладка «Аудит». Удобен для анализа в режиме разработчика. - WebPageTest.org
Даёт подробные данные: сколько грузится каждый элемент, откуда идут задержки. - GTmetrix
Хорошо показывает waterfall-график (очередь загрузки элементов).
⚠️ Типичные причины медленной загрузки:
- 📷 Не сжатые изображения: фотографии на сайте по 3–5 МБ
→ Пример: баннер в PNG весит 4 МБ. Замените его на WebP весом 200 КБ. - 🧱 Ненужный JavaScript: подключены скрипты, которыми никто не пользуется
→ Пример: сайт использует только 1 слайдер, но подключает 10 JS-библиотек. - 🛑 Отсутствие кэширования: каждый визит — загрузка с нуля
→ Настройте заголовки Cache-Control и используйте плагин кэширования. - 🌀 Нет CDN (Content Delivery Network): сайт отдаёт информацию с одного сервера в Москве, а пользователь в Казахстане
→ Решение: подключить Cloudflare или BunnyCDN, чтобы копии отдавались быстрее по географии.
🔧 Что делать: конкретные советы
- Сожмите изображения
- Используйте TinyPNG, ImageMagick, Squoosh
- Формат WebP или AVIF (современные, лёгкие и качественные)
- Включите Lazy Loading
- Отложенная загрузка изображений и видео, которые не видны сразу
- В HTML:
<img loading="lazy">
- Минифицируйте CSS и JS
- Сократите пробелы, комментарии, объём файлов
- Инструменты: UglifyJS, CSSNano, плагин Autoptimize (WordPress)
- Удалите ненужные скрипты
- Проверьте, какие библиотеки реально используются
- В WordPress — отключите Emojis, Gutenberg block styles, jQuery Migrate
- Подключите CDN
- Cloudflare (бесплатно), BunnyCDN (дёшево и быстро), jsDelivr для внешних скриптов
- Настройте кэширование
- В WordPress: WP Super Cache, W3 Total Cache
- Через .htaccess — выставьте срок хранения статичных файлов (30 дней и больше)
🔍 Пример до/после:
| Показатель | До оптимизации | После |
|---|---|---|
| PageSpeed (моб.) | 41 | 91 |
| LCP | 4.2 сек | 1.9 сек |
| Размер главной страницы | 4.5 МБ | 1.2 МБ |
| Время полной загрузки | 6.8 сек | 2.1 сек |
📄2. Индексация и статус страниц: как убедиться, что нужные страницы видит поисковая система
📌 Зачем это важно
Если страница не попала в индекс — для поисковика её как будто не существует. Она не будет ранжироваться, не принесёт трафика и не поможет продвигать сайт.
💬 Вы можете иметь отличную статью или карточку товара, но если она не индексируется — всё равно что держать её под замком.
Лишние или технические страницы в индексе (например, фильтры, дубли, параметры URL) могут размывать краул-бюджет, вызывать дублирование и вредить SEO.
🔍 Что нужно проверять
1. robots.txt
Проверь, не закрыты ли нужные страницы от сканирования:
User-agent: *
Disallow: /cart/
Disallow: /admin/
Allow: /
⚠️ Пример ошибки:
Disallow: /
→ сайт полностью закрыт от индексации (да, такое бывает после разработки).
🔧 Инструмент:
https://www.google.com/robots.txt — вставьте путь к своему robots.txt.
2. Мета-тег robots
Каждая страница должна иметь правильную директиву:
<meta name="robots" content="index, follow">
Частая ошибка:
<meta name="robots" content="noindex, nofollow">
→ страница будет исключена из поиска.
3. HTTP-заголовки X-Robots-Tag
Иногда блокировка происходит не через HTML, а через серверный заголовок. Проверьте с помощью https://httpstatus.io/
Пример заголовка, который запрещает индексацию:
X-Robots-Tag: noindex
4. Канонические URL (canonical)
Если у страницы указан каноникал на другой URL — именно он попадёт в индекс:
<link rel="canonical" href="https://site.ru/page-1" />
⚠️ Ошибка: у фильтра или динамической страницы каноникал ведёт на главную
→ Google игнорирует оригинальную страницу.
5. Проверка индексации в Google Search Console
Инструмент №1 для работы с индексом:
- Перейдите в GSC → «Проверка URL»
- Введите нужную страницу → проверьте статус
Варианты статуса:
| Статус | Значение |
|---|---|
| Страница в индексе | Всё хорошо |
| Проиндексирована, но не отправлена в sitemap | Желательно добавить в карту сайта |
| Найдена, но не проиндексирована | Проблема с качеством или малополезный контент |
| Исключена (дубли без канонического URL) | Страница дублирует другую, но без явного каноникала |
6. Sitemap.xml
Убедитесь, что:
- Файл доступен по адресу
https://site.ru/sitemap.xml - Он обновляется
- В нём только нужные страницы (без фильтров, корзин, дублей)
⚠️ Частая ошибка — вручную добавленные sitemap в CMS, которые не синхронизированы с реальным сайтом.
🛠️ Инструменты для проверки:
- Google Search Console
- Ahrefs → Indexability report
- Screaming Frog (в режиме API → GSC + индексный статус)
- URL Inspection Tool в Chrome
- Google site:site.ru/page — проверка через поиск
🧠 Полезный приём: комбинируй данные из разных источников
Например, выгрузка всех URL из Screaming Frog → сравнение с данными индексации из GSC → выявление лишних или потерянных страниц.
🔗3. Структура URL и каноникализация: избавляемся от дублей и хаоса
📌 Почему это важно
Чёткая структура URL помогает:
- пользователям — лучше ориентироваться на сайте;
- поисковикам — быстрее понимать, что это за страница и где она в иерархии;
- SEO — избегать дублей, избыточной индексации и потери веса ссылок.
А если структура запутанная, параметры URL плодят клоны страниц, а каноникал указывает не туда — прямой путь к хаосу.
✅ Правила хорошей структуры URL
✔️ Примеры хороших адресов:
site.ru/katalog/kompressory/maslyanye-modelisite.ru/blog/seo-audit-checklistsite.ru/uslugi/lazernaya-epilyatsiya
➡️ Читаемо, иерархично, без параметров, на латинице или транслите.
❌ Плохие примеры URL:
site.ru/index.php?id=58&cat=12site.ru/page?type=kompressor&filter=oil&sort=descsite.ru/2021/05/post45333
➡️ Такие адреса плохо воспринимаются пользователями, а поисковики видят в них дубликаты.
🔍 Что проверить:
1. Дубли страниц с параметрами
Одна и та же страница может открываться так:
site.ru/tovary/kompressorysite.ru/tovary/kompressory?sort=descsite.ru/tovary/kompressory?page=2
Это разные URL, и если нет каноникала — все они попадают в индекс как уникальные, создавая дубли.
🔧 Проверь через:
- Screaming Frog → «Duplicate content»
- GSC → «Исключена (дубли без канонического URL)»
2. Канонические URL
Каждая страница должна сообщать Google, кто «главный»:
<link rel="canonical" href="https://site.ru/tovary/kompressory" />
⚠️ Ошибки:
- Каноникал на главную вместо себя
- Отсутствие каноникала
- Указан каноникал, которого не существует
📌 Важно: если страница A указывает каноникал на B — значит A не попадёт в индекс.
3. Редиректы и дубли с www / без www, с / без слэша, http / https
Пример дублей:
http://site.ruhttps://site.ruhttps://www.site.ruhttps://site.ru/
Все эти варианты должны редиректить на один канонический URL — например, https://site.ru.
🔧 Проверка:
Проверь вручную или с помощью https://httpstatus.io
Также Screaming Frog покажет цепочки редиректов и несоответствия.
🛠️ Как привести в порядок:
- Используй чпу (человеко-понятные URL) — без параметров, только слова
- Включи каноникал на каждую важную страницу
- Настрой 301-редиректы с дублей на основную версию
- Используй rel=»canonical» + sitemap для Google
- Закрой фильтры и параметры от индексации через
robots.txt,meta robots,nofollow
💡 Фишка:
В Screaming Frog включи «Canonicalisation» + сравнение с Sitemap — увидишь расхождения между тем, что ты считаешь основным, и тем, что отправляется в Google.
🌍 4. Hreflang и мультиязычность: как не попасть в дубль
📌 Почему это важно
Если у вас сайт для нескольких стран или на нескольких языках (например, Россия и Казахстан, русский и английский), Google может посчитать страницы дубликатами. Особенно если контент схож, но меняется только язык или регион.
Чтобы этого избежать, нужен тег hreflang. Он помогает поисковым системам понять:
«Это не дубликат, а версия для другой аудитории».
🔍 Что нужно проверить
1. Есть ли hreflang у всех страниц с альтернативами?
Пример:
<link rel="alternate" hreflang="ru" href="https://site.ru/" />
<link rel="alternate" hreflang="en" href="https://site.com/" />
Так вы говорите: у нас есть две версии — для русской и английской аудитории.
❗ Без этого поисковая система может показать английскую версию пользователю из России — или вовсе не проиндексировать одну из них из-за дубля.
2. Правильно ли оформлены коды языков и регионов?
Правильные примеры:
ru-RU— русский для Россииru-KZ— русский для Казахстанаen-US— английский для СШАfr-CA— французский для Канады
Если написать ru вместо ru-RU, Google может не различать страны.
3. Есть ли самоссылка (self-referencing hreflang)?
Каждая страница должна указывать и на себя, иначе Google может проигнорировать все остальные ссылки.
Пример на странице site.ru:
<link rel="alternate" hreflang="ru" href="https://site.ru/" />
4. Есть ли соответствия между языковыми версиями?
Если у вас на английском 150 страниц, а на русском — 148, нужно:
- либо добавить недостающие,
- либо удалить лишние
hreflang, которые ведут в пустоту.
📌 Проверка:
Через Screaming Frog → «hreflang» + вкладка «Errors»
Также можно использовать Merkle Hreflang Tag Testing Tool
🛠️ Как правильно внедрять hreflang
- В
<head>каждой страницы — указать все версии: ru, en, kz и т. д. - Альтернатива — прописывать
hreflangв HTTP-заголовках (например, для PDF-документов) - Ещё один способ — в Sitemap:
<url>
<loc>https://site.ru/</loc>
<xhtml:link rel="alternate" hreflang="en" href="https://site.com/" />
<xhtml:link rel="alternate" hreflang="ru" href="https://site.ru/" />
</url>
💡 Фишка:
Если сайт для СНГ, не ограничивайся ru-RU. Добавь ru-KZ, ru-BY, ru-UA — это увеличит видимость в локальных результатах.
🤖 5. Robots.txt и Meta Robots
📌 Почему это важно
Если не контролировать, что индексирует поисковый робот, он может:
- захламить индекс техническими страницами (например, фильтрацией, корзиной, личным кабинетом);
- пропустить важные страницы, если они закрыты по ошибке;
- тратить краулинговый бюджет впустую, снижая видимость нужного контента.
Robots.txt и мета-роботы — фильтры, через которые вы говорите поисковику: «Индексируй это, но не трогай то».
🧱 Структура robots.txt
Файл должен располагаться по адресу:https://site.ru/robots.txt
Пример простого файла:
User-agent: *
Disallow: /cart/
Disallow: /login/
Disallow: /search/
Allow: /
Sitemap: https://site.ru/sitemap.xml
Пояснение:
User-agent: *— для всех поисковых роботов.Disallow— запрещает обход указанных директорий.Allow— разрешает индексировать всё остальное.Sitemap— указывает на карту сайта.
⚠️ Частые ошибки в robots.txt
| Ошибка | Почему плохо |
|---|---|
Disallow: / | Полностью блокирует весь сайт. Бывает после релиза разработки. |
Не указан Sitemap | Поисковик может дольше индексировать сайт. |
| Закрыты CSS или JS | Визуальный рендеринг не анализируется поисковиком, и он «не понимает», как выглядит сайт. |
| Одинаковые правила для всех ботов | Иногда стоит делать исключения (например, для Googlebot-Image). |
🔍 Meta Robots: тонкая настройка
Иногда robots.txt недостаточно. Тогда используется мета-тег в <head> страницы:
<meta name="robots" content="noindex, nofollow">
| Атрибут | Значение |
|---|---|
index / noindex | Разрешить или запретить индексацию |
follow / nofollow | Следовать ли по ссылкам на странице |
noarchive | Запретить сохранённую копию в выдаче |
nosnippet | Запретить сниппет в выдаче |
🔧 Как и где применять
- Фильтрация, сортировка, параметры URL →
noindex, follow
Пример:?sort=desc&page=2 - Личный кабинет, корзина →
noindex, nofollow - Дубль контента (печать, PDF) →
noindex
⚠️ Важно: Google всё ещё может краулить страницу, даже если она под noindex.
🛠 Инструменты для проверки
- Google Search Console → раздел «Покрытие» и инструмент «Проверка URL»
- Screaming Frog: вкладка Robots.txt + Meta Robots
- Ahrefs / Sitebulb — видимость закрытых страниц
💡 Совет:
После крупных изменений в robots.txt всегда проверяйте https://site.ru/robots.txt вручную и прогоняйте критичные страницы через GSC (Google Search Console).
🔄 6. Редиректы: как правильно перенаправлять пользователей и поисковики
📌 Почему это важно
Редиректы помогают:
- Перенаправлять пользователей с устаревших URL на актуальные страницы
- Сохранять «вес» ссылок и SEO-показатели
- Избегать ошибок 404 и плохого пользовательского опыта
Неправильные редиректы могут привести к потере трафика и ухудшению позиций.
🔍 Основные виды редиректов
| Тип редиректа | Что делает | Когда использовать |
|---|---|---|
| 301 (Permanent Redirect) | Постоянное перенаправление | При смене URL или удалении страницы |
| 302 (Temporary Redirect) | Временное перенаправление | Для временных акций или тестов |
| Meta Refresh (HTML) | Редирект через мета-тег | Используется редко, плохо для SEO |
⚠️ Частые ошибки с редиректами
- Цепочки редиректов (например, страница A → B → C) — замедляют загрузку и снижают SEO
- Редиректы на страницы с ошибкой 404 или 500
- Отсутствие редиректа при смене URL — поисковики видят «потерянную» страницу
- Использование 302 вместо 301 при постоянных изменениях
🛠 Как проверить редиректы
- Инструмент httpstatus.io — проверка статусов HTTP по URL
- Screaming Frog — вкладка Redirects
- Chrome DevTools → Network — посмотреть цепочки редиректов вручную
🔧 Рекомендации
- Используйте 301 редиректы для всех постоянных перемещений страниц
- Избегайте длинных цепочек — оптимально максимум 1-2 перехода
- Регулярно проверяйте сайт на наличие битых ссылок и неправильных редиректов
- Для массовых изменений используйте правила на уровне сервера (.htaccess, nginx)
🛡️7. Безопасность сайта и HTTPS: что проверить и как не потерять позиции
📌 Почему это важно
HTTPS — обязательный фактор ранжирования и элемент доверия пользователей. Без защищённого соединения посетители увидят предупреждения браузера, а поисковики могут понизить позиции сайта.
Кроме того, важна настройка безопасности на уровне заголовков, чтобы защитить сайт от атак и повысить его устойчивость.
🔍 Что проверить
1. Наличие и корректность SSL-сертификата
- Сертификат должен быть валидным, не истёкшим, выданным надёжным центром сертификации.
- Используйте SSL Labs для проверки.
- Убедитесь, что сайт корректно работает по HTTPS, и все ресурсы (изображения, скрипты) тоже загружаются по HTTPS.
2. Редирект с HTTP на HTTPS
- Все HTTP-запросы должны автоматически перенаправляться на HTTPS.
- Проверить через браузер и инструменты вроде httpstatus.io.
3. HSTS (HTTP Strict Transport Security)
- Настройте заголовок HSTS, чтобы браузеры всегда использовали HTTPS.
- Пример заголовка:
Strict-Transport-Security: max-age=31536000; includeSubDomains; preload
4. Безопасные заголовки
- CSP (Content Security Policy) — предотвращает внедрение вредоносных скриптов.
- X-Frame-Options — защита от кликаджеков.
- X-Content-Type-Options — предотвращает MIME-type sniffing.
- Referrer-Policy — контролирует передачу реферера.
🛠 Инструменты для проверки безопасности
- Mozilla Observatory
- SecurityHeaders.io
- SSL Labs
🔧 Рекомендации по безопасности
- Обновляйте CMS, плагины и серверное ПО вовремя.
- Используйте сложные пароли и двухфакторную аутентификацию.
- Регулярно делайте резервные копии сайта.
- Включите автоматическое обновление сертификатов (например, через Let’s Encrypt).
🔄8. Структура внутренней перелинковки: как правильно связать страницы для максимального SEO-эффекта
📌 Почему это важно
Внутренняя перелинковка — не просто навигация для пользователей. Один из основных способов распределить вес (link juice) по страницам сайта, помогая поисковикам понять структуру и приоритетность контента.
Правильная перелинковка улучшает:
- Индексацию страниц;
- Внутреннюю SEO-оптимизацию;
- Пользовательский опыт.
🔍 Что учитывать при организации перелинковки
- Иерархия сайта
- Главная страница → разделы → подразделы → товары/статьи.
- Ссылки должны отражать эту иерархию.
- Силосная структура
- Группировка по тематике.
- Внутренние ссылки преимущественно внутри одной темы.
- Анкоры ссылок
- Анкор должен быть релевантным и разнообразным.
- Избегайте переспама одинаковыми ключевыми словами.
- Использование хабов
- Создание «хаб-страниц» — страниц с обзором и ссылками на связанные материалы.
- Сквозная навигация
- Меню, хлебные крошки, футер с основными разделами.
⚠️ Распространённые ошибки перелинковки
- Циклические ссылки (страница ссылается сама на себя через цепочку).
- Множество битых ссылок.
- Чрезмерное количество ссылок на одной странице (больше 100 — Google не рекомендует).
- Использование одинаковых анкоров на разные страницы.
- Отсутствие ссылок на важные разделы.
🛠 Как проверить перелинковку
- Screaming Frog — анализ внутренних ссылок.
- Ahrefs / Semrush — отчёты по внутренним ссылкам.
- Google Search Console — раздел «Внутренние ссылки».
🔧 Рекомендации
- Постройте карту сайта для понимания структуры.
- Используйте тематические силосы.
- Регулярно проверяйте и исправляйте битые ссылки.
- Применяйте разнообразные анкоры.
- Добавьте в меню и футер ссылки на ключевые страницы.
📊 9. Микроразметка и структурированные данные
📌 Почему это важно
Структурированные данные позволяют поисковым системам лучше интерпретировать содержимое страниц и выводить расширенные сниппеты — звёздочки рейтинга, цены, события, рецепты и многое другое.
Повышает кликабельность (CTR) в поисковой выдаче и выделяет вас среди конкурентов.
🔍 Что проверять и использовать
- Виды микроразметки
- Schema.org — наиболее популярный формат.
- JSON-LD — рекомендуемый Google способ внедрения.
- Microdata и RDFa — альтернативы, используются реже.
- Какие типы разметки важны для сайта
Article— для блогов и новостей.Product— карточки товаров.BreadcrumbList— хлебные крошки.FAQ— часто задаваемые вопросы.Review— отзывы.Event— мероприятия.LocalBusiness— данные о компании.
- Проверка корректности
- Используйте Google Rich Results Test
- Schema Markup Validator
⚠️ Ошибки и их последствия
- Некорректная или неполная разметка — не будет учтена поисковиком.
- Переспам тегами — может привести к штрафам.
- Несоответствие содержимого страницы и разметки.
🛠 Как внедрять
- Внедряйте JSON-LD в
<head>или в конце<body>. - Начните с базовых типов (статьи, хлебные крошки).
- Постепенно добавляйте разметку для товаров, FAQ и отзывов.
- Проверяйте каждую страницу после изменений.
💡 Пример JSON-LD для статьи
<script type="application/ld+json">
{
"@context": "https://schema.org",
"@type": "Article",
"headline": "Как правильно настраивать внутреннюю перелинковку",
"author": {
"@type": "Person",
"name": "Иван Иванов"
},
"datePublished": "2025-07-28",
"image": "https://site.ru/images/article-image.jpg"
}
</script>
🔍10. Аналитика и мониторинг технического SEO
📌 Почему это важно
Техническое SEO — не разовое действие, а постоянный процесс. Регулярный мониторинг позволяет:
- быстро выявлять ошибки;
- отслеживать влияние изменений на трафик и позиции;
- оптимизировать ресурсы для максимальной эффективности.
🔍 Что и как отслеживать
- Ошибки сканирования и индексации
Проверяйте в Google Search Console раздел «Покрытие», где видны ошибки 404, страницы с «noindex», проблемы с сервером. - Скорость загрузки и Core Web Vitals
Регулярно смотрите отчёты в PageSpeed Insights и Google Search Console → «Улучшения» → «Core Web Vitals». - Показатели безопасности и HTTPS
Следите за статусом SSL в инструментах вроде SSL Labs, а также за предупреждениями браузеров. - Внутренняя перелинковка
Используйте отчёты Ahrefs, Screaming Frog, чтобы видеть изменения в ссылочной структуре. - Редиректы и битые ссылки
Проверяйте через Screaming Frog и специальные сервисы мониторинга.
🛠 Инструменты для мониторинга
| Инструмент | Что проверяет |
|---|---|
| Google Search Console | Индексация, ошибки, Core Web Vitals |
| PageSpeed Insights | Скорость и UX |
| Screaming Frog | Технический аудит, ссылки, редиректы |
| Ahrefs, Semrush | Анализ ссылок и позиций |
| SSL Labs | Безопасность SSL |
| Google Analytics | Поведение пользователей |
Полный чек-лист технического SEO 2025
1. Скорость загрузки и Core Web Vitals
- Проверить LCP ≤ 2.5 секунды
- Проверить FID ≤ 100 мс
- Проверить CLS < 0.1
- Оптимизировать изображения (WebP, сжатие)
- Включить lazy loading для картинок и видео
- Минифицировать CSS и JS
- Удалить неиспользуемый код и скрипты
- Подключить CDN (Cloudflare, BunnyCDN и др.)
- Настроить кэширование на сервере и CMS
2. Индексация и статус страниц
- Проверить файл robots.txt на корректные правила
- Проверить мета-теги robots на страницах (index/noindex)
- Проверить HTTP-заголовки X-Robots-Tag
- Проверить канонические ссылки на всех страницах
- Анализировать данные индексации через Google Search Console
- Убедиться, что sitemap.xml актуален и содержит нужные страницы
- Исключить из индексации технические страницы и дубли
3. Структура URL и каноникализация
- Использовать человеко-понятные URL без лишних параметров
- Проверить наличие и корректность canonical на каждой странице
- Настроить 301 редиректы с дублирующих URL на основные
- Проверить редиректы www/без www, http/https, со слэшем/без
- Закрыть от индексации URL с параметрами и фильтрами
4. Hreflang и мультиязычность
- Проверить наличие hreflang на всех языковых версиях
- Использовать корректные языковые и региональные коды (ru-RU, ru-KZ и т.д.)
- Добавить self-referencing hreflang
- Проверить соответствие количества страниц и hreflang-ссылок
- Использовать инструменты проверки (Screaming Frog, Merkle)
5. Robots.txt и Meta Robots
- Файл robots.txt доступен по адресу и содержит актуальные правила
- Не блокировать важные для индексации ресурсы (CSS, JS)
- Указать ссылку на sitemap.xml в robots.txt
- Использовать meta robots для точечной настройки индексации страниц
- Проверить отсутствие блокировок всего сайта (Disallow: /)
6. Редиректы
- Использовать 301 редиректы для постоянных изменений URL
- Избегать цепочек редиректов (максимум 1-2 перехода)
- Проверить, что редиректы не ведут на ошибки 404/500
- Проверить редиректы с http на https, www на без www и наоборот
- Автоматизировать настройку через сервер (.htaccess, nginx)
7. Безопасность и HTTPS
- Установить и регулярно обновлять SSL-сертификат
- Проверить корректность HTTPS и отсутствие смешанного контента
- Настроить редиректы с HTTP на HTTPS
- Включить HSTS заголовок
- Настроить безопасные заголовки (CSP, X-Frame-Options, X-Content-Type-Options и др.)
- Использовать сложные пароли и двухфакторную аутентификацию
- Проводить регулярные бэкапы и обновления CMS/плагинов
8. Внутренняя перелинковка
- Построить иерархию ссылок: главная → разделы → подразделы → товары/статьи
- Использовать силосную структуру с тематической группировкой
- Применять разнообразные и релевантные анкоры
- Использовать хабы и сквозные ссылки в меню и футере
- Избегать циклических и битых ссылок
- Ограничить количество ссылок на странице (до 100)
9. Микроразметка и структурированные данные
- Внедрить JSON-LD разметку для статей, товаров, FAQ, отзывов и хлебных крошек
- Проверить разметку с помощью Google Rich Results Test и Schema Validator
- Избегать ошибок и несоответствий между контентом и разметкой
- Постепенно расширять типы разметки по необходимости
10. Аналитика и мониторинг
- Регулярно проверять Google Search Console на ошибки и статус индексации
- Мониторить Core Web Vitals и скорость загрузки
- Следить за безопасностью и SSL-статусом
- Анализировать внутренние ссылки и редиректы с помощью специализированных инструментов
- Настроить регулярные отчёты и алерты
- Вести журнал изменений и анализировать их эффект