Сайт есть, а в поиске его нет — разбираем причины

Разбор типичных причин: robots.txt и noindex, sitemap, ссылки, дубли, скорость, title/description, молодой домен; связь с GEO и нейровыдачей.

Время чтения: около 14 мин.

Сайт открывается в браузере, но по запросу site:ваш-домен в Google пусто или почти пусто — типичная ситуация для новых и малых проектов. Ниже семь частых причин и что с ними делать. Логика близка к техническому слою профессиональных аудитов: сначала проверяем то, что машина может увидеть без догадок (robots, мета, скорость, разметка), затем — факторы репутации и контента.

1. Сайт закрыт в robots.txt или meta robots

В файле robots.txt для User-agent: * не должно быть Disallow: /, если вы хотите полную индексацию. Отдельные сервисы дополнительно проверяют правила для AI-ботов — если закрыты все, страдает и классический поиск, и видимость в нейровыдаче.

На странице в <head> не должно стоять noindex без необходимости: иначе Google явно не покажет URL в результатах. Проверить можно вручную или через экспресс-аудит 4КУБА.

2. Нет sitemap или он не указан в GSC

Карта сайта (обычно /sitemap.xml) ускоряет обход. Если файла нет или он не отправлен в Search Console, поисковик всё равно может найти страницы по ссылкам — но медленнее и непредсказуемее. После подключения GSC добавьте sitemap в разделе «Файлы Sitemap». Инструкция: как подключить Google Search Console.

3. Новый домен без входящих ссылок

У совсем «пустого» домена краулер может до вас добраться только случайно или после отправки URL. Получите хотя бы несколько естественных упоминаний: соцсети профиля компании, каталоги, партнёры, пресс-релизы. Это не замена качественному контенту, но снимает эффект «острова без мостов».

4. Дубли и каноникал

Одна и та же страница доступна по нескольким URL (http/https, www/без www, с параметрами) без явного rel=canonical — риск склейки не в вашу пользу. Настройте редирект на одно главное зеркало и укажите каноникал в шаблоне. В справочнике по тегам head canonical отмечен как средство против дублей — это база технического SEO.

5. Медленная загрузка и тяжёлый HTML

Долгий ответ сервера и огромная разметка (часто у конструкторов) ухудшают краулинг и опыт пользователя. Оптимизируйте изображения, отложите некритичные скрипты, следите за Core Web Vitals в GSC. Наш сканер отмечает размер HTML и цепочку редиректов — оба сигнала влияют на то, насколько «дорого» индексировать сайт.

6. Пустой или шаблонный title/description

Без осмысленного <title> и мета-описания поисковик подставит свой фрагмент — хуже кликабельность. Проверьте уникальность заголовков по типам страниц (главная, услуги, контакты). Open Graph (og:title, og:description, og:image) влияет на превью в соцсетях и косвенно на доверие к ссылке.

7. «Молодой» домен без истории

Даже при идеальной технике первые недели и месяцы индексация идёт неровно. Комбинируйте: техника + контент + GSC + терпение. Если прошло много времени и страниц в индексе нет — возвращайтесь к пунктам 1–2 и запросите переобход в GSC.

Нейровыдача и GEO (кратко)

Параллельно с классическим поиском растёт доля ответов в ChatGPT, Perplexity и блоках AI Overview. Техническая доступность (robots для ботов, структурированные данные, понятные заголовки) и сигналы «цитируемости» контента входят в направление GEO (Generative Engine Optimization). Подробнее о подходе — на странице видимость в AI-поиске.

Проверьте сайт бесплатно

Запустите онлайн-техаудит — robots, sitemap, мета, редиректы, Open Graph и подсказки по GEO за один проход, с объяснением на русском.

Рекомендации с приоритетами по шагам после регистрации — в разделе AI-рекомендации.