Оглавление:
Причины выпадения сайта и их устранение:
- Плохое качество контента;
- Переспам ключевых слов;
- Много некачественных входящих ссылок;
- На странице очень много рекламных блоков;
- Очень низкая скорость загрузки страниц;
- Неправильно заполнен ROBOTS.TXT;
- Ошибка поискового робота.
Причины выпадения сайта и их предотвращение:
1. Плохое качество контента
Ваш контент может быть признан контентом плохого качества если:
-
он скопирован с других сайтов. Это не только может навредить позициям сайта, но и его собственнику, так как попадает под действие закона об авторских правах вашей страны. Проверьте тексты на уникальность.
-
страница не релевантна поисковому запросу, то есть при прочтении статьи посетитель не находит пути решения проблемы, обозначенной в заголовке.
-
тема страницы не востребована пользователями. Это один из ведущих факторов оценки. Контент должен быть интересным, полезным, достойным внимания «живых» людей.
Вопрос:
Как улучшить качество контента?
Ответ:
Перепишите тексты, сделайте их уникальными. Пользуйтесь бесплатными сервисами проверки на уникальность, например на text.ru. Сделайте так, чтобы содержание контента давало ясный ответ на вопрос, обозначенный в заголовке. Тестируйте контент на незаинтересованных людях.
2. Переспам ключевых слов
Переспам или перенасыщенность ключевых слов в тексте считается плохим тоном не только в SEO, но и в обычном копирайте. Если каким нибудь образом страница будет наполнена ключевыми словами и фразами, которые не видны пользователю, то поисковый робот обязательно это заметит и отправит страницу под запрет. Другими словами, просто забанит.
Вопрос:
Какая плотность ключевых слов в тексте считается оптимальной?
Ответ:
Безопасной плотностью ключевых слов, гарантирующей от попадания под бан, считается 3%. Но однозначного ответа на этот вопрос нет. Все зависит от тематики и назначения текста. На топовых позициях может оказаться страница с карточкой товара длиной в 150 знаков и плотностью ключевиков 9% и лонгрид в 50К знаков и плотностью ключей 1.5%. Все зависит от качества контента.
3. Много некачественных входящих ссылок
Роботы-поисковики не оставят без внимания факт резкого повышения количества входящих ссылок низкого качества. Особенно, если эти ссылки располагаются на сомнительных сайтах, нерелевантных тематике страниц, на которые они ссылаются. Обращайте внимание на количество и качество ссылок. Если их чересчур много, они не подходят по тематике, плохого качества, то ресурс пессимизируют.
Вопрос:
Сколько ссылок покупать, чтобы не попасть под бан?
Ответ:
Количество входящих ссылок не особенно влияет на ранжирование. Главное, чтобы контент на нем был достойным внимания пользователей. Если очень хочется, то лучше купить одну авторитетную релевантную ссылку, чем тысячу никуда не годных. Вкладывайтесь в полезный контент — это выгодная долгосрочная инвестиция.
4. На странице очень много рекламных блоков
Если вы занимаетесь монетизацией сайта путем размещения на его страницах рекламных блоков, то знайте меру. Страницы, переполненные рекламой обязательно попадут в бан.
Вопрос:
Сколько и какой рекламы можно размещать, чтобы не попасть под бан поисковиков?
Ответ:
На странице должно быть не больше 30% рекламы. Запрещены к размещению блоки с pop-up рекламой, с полноэкранными блоками с обратным отсчетом, видеореклама с озвученным автовоспроизведением, баннеры шириной во весь экран и высотой больше 250 пикселей. Это относится к десктопным и мобильным версиям сайтов. Кроме того, на мобильных страницах к бану приведет размещение баннеров больше 30% площади экрана.
5. Очень низкая скорость загрузки страниц
Скорость сайта — очень важный параметр. Отрицательно сказывается, как объем страницы из-за большого веса загруженных на нее файлов, так и неправильная работа хостинга, приводящая к тормозам.
Вопрос:
Какая скорость загрузки страницы считается нормальной?
Ответ:
Оптимальное время загрузки веб-страницы — 2 секунды. Хорошим показателем считается время в 1-1.5 секунды.
Показатели, превышающие значение 2 сек. неизбежно ведут к снижению посещаемости. Если скорость загрузки увеличить всего на 200 мл.сек., то это приведет к потере 36% посетителей, если на 400 мл.сек., то 70%.
Постоянно проверяйте скорость сайта и принимайте срочные меры в случае ее падения: оптимизируйте объем файлов на странице, обращайтесь в техническую поддержку хостинга.
6. Неправильно заполнен ROBOTS.TXT
Файл «robots.txt» оповещает роботов о том, к каким страницам они имеют право обращаться. Также он повышает результативность сайта. Неправильные настройки или отсутствие файла приводят к неизбежным ошибкам, влияющим на ранжирование.
Вопрос:
Как правильно заполнить файл «robots.txt»?
Ответ:
Если вы не знаете, что такое «robots.txt», для чего он нужен и как он работает, то лучше обратиться к специалистам. Если это невозможно, то воспользуйтесь бесплатными онлайн сервисам, которые генерируют «robots.txt» по заданным вами условиям:
-
SEOlib;
-
PR-CY;
-
Raskruty.ru;
-
Seo cafe.
7. Ошибка поискового робота
К сожалению такое тоже бывает. Сайт может попасть под бан вследствие технической ошибки поисковика. Если вы уверены, что ошибок из пунктов 1-7 этой статьи на вашем сайте нет, то смело обращайтесь в службу технической поддержки той системы, которая вас забанила. Спустя некоторое время ваш ресурс будет выведен из-под санкций.