Если авторизоваться не получается, то попробуйте восстановить пароль. Если у вас нет аккаунта на сайте, то вы можете зарегистрироваться.
Если авторизоваться не получается, то попробуйте восстановить пароль. Если у вас нет аккаунта на сайте, то вы можете зарегистрироваться.

Как избежать SEO-катастрофы

3 декабря 2014
Сео статьи
Рассел Саваж, присутствующий на презентации в составе команды Марка Манро на SMX (Выставка поисковой оптимизации "Восток 2014"), осветил общие беды поисковой оптимизации и продвижения сайтов, а также способы их обнаружения и предотвращения. 
Ниже мы приведем краткое содержание его доклада: "Покоряя современные SEO-горизонты"
"Все, что может пойти не так, пойдет не так". 

Эта фраза широко известна как закон Мерфи, и тот, кто значительное время связан с частным продвижением сайтов, знает, как иногда больно могут ударить эти слова. Вы постоянно следите за показателями трафика, стараетесь увеличить его всеми известными способами, и тут... они падают. Падают вниз. И ваше сердце падает вместе с ними. В этот момент приходит письмо от босса, с вопросом о том, что происходит на сайте. 
Несмотря на то, что это звучит как кошмарный сценарий фильма ужасов, но в мире SEO такое происходит довольно часто. 
К счастью, большинство проблем в данной области известно уже сейчас, и их возможно предупредить. 
1. Проверяем индексацию 
Когда  seo-оптимизатор видит внезапное падение трафика за короткий промежуток времени, первое, что нужно проверить - был ли сайт индексирован в поисковых системах. 
Может быть, ваша команда разработчиков забыла выключить теги NOINDEX / NoFollow перед запуском сайта. Возможно, прошло незамеченным изменение в структуре сайта и файл robots.txt не обновлялся. 
Так же, в числе первых нужно проверить следующий момент: является ли HTML источником самых популярных страниц, и, по крайней мере, одной страницы из каждого уникального шаблона на вашем сайте. Есть ли NOINDEX / Nofollow теги? 
Эти теги могли быть добавлены и в HTTP-заголовки ответа сервера, так что, возможно, потребуется запустить средства разработки в браузере и проверить ответ на запрос, который сделал к серверу ваш браузер. 
Вы можете сделать такую проверку автоматической, разработав с командой текстовый SEO-скрипт, который будет проверять, что страницы не содержат и не обслуживают теги NOINDEX / NoFollow. 
Файл robots.txt проверить немного легче. Для этого мы используем его текущую последнюю копию, и при помощи Google Webmaster Tools сверяем идентичность в тестере Robots.txt с использованием одного URL. 
Доступны и другие инструменты для проверки robots.txt (с проверкой нескольких адресов), но вы должны помнить о том, что они используют собственный WebCrawler для интерпретации файла, и, в редких случаях, на выходе получаются различные (но ложные)результаты. 
Я рекомендую для эффективного продвижения сайтов использовать как минимум одну страницу из каждого раздела. Разработчики также могут добавить данную проверку в скрипт. 
2. Проверьте переадресацию
В настоящее время вы знаете, что в 99,99% случаев, вместо ошибки 301, на сайте должна происходить переадресация. Но не все это учитывают. 
Сломанные переадресации трудно диагностировать, так как, если вы не проверяете HTTP-заголовки ответа сервера, используя средства разработки в браузере, то на сайте, вроде бы, все выглядит и функционирует нормально. Но, на самом деле, конечно же, это не так. 
Каковы симптомы этого заболевания? Как их искать, если вы подозреваете, что переадресации все же не происходит? Попробуйте начать свое расследование с лучших страниц, которые содержат большое количество вещей, и на которые идут ссылки с других страниц сайта. Правда ли, что такие страницы упали в рейтинге сильнее? 
Ошибка 404 - один из не менее важных врагов. Пусть ваши веб-мастера заменят это оповещение на более позитивное, которое извещает посетителей о том, что это лишь временная проблема, тогда они захотят вернуться. 
Способ контроля этой проблемы - добавление дополнительных проверок наборов переадресации (адреса)важных страниц в текстовый скрипт. Для начала нужно убедиться, что все переадресации на пути (их не может быть много) возвращаются к странице ошибки 301. Команда разработчиков должна понимать всю важность переадресаций, и повышать свою квалификацию в данном вопросе. 
3. Отслеживаем спамеров 
Всегда найдутся злые люди, которые захотят заспамить ваш сайт. Если вы не будете осторожны, они будут использовать для этого любую часть вашего сайта, где пользователи могут генерировать контент для привлечения трафика, в своих целях. 
Спамеров определить легко. Достаточно лишь визуального исследования комментариев в каждом из разделов сайта на предмет спам-содержимого. Webmaster Tools поможет определить, появляются ли произвольно неожиданные ключевые слова. Кроме того, если Google определит спам-содержимое, он постоянно начнет извещать вас об этом на электронную почту. 
Если вы используете популярную CMS, она наверняка уже содержит стоп-плагины для отслеживания спама. Можно включить функцию премодерации, или взять в свою команду модераторов, которые будут контролировать постоянный поток комментариев. Если у вас большой сайт, спам можно искать по ключевым фразам (для идей просто стоит заглянуть в папку со спамом на электронной почте). 
Заключение 
Никто из частных seo- оптимизаторов  не хочет прийти на работу в понедельник и упасть в грязь лицом из-за одной из выше обозначенных проблем. Важно их отслеживать, для того, чтобы избежать неприятных встреч с боссом и бессонных ночей в тревогах о том, все ли в порядке и сделано правильно. 
Тесная работа бок о бок с техническими специалистами - лучший способ предотвратить проблемы еще до запуска сайта. Однако, если у вас нет доступа к команде разработчиков, существуют инструменты сторонних производителей, которые помогут решить такие вопросы. Не позволяйте закону Мерфи властвовать над вами! 

Forum with id 1 is not found.