Як уникнути SEO-катастрофи

“Все, що може піти не так, піде не так”.

Ця фраза широко відома як закон Мерфі, і той, хто значний час пов’язаний з приватним просуванням сайтів, знає, як іноді боляче можуть вдарити ці слова. Ви постійно стежите за показниками трафіку, намагаєтеся збільшити його всіма відомими способами, і тут … вони падають. Падають вниз. І ваше серце падає разом з ними. У цей момент приходить лист від боса, з питанням про те, що відбувається на сайті.
Незважаючи на те, що це звучить як кошмарний сценарій фільму жахів, але в світі SEO таке відбувається досить часто.
На щастя, більшість проблем в цій галузі відомо вже зараз, і їх можливо попередити.

1. Перевіряємо індексацію

Коли seo-оптимизатор бачить раптове падіння трафіку за короткий проміжок часу, перше, що потрібно перевірити – чи був сайт індексований в пошукових системах.
Може бути, ваша команда розробників забула вимкнути теги NOINDEX / NoFollow перед запуском сайту. Можливо, пройшло непоміченим зміна в структурі сайту і файл robots.txt не оновлювався.

Так само, в числі перших потрібно перевірити наступний момент: чи є HTML джерелом найпопулярніших сторінок, і, по крайней мере, однієї сторінки з кожного унікального шаблону на вашому сайті. Чи є NOINDEX / Nofollow теги?
Ці теги могли бути додані і в HTTP-заголовки відповіді сервера, так що, можливо, буде потрібно запустити засоби розробки в браузері, щоб переглянути відповідь на запит, який зробив до сервера ваш браузер.
Ви можете зробити таку перевірку автоматичної, розробивши з командою текстовий SEO-скрипт, який буде перевіряти, що сторінки не містять і не обслуговують теги NOINDEX / NoFollow.

Файл robots.txt перевірити трохи легше. Для цього ми використовуємо його поточну останню копію, і за допомогою Google Webmaster Tools звіряємо ідентичність в тестері Robots.txt з використанням одного URL.
Доступні і інші інструменти для перевірки robots.txt (з перевіркою кількох адрес), але ви повинні пам’ятати про те, що вони використовують власний WebCrawler для інтерпретації файлу, і, в окремих випадках, на виході виходять різні (але помилкові) результати.
Я рекомендую для ефективного просування сайтів використовувати як мінімум одну сторінку з кожного розділу. Розробники також можуть додати цю перевірку в скрипт.

2. Перевірте переадресацію

В даний час ви знаєте, що в 99,99% випадків, замість помилки 301, на сайті повинна відбуватися переадресація. Але не всі це враховують.
Зламані переадресації важко діагностувати, тому що, якщо ви не перевіряєте HTTP-заголовки відповіді сервера, використовуючи засоби розробки в браузері, то на сайті, начебто, все виглядає і функціонує нормально. Але, насправді, звичайно ж, це не так.

Які симптоми цього захворювання? Як їх шукати, якщо ви підозрюєте, що переадресації все-таки не відбувається? Спробуйте почати своє розслідування з кращих сторінок, які містять велику кількість речей, і на які йдуть посилання з інших сторінок сайту. Чи правда, що такі сторінки впали в рейтингу сильніше?

Помилка 404 – один з не менш важливих ворогів. Нехай ваші веб-майстри замінять це оповіщення на більш позитивне, яке сповіщає відвідувачів про те, що це лише тимчасова проблема, тоді вони захочуть повернутися.

Спосіб контролю цієї проблеми – додавання додаткових перевірок наборів переадресації (адреси) важливих сторінок в текстовий скрипт. Для початку потрібно переконатися, що всі переадресації на шляху (їх не може бути багато) повертаються на сторінку помилки 301. Команда розробників повинна розуміти всю важливість переадресації, і підвищувати свою кваліфікацію в даному питанні.

3. Відслідковуємо спамерів

Завжди знайдуться злі люди, які захочуть заспаміть ваш сайт. Якщо ви не будете обережні, вони будуть використовувати для цього будь-яку частину вашого сайту, де користувачі можуть генерувати контент для залучення трафіку, в своїх цілях.
Спамерів визначити легко. Достатньо лише візуального дослідження коментарів в кожному з розділів сайту на предмет спам-вмісту. Webmaster Tools допоможе визначити, чи з’являються довільно несподівані ключові слова. Крім того, якщо Google визначить спам-вміст, він постійно почне сповіщати вас про це на електронну пошту.

Якщо ви використовуєте популярну CMS, вона напевно вже містить стоп-плагіни для відстеження спаму. Можна включити функцію премодерації, або взяти в свою команду модераторів, які будуть контролювати постійний потік коментарів. Якщо у вас великий сайт, спам можна шукати за ключовими фразами (для ідей просто варто заглянути в папку зі спамом на електронній пошті).

висновок

Ніхто з приватних seo- оптимізаторів не хоче прийти на роботу в понеділок і впасти в бруд обличчям через одну з вище зазначених проблем. Важливо їх відслідковувати, для того, щоб уникнути неприємних зустрічей з босом і безсонних ночей в тривогах про те, чи все в порядку і зроблено правильно.

Тісна робота пліч-о-пліч з технічними фахівцями – кращий спосіб запобігти проблемам ще до запуску сайту. Однак, якщо у вас немає доступу до команди розробників, існують інструменти сторонніх виробників, які допоможуть вирішити такі питання. Не дозволяйте закону Мерфі панувати над вами!

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Solve : *
27 − 7 =


Back to top button