Нам всем без исключения необходимо повышать образованность, вникать в современные информационные технологии и ещё больше развивать и продвигать Интернет, который выведет всех нас к исключительно новому миру, к новой цивилизации на планете.
Только начал вникать в принципы и методы SEO, до этого поисковой оптимизацией практически не занимался. Кропал уникальный контент для кейса Космополита и надеялся, что благодаря исключительно этому будет продвижение в поисковой выдаче. Кейс - это такое сейчас распространенное понятие у веб-мастеров и seo-оптимизаторов, оно более крутое, чем просто сайт.
Сразу же делюсь со всеми блогерами и владельцами сайтов своими первыми познаниями и опытом. И вовсе не потому, что наивный и глупый, выдаю секреты SEO конкурентам. У космополитов в России конкурентов нет, да и в мире тоже. Во-первых, надо привести мысли в порядок, а лучшее средство - это через клавиатуру и текст. Во-вторых, нам всем без исключения необходимо повышать образованность, вникать в современные информационные технологии и ещё больше развивать и продвигать Интернет, который выведет всех нас к исключительно новому миру, к новой цивилизации на планете.
Но ладно, соловья баснями не кормят - начнем. Начинающий веб-мастер радуется тому, что Гугл и Яндекс активно индексируют его кейс, страницы проекта появляются в поисковой выдаче, приходят на сайт первые посетители. Все вроде бы идет прекрасно - вот он успех. И только начинаешь дотрагиваться до своей заветный мечты - рост проекта прекращается, кейс постепенно оседает, посещаемость падает. Зарегистрированные пользователи, постеры на форумах, комментаторы и блогеры покидают сайт - остаешься один с несбывшимися мечтами.
Современный движок Joomla для управления контеном содержит свыше 5 тысяч файлов, а если установишь дополнительные компоненты, модули, плагины, то количество файлов увеличивается в разы, а они вовсе не предназначены для запроса поисковыми ботами. CMS генерирует для своей работы урлы со всевозможными параметрами - все это поисковая машина кушает, забивая поисковую базу мусором. Мало того, что поисковик уже не справляется приводить в порядок ключевые слова и урлы - от поисковых ботов идут совершенно ненужные запросы к серверу кейса, а это уже непреднамеренная DDoS-атака, сервер постоянно падает, сайты не доступны.
Прежде чем выдавать на гора контент кейса, очень важно сконструировать файл robots.txt и запретить поисковым ботам просматривать все подряд, проходить по всем ссылкам. Директивы Disallow запрещают в роботсе все, что не следует индексировать. Очень удобная директива Allow, которой указываешь, что нужно индексировать, а на все остальное ставишь Disallow: / .
Через файл .htaccess можно дать Апачу на сервере указания перенаправлять запросы от одних страниц к другим. 301 редирект прекрасно слушаются боты Гугла и Яндекса.
И ещё какая необходимость в .htaccess. Страница удалена, но Гугл и Яндекс будут годами её запрашивать, а наверно и вечно, хоть и получают 404 ошибку. И это все лишние запросы, нагрузка на сервер. Необходимо избавляться от 404 ошибки - и будет веб-мастеру счастье.
Ну и контент следует приводить в порядок, делать правильные и точные урлы к материалам сайта. Текст надо разбивать по страницам. Большой текст на одной странице - это мучаешь свой сервер базы данных и поисковым системам сложнее выделить из него ключевые слова.