Блог о SEO оптимизация и поисковое продвижение
28 Ноя
С тех пор, как поисковые системы начали налагать санкции за низкое качество контента: понижение позиций, ограничение в индексации, исключение из индекса — стал актуален вопрос качества сайта. Яндекс в ответе на вопрос качества однозначен: «Делайте сайты для людей» (а в соответствующем разделе ещё и по пунктам расписано). Но никто не гарантирует, что санкции не будут наложены на самый что не есть СДЛ (сайт для людей). Потому вэб-мастерам следует знать о взглядах поисковых систем на качество сайта. Предложенные ниже рекомендации не являются инструкцией к действию (хотя, по большей части на данный момент являются) — ведь алгоритмы меняются. Но суть остаётся. Дабы не попасть в просак, надо делать выводы.
1) Сайт должен быть не просто кучей текстов, а иметь логичную структуру: иметь 4-5 рубрик (категорий) — лучше больше, если в этом есть смысл.
Количество страниц от 300. Если много для собственного написания, стоит обратиться на XAP за помощью — по 9 центов за статью с большим процентом уникальности. (Получить от меня инвайт — ася: 29о,38,68,семь2). Контент уникальный, уникальный и ещё раз уникальный (это не призыв трижды прогонять по базам синонимов — всё же не только боты в инетах читают). Если задумали сделать сайт-фотогалерею, учтите, что несколько слов в подписи к картинке не создают уника: грубо говоря, это вообще не текст, нужно писать хотя бы несколько предложений, пока по сайту не бродят толпы комментаторов, с радостью высказывающих своё (уникальное) мнение. Нередкий случай — воровство контента. Надо следить, принимать меры.
2) Если имеется свой домен 2-го уровня, не стоит делать пачку сайтов на поддоменах 3-го уровня. Если хотите сделать несколько сайтов — разоритесь на 100 рублей для персонального домена на каждый сайт. Исключение — домены 3-го уровня Народ и uCoz, так как поисковые системы рассматривают эти сайты как независимые проекты. Ещё на юКозе основной косяк – карантин (см. на форуме системы). Перед регистрацией домена не повредит проверить, есть ли упомянания о нём в интернетах. А то попользовался, быть может, им некий манимейкер, а как в баню попал домен, продление его стало нерентабельным.
3) Минимум внешек. При этом сайт имеет больше веса [в глазах оптимизаторов], что является положительным фактором для дальнейшей монетизации. Счётчики, виджеты и прочие «навороты» — в noindex. Также к качеству сайта относится показатель: «количество доменов, на которые ссылается сайт / число страниц в индексе Я» — нормальное значение не больше 20%. Т.е. сайт из 300 страниц не должен ссылаться больше чем на 60 других сайтов. 20% — это не математический расчёт, но и не цифра с потолка. Скажем, подслушал разговор бабулек на лавочке и взял на заметку, а вы можете смело не доверять. Всё же, помимо продажи ссылок, есть и естественные причины активно ссылаться на другие сайты. Речь лишь о возможных рисках.
4) Регулярная индексация поисковиками. На первый взгляд, фактор независимый от вэб-мастера. Но есть способы ускорения индексации — надо ими пользоваться. К вашим услугам сервисы пинга, грамотное использование rss, ведение xml-карты сайта, социалки, ссылки с хорошо индексируемых сайтов, частое обновление сайта, создание стимула к комментированию статей и т.д.
5) Движок для сайта. Перед использованием CMS лучше посмотреть информацию о ней в интернетах (интересует тут SEO-аспект). По моим данным, проблем с индексацией не имеют ВордПресс и Друпал. К примеру, было время, когда Яндекс из гранатомёта «АГС-17» расстреливал Аккокоментовские страницы Жумлы — серое пятнышко на истории движка.
6) Дублирование контента в рамках сайта, или внутренний неуник. Появлению такового способствуют тэги (метки) на сайте, всякие ссылки на результаты поиска, типа: «у нас искали», «к нам пришли по фразам». Не обязательно убирать это с сайта, быть может пользователю такие виджеты упрощают навигацию. Но следует закрывать от индексации в «robots.txt» сгенерированные такими инструментами псевдо-страницы (при новом url-е не имеющие уникального текста).
7) URL-ы статей. Ниже перечислены виды ссылок на «мясо» сайта (пути от корня сайта). Перечисление идёт от самого убогого вида до самого привлекательного (для поисковых систем). Первый пункт, соответственно, самый убогий, дальше — лучше:
Запись опубликована 28 ноября 2009 года. В рубрике «SEO» есть ещё несколько интересных постов:
RSS подписка (как это?) поможет вам не пропустить ничего интересного на этом блоге.
На «Критерии качественного сайта» получено 7 отзывов
[...] ссылку сателлита, а оставляет в подписи свой качественный блог, то можно и нужно оставить такую ссылку. Но если [...]
Нужная статья. Думаю убрать со своего блога videotutor.ru плагин с кучей кнопок-социальных закладок. Так все они — это внешние ссылки, что не есть хорошо.
Заменю их кодом в теме (в single.php)
Странно, что джумлу расстреливал. У меня исправно индексирует.
Павел, а почему у вас на сайте ссылки типа /?p=64?
Или все-таки вид ссылок на статьи никак не влияет на качественность сайта? Тогда нужно пункт 7 убрать.
Сергей, ссылочная структура этого блога сформировалась 3 года назад. Тогда я ещё в этом не разбирался. Можете посмотреть, например, мой другой сравнительно новый блог: pavluha.net — там ссылки красивые.
Если сейчас мне внедрять ЧПУ, то могу потерять часть трафика, позиций, бэков... В общем, больше недостатков, чем практического результата.
К тому же, влияет этот фактор не сильно — это один из более чем 100 факторов оценки качества сайтов Яндексом, к тому же, далеко не самый существенный.
С эстетической точки зрения, конечно лучше иметь страницы, типа /s-novym-godom. Например, когда статистику точек входа смотришь, то не надо каждый раз лезть на страницу, чтобы узнать, о чём на ней речь
Автору +1 за статью!! К стати ро поводу контента, Яша весьма неоднозначно подходит к этому вопросу: как то раз я продвигал сайт кулинарной тематики( рецепты + ко всему там был каталог продукции) соответственно контент нельзя было назвать уникальным, НО!! я заказал продвижение у ребят с webeffector (сразу предупреждаю — это не реклама!!) и они закусили ссылок и на сайте засуетился ТИЦ 10 при воровском контенте!!! Я просто улыбаюсь до сих пор!!! Гугл дал pr- 2!!! После чего сайт проработал 2-3 месяца и заглох(помоете закончился хостинг) самое интересное было то что сайт создавался как СДЛ!!
Да, тут как повезёт. Бывает по-разному. Никак нельзя написать на эту тему статью, которая бы учитывала 100% случаев. У меня тоже есть сайт на неуникальном контенте (магазин) который я тупо и сурово сделал за 15 минут. Сделал для прикола, но сейчас (и уже не первый год) он приносит ~1000 рублей в месяц на Сапе
Ваше SEO-мнение
Я прошу высказать своё мнение, а не оставить ссылку на раскручиваемый сайт. В любом случае, ссылки в комментариях у меня закрыты от индексации, если интересует качественный обмен ссылками -обращайтесь