Наконец-то мы создали красивый stand alone блог. Написали уже несколько статей. Сегодня немного расскажу о продвижении блога в сети.

Ранее мы уже узнали, что такое блог и кто такой блоггер в статье «Блог как бизнес. Часть 1»; как зарегистрировать домен для блога – «Блог как бизнес. Часть 2»; где разместить блог и что такое хостинг? – об этом мы узнали в статье «Блог как бизнес. Часть 3»; как установить CMS WordPress для вашего блога – об этом мы узнали в посте «Блог как бизнес. Часть 4».

CMS WordPress удобна не только для управления контентом вашего блога, но и для продвижения его в поисковых системах. Для поисковой оптимизации блога WordPress имеет ряд значимых преимуществ перед другими CMS.

1. Сервисы пинга

Оповещайте сервисов пинга – о новом контенте быстрее узнают поисковые системы. Благодаря им свежие записи блога будут оперативно индексироваться и не терять свою актуальность.

Список сервисов пинга необходимо указать в разделе Сервисы обновления. Зайдите в консоль управления своего блога, перейдите в меню Настройки и выберите подпункт Написание. В самом низу раздела будет редактор списка сервисов пинга. Скопируйте туда следующие сервисы. Каждый сервис пинга должен начинаться с новой строки.

http://1470.net/api/ping
http://a2b.cc/setloc/bp.a2b
http://api.feedster.com/ping
http://api.moreover.com/RPC2
http://api.moreover.com/ping
http://api.my.yahoo.com/RPC2
http://api.my.yahoo.com/rss/ping
http://bitacoles.net/ping.php
http://bitacoras.net/ping
http://blogdb.jp/xmlrpc
http://blogdigger.com/RPC2
http://blogmatcher.com/u.php
http://blogoole.com/ping
http://blogoon.net/ping
http://blogpeople.net/servlet/weblogUpdates
http://blogshares.com/rpc.php
http://blogsnow.com/ping
http://blogstreet.com/xrbin/xmlrpc.cgi
http://blog.goo.ne.jp/XMLRPC
http://bulkfeeds.net/rpc
http://coreblog.org/ping
http://lasermemory.com/lsrpc
http://mod-pubsub.org/kn_apps/blogchatter/ping.php
http://newsisfree.com/xmlrpctest.php
http://ping.amagle.com
http://ping.bitacoras.com
http://ping.blo.gs
http://ping.bloggers.jp/rpc
http://ping.blogmura.jp/rpc
http://ping.cocolog-nifty.com/xmlrpc
http://ping.exblog.jp/xmlrpc
http://ping.feedburner.com
http://ping.myblog.jp
http://ping.rootblog.com/rpc.php
http://ping.syndic8.com/xmlrpc.php
http://ping.weblogalot.com/rpc.php
http://ping.weblogs.se
http://pingoat.com/goat/RPC2
http://rcs.datashed.net/RPC2
http://rpc.blogbuzzmachine.com/RPC2
http://rpc.blogrolling.com/pinger
http://rpc.pingomatic.com/
http://rpc.technorati.com/rpc/ping
http://rpc.weblogs.com/RPC2
http://snipsnap.org/RPC2
http://trackback.bakeinu.jp/bakeping.php
http://topicexchange.com/RPC2
http://weblogues.com/RPC
http://xping.pubsub.com/ping
http://xmlrpc.blogg.de
http://bblog.com/ping.php
http://blogbot.dk/io/xml-rpc.php
http://catapings.com/ping.php
http://effbot.org/rpc/ping.cgi
http://thingamablog.sourceforge.net/ping.php
http://blogsearch.google.com/pingRPC2
http://rpc.newsgator.com
http://newsisfree.com/RPCCloud
http://mod-pubsub.org/ping.php
http://pingqueue.com/rpc
http://rpc.britblog.com
http://services.newsgator.com/ngws/xmlrpcping.aspx
http://holycowdude.com/rpc/ping
http://wasalive.com/ping
http://blogpeople.net/servlet/weblogUpdates
http://blogsearch.google.com/pingRPC2nd
http://api.my.yahoo.com/rpc2
http://pinger.blogflux.com/rpc
http://rpc.icerocket.com:10080
http://blog.goo.ne.jp/xmlrpc
http://pingoat.com/goat/rpc2
http://rcs.datashed.net/rpc2
http://rpc.blogbuzzmachine.com/rpc2
http://newsisfree.com/rpccloud
http://queerfilter.com/ping
http://weblogues.com/rpc
http://api.mw.net.tw/RPC2
http://api.my.yahoo.com/ping
http://blogsdominicanos.com/ping
http://blogsearch.google.co.uk/pingRPC2
http://blogsearch.google.us/pingRPC2
http://feedsky.com/api/RPC2
http://fgiasson.com/pings/ping.php
http://focuslook.com/ping.php
http://holycowdude.com/rpc/ping
http://imblogs.net/ping
http://ping.blogg.de
http://ping.blogs.yandex.ru/RPC2
http://ping.fakapster.com/rpc
http://ping.wordblog.de
http://pinger.onejavastreet.com
http://rpc.tailrank.com/feedburner/RPC2
http://rpc.wpkeys.com
http://rssfeeds.com/suggest_wizzard.php
http://rssfwd.com/xmlrpc/api
http://signup.alerts.msn.com/alerts-PREP/submitPingExtended.doz
http://weblogalot.com/ping
http://xianguo.com/xmlrpc/ping.php
http://zhuaxia.com/rpc/server.php
http://focuslook.com/ping

2. Файл robots.txt для блога

Чтобы ваш блог корректно индексировался поисковыми системами, нужно дать специальные указания для роботов, которые осуществляют индексацию сайта. Список правил, по которым они должны следовать – находится в файле robots.txt. Этот файл должен находиться в корневой папке вашего блога – там же где и папки wp-admin, wp-content, wp-includes, а так же файлы index.php, wp-config.php, wp-login.php и пр.

Файл robots.txt содержит информацию о страницах, которые нельзя индексировать, об основном зеркале сайта, пути к карте сайта (файл sitemap.xml). Файл robots.txt – текстовый файл, создать его можно в самом простом текстовом редакторе – “Блокнот”. Для сайта, который находится по адресу http://website.com/ этот файл может выглядеть так:

User-agent:*
Disallow: /administrator
Host: website.com
Sitemap: http://website.com/sitemap.xml

Символ звездочка, как и при маскировании файлов, означает “для всех”. User-agent:* – сообщает, что правила ниже распространяются на всех роботов поисковых систем. Можно настроить правила для каждой поисковой системы отдельно. Вместо звездочки можно тогда использовать: yandex для поисковой системы Яндекс, googlebot – для Google и т.д. Тогда файл robots.txt мог бы выглядеть так:

User-agent:yandex
Disallow: /administrator

User-agent:googlebot
Disallow: /administrator
Disaloow: /registrator

Host: website.com
Sitemap: http://website.com/sitemap.xml

Команда Disallow запрещает роботам поисковых систем индексировать страницы. Это связано с тем, что бы в поисковой выдаче не выводились страницы, которые связанные с консолью администрирования сайтом. Так же существуют темы или фреймворки, которые для создания одной страницы требуют создания дополнительных служебных страниц, которые как таковые на сайте нигде не используются.

Команда Sitemap: указывает на путь к файлу sitemap.xml. Этот файл так же необходим роботам для качественной индексации сайта. Команда Allow – противоположная по своему смыслу команде Disallow – она разрешает индексировать содержимое.

Итак для сайта http://website.com на CMS WordPress базовый файл robots.txt выглядит так:

User-agent: Googlebot-Image
Disallow:
Allow: /*

User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: /category/*/*
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /*?

Allow: /wp-content/uploads/

Host: website.com

Sitemap: http://website.com/sitemap.xml

Нужно также добавить страницы, которые вы хотите чтоб не индексировались. Как правило, это вспомогательные страницы premium WordPress тем или фреймворков.

Плагины для SEO-оптимизации блога

Плагин для продвижения сайта SEO Ultimate – мощнейший инструмент поисковой оптимизации контента вашего блога на WordPress. Данный инструмент позволяет изменять метаданные сайта (meta description), ключевые слова (meta keywords), описания разделов сайта, описание (генерация) заголовков страниц (Title) сайта, метаданные для перепоста страниц сайта в социальных сетях. Данный плагин абсолютно бесплатный и очень часто выходят свежие обновления.

Не стоит забывать и о таком способе продвижения, как подпись всех изображений, которые используются на сайте. Не забываем заходить в свойство медиафайла и заполнять поле «Аттрибут alt». Это очень важно для индексации роботами поисковых систем.

Использование плагина Google XML Sitemap позволяет держать в актуальном состоянии файл sitemap.xml. Для ускорения индексации сайта, а так же ее качества рекомендую использовать этот файл – sitemap.xml. Не стоит забывать указывать путь к этому файлу в инструментах для вэбмастеров Яндекса (http://webmaster.yandex.ru) и Google (http://google.com/webmasters).

При создании страниц и записей сайта не стоит забывать про стили форматирования, такие как Заголовок1, Заголовок2, Заголовок3 и т.д., которые выделяются HTML-тегами h1, h2, h3 и т.д., соответственно. Роботы поисковых систем, индексируя контент сайта, особо выделяют надписи обрамленные этими тегами. Именно поэтому в заголовках лучше использовать словосочетания из семантического ядра.  Кроме того стоит использовать HTML-тег strong для выделения значимых слов в самом тексте.

Постоянно оптимизируйте ваш сайт,  следите за посещаемостью, источниками пользовательского трафика, но не уходите слишком далеко в SEO оптимизацию. Помните, что сайт, который создан исключительно для роботов поисковых систем не пригоден для восприятия обычными людьми.

Инструменты для вебмастеров

Каждая поисковая система имеет страницу инструменты для веб мастеров. Обязательно пройдите регистрацию в самых основных.

Яндексwebmaster.yandex.ru

Google — google.com/webmasters

Bing bing.com/toolbox/webmaster

С помощью данных сервисов вы сможете наблюдать как поисковые системы индексируют ваш сайт, показывают ошибки индексирования, отслеживают вредоносный код на сайте. Не стоит пренебрегать рекомендациями, которые выдают сервисы для вебмастеров. Обязательно укажите регион сайта. Если ваш блог рассчитан на широкую аудиторию, тогда укажите регион — Россия; в том случае, если аудитория сайта — это какой-то отдельный регион или город, то сообщите поисковикам об этом.

С помощью инструментов для вебмастеров можно также просматривать по каким поисковым запросам к вам приходят пользователи и по каким запросам сайт отображается в поисковой выдаче.



И самое главное…

Пишите уникальный контент: не воруйте статьи. И все у вас получится.

 

Игорь Огарев
Создатель блога бизнес идей ogaryov.com, владелец студии разработки сайтов Игоря Огарева — Ogaryov.Ru, WordPress fan;)