среда, 13 декабря 2006 г.

Напомиминаем Google о себе

В статье Пользуемся файлом robots.txt я описал, как можно заставить Google и другие поисковики не индексировать некоторые страницы Вашего сайта. Цель же этой статьи - совсем противоположная. Google не сильно старается обновлять информацию о содержимом вашего сайта. Но это можно сделать вручную.



Пример1: Сайт.

Для того, чтобы указать Google содержимое сайта, надо создать файл sitemap.xml и поместить его в корневой каталог вашего сайта. Для создания sitemap.xml можно воспользоваться услугой на сайте http://www.xml-sitemaps.com/index.php. Заходим на этот сайт, вводим URL своего сайта и ждем пока оно сгенерирует sitemap. Выбирам не сжатый sitemap.xml и загружаем его в корень нашего сайта. Теперь идем на сайт Google -> Моя учетная записть -> Инструменты для веб мастеров -> жмем на наш сайт -> Файлы Sitemap. (учитывалось что вы уже имеете google account и что вы уже добавили ваш сайт в инструментах веб-мастера (все это делается интуитивно)). Теперь жмем "добавить sitemap" и все. Для обычного сайта вроде разобрались.

Пример2: Blogger beta

Здесь есть проблема. Я не могу добавить файл в корень моего блога (может это и возможно, но я не знаю как). Поэтому пример1 отпадает. Но есть решение даже попроще. На Blogger существуют RSS feeds. Вот их мы и добавим в sitemap. Для этого, делаем все также как и в примере1, но заместь sitemap.xml, добавляем http://yourblogname.blogspot.com/rss.xml. В моем случае: http://linux-ru.blogspot.com/. Как приведенно на рисунке ниже:













Все. Теперь Google знает что находится у вас на сайте. Ну а как он этим используется.... это уже другой вопрос. Если ваш сайт или блог интенсивно обновляется, то файл этот стоит периодически менять.

8 комментариев:

  1. Для примера 1 у меня стоит плагин wordpress, который sitemap обновляет сам.

    Для примера 2 я добавлял atom.xml, и не нужно его обновлять, он обновляется сам.

    Если точнее, я даже не представляю как на blogger-beta вручную обновлять atom.xml.

    И так же можно поспорить о том, что sitemap сильно помогают в скорости, с которой обновляется информация в кэше google для сайта.

    Google любит хороший и свежий контент, так что он старается обновлять сайты с таким контентом как можно чаще.

    Далее, как я понял из разных разрозненных источников, чем выше PR, тем чаще приходит спайдер.

    Из этого следует, что нужно стараться получать обратные ссылки с сайтов с высоким PR - наш сайт получит более высокий рейтинг (со временем), и так как сайты с высоким PR часто обновляются, то спайдер индексируя такой сайт, ходит по ссылкам с него, и попадает на наш сайт.

    ОтветитьУдалить
  2. >Далее, как я понял из разных разрозненных >источников, чем выше PR, тем чаще >приходит спайдер.

    Да, и это понятно. Но вот как поднять PR?
    Получать ссылки с сайтов с более высоким PR не так то ведь и легко. Во многих случаях это даже платно.

    Для примера 1. Я не говорю о плагинах wordpress, а говорю о сайте, который вы написали сами, который вы кинули на обычный хостинг, без поддержки всех наворотов.
    Для примереа 2. atom.xml и rss.xml это одно и тоже. Но это хорошо что вы такой эрудированый, и сами об этом догадались. А если я ничего об этом не знаю? Я пытаюсь добавить мой Atom rss feed. У меня он выглядит так. http://linux-ru.blogspot.com/feeds/posts/default
    Т.е. никаких намеков на xml. Если ввести это в google, он этого не поймет и выдаст ошибку.

    Вообще о том как раскрутить сайт, сделали целую науку и назвали SEO (search engine optimization). Многие на этом зарабатывают деньги. Это все не так просто, как кажется. Я просто привел маленький примерчик.

    ОтветитьУдалить
  3. Я так понимаю, для того что бы получить ссылки с высоким PR, нужно писать что-нибудь интересное, и другие будут ссылаться на это.

    Как говорится, "content is king".

    Насчет купленных ссылок: MSN Live начал активно баннить сайты, которые раскручиваются с помощью купленных ссылок, считая их спамом.

    Google, если каким-то образом догадается, что эта ссылка купленная (обычно такие ссылки не релеватны к содержанию сайта), не учитывает их.

    Про то, что нужно добавлять atom.xml я прочитал в справочном центре google.

    Да, не так давно, формат sitemaps поддержали Yahoo и Microsoft.

    Создан даже сайт, www.sitemaps.com.

    Я также же знаю, что все что мы здесь обсуждаем называется SEO.

    И согласен, что это не очень просто.

    Главную проблему в примере1 я вижу в том, что бы обновлять sitemap автоматически.

    Плагин для wp, которым я пользуюсь, может так же включать в sitemap статические страницы с основного сайта. Это удобно.

    ОтветитьУдалить
  4. Писать что-нибудь интересное... Да. Но это понятие растяжимое. Вот мы пишем о Linux. Нам это интересно. Но сколько процентов в инете, таких как мы? Большинсто предпочитает висеть на удафф.ком, и тому подобное.
    Теперь о платных сслылках. Я думаю это нереально. Вот есть у меня деньги, я беру и плачу Linux.org, а он берет и размещает у себе ссылки, мол такой крутой сайт. Всем правят деньги. Последние проекты Рунета связаны с миллионами баксов. Все вертиться вокруг Web 2.0 и социальных сетей.
    Но конечно можно и без денег. Разум ценился всегда. Надо познавать:).

    В Рунете это развито пока не сильно. Но на англоязычных сайтах, только то и делают, что пишут о SEO. Вот сегодня вычитал о плагине к Firefox, который отслеживает данные для вашего сайта. Опять же, надо учиться...

    На счет плагина wp. Можно поподробней. У меня есть сайт на бесплатном хостинге. На нем 20 статических страничек. Как его связать с wp?

    ОтветитьУдалить
  5. Насчет того, кому интересно: у меня 50 читателей, согласно feedburner, у "Записок дебианщика" уже больше 70.

    Судя по статистике, с начала месяца у одиного из моих постов было 755 хитов, у другого - 636.

    Значит, кто-то читает, и кому-то интересно.

    Я знаю, что у нескольких, так сказать, linux-powered блогов в рунете PR довольно-таки высокий.

    В среднем где-то 3-4. У одного точно 5. Если учесть, что в рунете по-моему нет сайта с PR выше 7, то это неплохо.

    В принципе, гонка за PR себя не очень-то оправдывает. Позиция в выдаче google теперь никак не зависит от PR.

    Мой блог по некоторым запросам выше, чем сайты с PR 3 и 4. А у меня PR0.

    Про плагин для wp:
    Без установленного wp не получиться свять статические страницы.

    Может, поможет вот эта страница:
    Sitemaps Third Party Programs & Websites
    http://code.google.com/sm_thirdparty.html

    ОтветитьУдалить
  6. Спасибо за ссылку. Почитаю. На счет PR в рунете выше 7. А вообще выше бывает? У Microsoft смотрел - 7.
    А то что читают о Linux - это хорошо. Будем писать и будем читать :)

    ОтветитьУдалить
  7. Вообще максимальный PR - 10. Насколько я знаю, что-то около десятка сайтов всего.

    Эти сайты переиндексируются по нескольку раз в день.

    Что интересно, разница в "важности" страниц возрастает в геометрической прогрессии.

    Вот еще ссылочка - проверка PR.
    Google PageRank Checker.
    http://www.rankalert.net/pagerank-checker.php

    ОтветитьУдалить
  8. Спасибо за ссылку. Но я установил расширения в Firefox - SEO for Firefox. Когда ищеш в гугле, оно внизу высвечивает кучу информации о сайте.

    :).Точно 10. По указанной сслыке, ввел google.com. У него как раз - 10.

    ОтветитьУдалить