среда, 13 декабря 2006 г.

Напомиминаем Google о себе

В статье Пользуемся файлом robots.txt я описал, как можно заставить Google и другие поисковики не индексировать некоторые страницы Вашего сайта. Цель же этой статьи - совсем противоположная. Google не сильно старается обновлять информацию о содержимом вашего сайта. Но это можно сделать вручную.



Пример1: Сайт.

Для того, чтобы указать Google содержимое сайта, надо создать файл sitemap.xml и поместить его в корневой каталог вашего сайта. Для создания sitemap.xml можно воспользоваться услугой на сайте http://www.xml-sitemaps.com/index.php. Заходим на этот сайт, вводим URL своего сайта и ждем пока оно сгенерирует sitemap. Выбирам не сжатый sitemap.xml и загружаем его в корень нашего сайта. Теперь идем на сайт Google -> Моя учетная записть -> Инструменты для веб мастеров -> жмем на наш сайт -> Файлы Sitemap. (учитывалось что вы уже имеете google account и что вы уже добавили ваш сайт в инструментах веб-мастера (все это делается интуитивно)). Теперь жмем "добавить sitemap" и все. Для обычного сайта вроде разобрались.

Пример2: Blogger beta

Здесь есть проблема. Я не могу добавить файл в корень моего блога (может это и возможно, но я не знаю как). Поэтому пример1 отпадает. Но есть решение даже попроще. На Blogger существуют RSS feeds. Вот их мы и добавим в sitemap. Для этого, делаем все также как и в примере1, но заместь sitemap.xml, добавляем http://yourblogname.blogspot.com/rss.xml. В моем случае: http://linux-ru.blogspot.com/. Как приведенно на рисунке ниже:













Все. Теперь Google знает что находится у вас на сайте. Ну а как он этим используется.... это уже другой вопрос. Если ваш сайт или блог интенсивно обновляется, то файл этот стоит периодически менять.

8 коммент.:

Анонимный комментирует...

Для примера 1 у меня стоит плагин wordpress, который sitemap обновляет сам.

Для примера 2 я добавлял atom.xml, и не нужно его обновлять, он обновляется сам.

Если точнее, я даже не представляю как на blogger-beta вручную обновлять atom.xml.

И так же можно поспорить о том, что sitemap сильно помогают в скорости, с которой обновляется информация в кэше google для сайта.

Google любит хороший и свежий контент, так что он старается обновлять сайты с таким контентом как можно чаще.

Далее, как я понял из разных разрозненных источников, чем выше PR, тем чаще приходит спайдер.

Из этого следует, что нужно стараться получать обратные ссылки с сайтов с высоким PR - наш сайт получит более высокий рейтинг (со временем), и так как сайты с высоким PR часто обновляются, то спайдер индексируя такой сайт, ходит по ссылкам с него, и попадает на наш сайт.

serhiy комментирует...

>Далее, как я понял из разных разрозненных >источников, чем выше PR, тем чаще >приходит спайдер.

Да, и это понятно. Но вот как поднять PR?
Получать ссылки с сайтов с более высоким PR не так то ведь и легко. Во многих случаях это даже платно.

Для примера 1. Я не говорю о плагинах wordpress, а говорю о сайте, который вы написали сами, который вы кинули на обычный хостинг, без поддержки всех наворотов.
Для примереа 2. atom.xml и rss.xml это одно и тоже. Но это хорошо что вы такой эрудированый, и сами об этом догадались. А если я ничего об этом не знаю? Я пытаюсь добавить мой Atom rss feed. У меня он выглядит так. http://linux-ru.blogspot.com/feeds/posts/default
Т.е. никаких намеков на xml. Если ввести это в google, он этого не поймет и выдаст ошибку.

Вообще о том как раскрутить сайт, сделали целую науку и назвали SEO (search engine optimization). Многие на этом зарабатывают деньги. Это все не так просто, как кажется. Я просто привел маленький примерчик.

Анонимный комментирует...

Я так понимаю, для того что бы получить ссылки с высоким PR, нужно писать что-нибудь интересное, и другие будут ссылаться на это.

Как говорится, "content is king".

Насчет купленных ссылок: MSN Live начал активно баннить сайты, которые раскручиваются с помощью купленных ссылок, считая их спамом.

Google, если каким-то образом догадается, что эта ссылка купленная (обычно такие ссылки не релеватны к содержанию сайта), не учитывает их.

Про то, что нужно добавлять atom.xml я прочитал в справочном центре google.

Да, не так давно, формат sitemaps поддержали Yahoo и Microsoft.

Создан даже сайт, www.sitemaps.com.

Я также же знаю, что все что мы здесь обсуждаем называется SEO.

И согласен, что это не очень просто.

Главную проблему в примере1 я вижу в том, что бы обновлять sitemap автоматически.

Плагин для wp, которым я пользуюсь, может так же включать в sitemap статические страницы с основного сайта. Это удобно.

serhiy комментирует...

Писать что-нибудь интересное... Да. Но это понятие растяжимое. Вот мы пишем о Linux. Нам это интересно. Но сколько процентов в инете, таких как мы? Большинсто предпочитает висеть на удафф.ком, и тому подобное.
Теперь о платных сслылках. Я думаю это нереально. Вот есть у меня деньги, я беру и плачу Linux.org, а он берет и размещает у себе ссылки, мол такой крутой сайт. Всем правят деньги. Последние проекты Рунета связаны с миллионами баксов. Все вертиться вокруг Web 2.0 и социальных сетей.
Но конечно можно и без денег. Разум ценился всегда. Надо познавать:).

В Рунете это развито пока не сильно. Но на англоязычных сайтах, только то и делают, что пишут о SEO. Вот сегодня вычитал о плагине к Firefox, который отслеживает данные для вашего сайта. Опять же, надо учиться...

На счет плагина wp. Можно поподробней. У меня есть сайт на бесплатном хостинге. На нем 20 статических страничек. Как его связать с wp?

Анонимный комментирует...

Насчет того, кому интересно: у меня 50 читателей, согласно feedburner, у "Записок дебианщика" уже больше 70.

Судя по статистике, с начала месяца у одиного из моих постов было 755 хитов, у другого - 636.

Значит, кто-то читает, и кому-то интересно.

Я знаю, что у нескольких, так сказать, linux-powered блогов в рунете PR довольно-таки высокий.

В среднем где-то 3-4. У одного точно 5. Если учесть, что в рунете по-моему нет сайта с PR выше 7, то это неплохо.

В принципе, гонка за PR себя не очень-то оправдывает. Позиция в выдаче google теперь никак не зависит от PR.

Мой блог по некоторым запросам выше, чем сайты с PR 3 и 4. А у меня PR0.

Про плагин для wp:
Без установленного wp не получиться свять статические страницы.

Может, поможет вот эта страница:
Sitemaps Third Party Programs & Websites
http://code.google.com/sm_thirdparty.html

serhiy комментирует...

Спасибо за ссылку. Почитаю. На счет PR в рунете выше 7. А вообще выше бывает? У Microsoft смотрел - 7.
А то что читают о Linux - это хорошо. Будем писать и будем читать :)

Анонимный комментирует...

Вообще максимальный PR - 10. Насколько я знаю, что-то около десятка сайтов всего.

Эти сайты переиндексируются по нескольку раз в день.

Что интересно, разница в "важности" страниц возрастает в геометрической прогрессии.

Вот еще ссылочка - проверка PR.
Google PageRank Checker.
http://www.rankalert.net/pagerank-checker.php

serhiy комментирует...

Спасибо за ссылку. Но я установил расширения в Firefox - SEO for Firefox. Когда ищеш в гугле, оно внизу высвечивает кучу информации о сайте.

:).Точно 10. По указанной сслыке, ввел google.com. У него как раз - 10.