Отправляет email-рассылки с помощью сервиса Sendsay

Раскрути свой сайт!

  Все выпуски  

Раскрути свой сайт!


Информационный Канал Subscribe.Ru

Оптимизация, продвижение сайта, контекстная и баннерная реклама
РАСКРУТИ
СВОЙ  САЙТ
   
7 октября 2005 г.


Содержание выпуска

- Semonitor 3.0 - программа для оптимизации сайта. Expert edition
- Оптимизация расчета ссылочной популярности и учета ее при ранжировании результатов поиска отчет по гранту Яндекса 2005
- Научные работы «Яндекса» — в открытом доступе
- Магия первого места
- Дорвеи или рекламные страницы - в чем разница?
- Как сделать блог (сетевой дневник) посещаемым и популярным - 24 совета
- Когда ключевые слова не работают
- Блогосфера засоряется спамом
- Рейтинг поисковых запросов за последние 10 лет
- Не могу найти на Google


Semonitor 3.0 - программа для оптимизации сайта. Expert edition

В предыдущих статях были описаны возможности программ, входящих в стандартную и профессиональную редакции пакета Semonitor 3.0 Теперь мы познакомимся с утилитами, входящими в редакцию Semonitor Expert. Напомним, что сайт программы находится по адресу www.semonitor.ru, а скачать ее можно по ссылке www.semonitor.ru/semonitor-rus.exe.

Модуль «Page Rank анализатор». Данная программа позволяет производить автоматический анализ большого числа URL, определяя для каждого следующие параметры:

  • Google PageRank;
  • тематический индекс цитирования поисковой системы Яндекс;
  • число внешних ссылок, согласно версиям различных поисковых систем;
  • присутствие в каталогах DMOZ, Yahoo и Яндекс-каталоге;
  • title текст страницы.

В начале несколько слов о таких параметрах как PageRank и ТИЦ

Ключевой функцией любой поисковой системы является определение релевантности (соответствия) той или иной страницы поисковому запросу. Релевантность определяется путем анализа текстового содержимого страницы. Однако на практике очень часто оказывается, что многие страницы (т.н. дорвеи) создаются специально для того или иного запроса. В результате они имеют высокую релевантность, но малую информативную ценность для посетителя.

Обойти эту проблему можно несколькими путями, но наиболее эффективным решением является использование т.н. индекса цитирования, который реально отражает абсолютное значение важности страницы в численном эквиваленте.

Именно поэтому поисковые системы и используют в своей работе параметр ссылочной цитируемости, который учитывает количество и качество внешних ссылок. И это вполне закономерно: ведь если сайт содержит важную и интересную информацию, то на него будут активно ссылаться и другие тематические ресурсы. Таким образом, ссылочная популярность становится важнейшим фактором при ранжировании результатов поиска.

Кроме того, для оценки популярности той или иной страницы используется взвешенный индекс цитирования (ВИЦ). Он показывает популярность страницы относительно популярности всех прочих страниц в Интернете. ВИЦ определяется для каждой страницы, о которой знает поисковая система. Обычно термин «взвешенный индекс цитирования» (ВИЦ) употребляется применительно к системе Яндекс.

PageRank – это взвешенный индекс цитируемости, который используется поисковой системой Google. Узнать значения PageRank для любой из страниц можно с помощью Google ToolBar, специального дополнения для браузера Internet Expoler. Semonitor позволяет определять эти значения автоматически для большого списка сайтов.

Тематический индекс цитирования (ТИЦ) Яндек. Как и следует из названия, это индекс цитирования, который показывает популярность сайта по отношению к другим тематически близким ресурсам. Существует еще одно важное отличие ТИЦ от взвешенного индекса цитирования: ТИЦ определяется для всего сайта целиком, а не для каждой отдельной страницы.

Автоматический анализ этих показателей для большого числа сайтов может использоваться для различных целей, и наиболее явная из них - оценка уровня конкуренции по заданному списку URL.

Программа Semonitor позволяет получить результаты поиска по заданному ключевому слову. Обладая этой информацией, можно оценить средний PageRank и ТИЦ сайтов, находящихся в первой десятке (двадцатке, сотне и т.д.). Что, в свою очередь, позволяет представить уровень конкуренции по заданному слову. Дополнить эту картину помогут данные о количестве внешних ссылок и о регистрации ресурса в разнообразных интернет-директориях (DMOZ, Yahoo, Яндекс-каталоге).

Другим способом применения утилиты PageRank анализатор является анализ внешних ссылок на предмет их ценности. Например, можно проанализировать список внешних ссылок на сайты ваших конкурентов и определить их источники PageRank и ТИЦ.

Модуль «Подбор ключевых слов». Подбор релевантных поисковых фраз является важнейшим пунктом при оптимизации сайта. Привести на свой ресурс большое количество посетителей – это лишь полдела. Гораздо важнее, чтобы они представляли целевую аудиторию, а не праздных серферов. Для этого необходимо провести правильный подбор ключевых слов, которые играют одну из главных ролей в привлечении целевой аудитории.

Утилита подбора ключевых слов из пакета Semonitor поможет решить две принципиальные задачи, связанные с выбором релевантных словосочетаний для сайта – осуществит подбор предложений (рекомендаций) для заданных фраз и оценит уровень конкуренции по ним.

Прежде всего рассмотрим существующие источники информации по популярности ключевых слов.

  1. Сервисы по подбору ключевых слов. Статистику англоязычных запросов предоставляют Overture и WordTracker. WordTracker – это платный сервис, его бесплатный вариант позволяет подбирать лишь до 15 словосочетаний на заданный запрос. Статистику по русскоязычным запросам дают Яндекс и Рамблер.

    Следует учитывать, что реальная частота запросов может значительно отличаться от той, что выдает поисковая система.

  2. Подбор ассоциаций и тематически связных поисковых слов. Для англоязычных запросов такие сервисы предоставляют поисковые системы Yahoo и AskJeeves. Здесь мы не можем увидеть частоту запросов, однако проанализировать предлагаемые словосочетания в любом случае стоит.
  3. Анализ сайтов конкурентов. Модуль «Подбор ключевых слов» скачивает страницы, попавшие в выдачу поисковика по тому или иному запросу, после чего производит анализ мета-тега .

Этот мета-тег специально предназначен для перечисления в нем ключевых слов, релевантных данной странице. В настоящее время поисковики уделяют ему не очень много внимания, однако большинство сайтов содержит этот тег (в любом случае его рекомендуется использовать при оптимизации сайта). Очевидно, что наличие слова или фразы в мета-теге еще не означает, что страница реально оптимизирована под эту фразу, поэтому после разбора тега и составления списка слов Semonitor подсчитает, сколько раз каждое слово встречается на странице, что в свою очередь поможет отбросить случайные словосочетания.

Для подбора предложений по заданным ключевым словам Semonitor использует все вышеперечисленные источники данных.

Теперь следует более детально определиться, какие же слова мы выберем для раскрутки сайта. По понятным причинам слова с низкой популярностью, либо не относящиеся к тематике сайта, отбрасываются сразу. К словам с очень высокой частотой запросов следует относиться не менее осторожно. Скорее всего, уровень конкуренции по ним столь велик, что вывести новый сайт в первую десятку чрезвычайно сложно. Таким образом, необходимо найти некую «золотую середину».

В этом и состоит второй этап работы над подбором ключевых слов – определить уровень конкуренции по привлекательным для нас фразам и выбрать среди них те, по которым мы реально способны выйти в топ поисковых систем.

Из списка возможных вариантов, созданного Semonitor, следует выбрать интересные для нас словосочетания, отметив их галочкой. После это будет произведен анализ уровня конкуренции по этим фразам. При этом для каждого слова и словосочетания будут определены следующие параметры:

  • средний PageRank;
  • среднее число внешних ссылок;
  • число страниц, содержащих это слово/фразу (число результатов поиска)
  • число страниц, содержащих точное совпадение этой фразы (т.е., как при поиске в кавычках)

Средний PageRank и среднее число внешних ссылок определяются следующим образом: информация собирается для первых десяти сайтов, находящихся в выдаче поисковика, после чего считаются средние значения.

Сравнивая эти средние цифры с данными своего сайта, можно примерно оценить шансы на попадание в топ по выбранной фразе.

Модуль «HTML анализатор». Анализатор содержимого HTML страниц (или контент-анализатор) позволяет разобрать html-код на составляющие точно так же, как это сделает поисковая система.

Использовать программу можно несколькими способами. Прежде всего, она поможет проанализировать содержание своего сайта еще в процессе его создания. Кроме того, программа позволяет детально анализировать сайты ваших конкурентов, помогая определить удачные ключевые фразы и выбрать правильные принципы построения сайта. Анализировать можно как онлайновые проекты, так и локальные html-файлы.

Анализ ключевых слов. По каждому слову HTML-анализатор соберет информацию о том, сколько раз это слово встретилось в html-коде, в каких именно тегах (title, bold, мета-теги и т.д.), подсчитает общее число вхождений (т.е. по всей странице, включая невидимые и служебные теги, такие как Alt, мета-теги и пр.), а также число вхождений в видимый посетителю сайта текст. Для каждого слова будут определены такие параметры как плотность и вес.

Плотность ключевого слова на странице показывает относительную частоту содержания слова в тексте. Плотность измеряется в процентах. Например, если заданное слово встретилось 5 раз на странице из 100 слов, то плотность этого слова равна 5%. Слишком низкая плотность приведет к тому, что поисковая система не придаст должного значения этому слову. Слишком высокая плотность способна включить спам-фильтр.

Вес слов. Для каждого слова на странице будет также подсчитан его вес. Вес – это число, которое оценивает «важность» данного слова на странице. При оценке веса учитывается общее количество вхождений данного слова на странице, расстояние от начала текста (чем дальше от начала, тем меньший вес имеет слово с точки зрения поисковой системы), присутствует ли данное слово в специальных тегах (жирный текст, ссылки, title текст и других).

Для подсчета веса используются алгоритмы, схожие с теми, что применяются реальными поисковыми системами. Чем больше вес слова, тем больше шансов у этой страницы шансов подняться выше в результатах поиска. Исключение составляют случаи чрезмерного употребления ключевого слова на странице, что вызывает срабатывание спам-фильтра поисковой системы.

Анализ ключевых фраз. Здесь все схоже с предыдущим пунктом. Из слов составляются ключевые фразы, для которых также подсчитывается число вхождений в текст и их вес.

Вес фразы зависит от веса составляющих ее слов, от того, встречается ли фраза в тексте целиком, и от некоторых других параметров.

Подводя итоги, еще раз напомним о возможных направлениях использования программы. HTML-анализатор может применяться для анализа контента собственного сайта еще в процессе его создания. Предварительная оценка всех параметров и веса слов и фраз позволяет оценить правильность оптимизации. Кроме того, программа может применяться для детального анализа сайтов конкурентов, поиска удачных ключевых фраз и стратегий.

На этом обзор возможностей пакета Semonitor 3.0 завершается. В его состав входит 9 программ для раскрутки сайта, каждая из которых была подробно описана в этой и предыдущих статьях.
semonitor.ru


Оптимизация расчета ссылочной популярности и учета ее при ранжировании результатов поиска отчет по гранту Яндекса 2005

Аннотация

Проблема поисковых алгоритмов, учитывающих наличие внешних ссылок на документ или сайт, состоит в возможности искусственного увеличения ссылочной популярности путем обмена ссылками, участия в ссылочных фермах. Для решения проблемы накруток обычно используют индивидуальные меры: исключение сайтов и ферм из индекса, наложение фильтров на исходящие ссылки и т.п., что требует участия человека-модератора. Кроме того, масса промежуточных случаев (тематические кольца, обмен ссылками в узких темах), могут быть ошибочно отнесены в категорию накрутчиков.

В работе предложена идея по разделению индекса ссылочной популярности (PageRank, SiteRank) на независимые части, соответствующие «добровольной» и «обменной» цитируемости с тем, чтобы в алгоритме ранжирования учитывать их с разными весами. Предложенный подход позволяет количественно и алгоритмически определять степень вовлеченности в системы ссылочной накрутки.

Введение

Алгоритмы поисковых систем по ранжированию веб-документов, учитывающие наличие ссылок на других документах, подвержены внешним влияниям. Влияние на результаты ранжирования со стороны владельцев сайтов может осуществляться с помощью обмена ссылками с другими сайтами, участия в ссылочных фермах, создания ссылок на свои сайты в гостевых книгах, каталогах, форумах, создания сети поддерживающих основной сайт ресурсов, обменивающихся ссылками и ссылающимися на основной сайт.

Для решения проблемы накрутки ссылочной популярности обычно используют такие меры, как: исключения сайтов из индекса, наложение фильтра на исходящие ссылки с сайтов. Однако, эти действия требуют ручной проверки ссылочных ферм и отдельных сайтов. Кроме того, ссылочная накрутка может остаться незамеченной при следующих условиях:

  1. Малые масштабы накрутки (число сайтов, участвующих в обмене ссылками);
  2. «Слив» ссылочной популярности с заранее «накачанных» ресурсов;
  3. Небольшая степень перелинковки (сайты могут ссылаться друг на друга не по алгоритму «каждый на каждого», а разреженно)

Кроме того, ошибки человека-модератора могут возникать в случаях, если:

  1. В узких тематических областях естественным образом возникает перелинковка сайтов между собой;
  2. Веб-кольца для обмена посетителями могут вызвать подозрения;
  3. Обмен видимой пользователю статической рекламой со ссылками.

В общем случае, почти любой обмен ссылками предполагает договоренность между ссылающимися сайтами. Следовательно, ценность таких ссылок в алгоритме ранжирования должна быть более низкой, нежели ценность «добровольных», односторонних ссылок.

В условиях, когда около 27% всех ссылок в русскоязычном Интернете (по данным Яндекса) являются обменными (т.е., в обмен вовлечено около 14% хостов) невозможно просто исключить взаимные ссылки из рассмотрения. Кроме того, обмен ссылками, даже и договорной, не всегда является накруткой – многие владельцы сайтов обмениваются ссылками с действительно качественными ресурсами в своей тематике и не заслуживают штрафных санкций.

При учете ссылочной популярности отдельных документов (хостов) часто в виде ее количественной меры используют взвешенную цитируемость, или PageRank. Алгоритм расчета PageRank документа предполагает учет цитируемости ссылающихся на него документов. Однако в алгоритме PageRank смешиваются все виды ссылок – односторонние и взаимные. Отсюда возникают следующие возможности для накрутки ссылочной популярности путем создания ссылочных ферм и массового обмена ссылками.

Невозможность разделить разные компоненты PageRank ведет к необходимости принятия резких мер – сайт либо полностью принимается поисковой системой, либо полностью отвергается ей. Кроме того, в этой деятельности особую роль играет человеческий фактор.
Поэтому задачей является разработка алгоритмического метода количественной оценки вклада «добровольной» и «обменной» цитируемости в общую цитируемость.

В данной работе предлагается метод количественной оценки цитируемости хостов (SiteRank), позволяющий разделить долю цитируемости, полученную путем специальных действий (обмена ссылками и т.п.) и долю цитируемости, полученную за счет добровольных односторонних ссылок.

В дальнейшем эти ранги страниц можно использовать в алгоритмах ранжирования с разными весами при учете ссылочного ранжирования.

Идея исследования

Идея исследования – в разделении общей системы ссылок между хостами в Интернете на 2 подсистемы, не связанные между собой ссылками. Первая подсистема состоит из только лишь обменных ссылок. Вторая подсистема состоит из всех остальных ссылок.
Читать дальше
Евгений Трофименко


Научные работы «Яндекса» — в открытом доступе

Когда я встречаю в интернет - изданиях однозначное мнение о вреде большого количества счетчиков, мне хочется улыбнуться. Так не бывает, господа. Всегда есть плюсы и минусы.

Итак, начну с минусов:

  • счетчики долго загружаются, - пожалуй, основной недостаток. Сложно не согласиться с очевидным. Хотя различие между временем запроса и временем загрузки изображения, несомненно, есть.
  • счетчики портят внешний вид страницы - а этот пункт уже зависит от дизайна. Иногда они вписываются довольно органично.
  • нет единого подхода к подсчету посетителей - разница в показателях может достигать и 25%.

Обратимся к плюсам:

Теперь русскоязычные читатели и исследователи могут изучить такие интереснейшие темы как структура русскоязычной части глубинного Веба (авторы — Д. А. Шестаков, Н. С. Воронцова), автоматический поиск тематических сообществ (авторы — Д. Д. Козлов, А. А. Белова), анализ поведения пользователей «Яндекса» по веблогам (автор — Н. Е. Бузикашвили), быстрая классификация JPEG-изображений (авторы — А. Ю. Дорогов, Р. Г. Курбанов), распознавание типовых портретных изображений (авторы — М. В. Смирнов, И. Н. Сивяков), автоматическая рубрикация веб-страниц в иерархическом каталоге (авторы — Е. В. Дунаев, А. А. Шелестов), автоматическое формирование выпуска новостей (авторы — А. Н. Зевайкин, В. В. Корнеев) и многие другие. Полный список научных работ со ссылками на файлы PDF находится тут. На сайте выложены все работы, которые вошли в сборник «Интернет-Математика-2005». Сборник появится в бумажном виде в следующий понедельник, всего в нем будет опубликовано 25 работ.

Программа стипендий «Яндекса» учреждена с целью стимулировать отечественные исследования в области автоматической обработки веб-данных. Задачи, стоящие перед алгоритмически насыщенными интернет-приложениями, такими как веб-поиск, классификация веб-сайтов, агрегация новостей, фильтрация почтового спама, выбор товаров, контекстная реклама, требуют адекватных научных исследований. Вместе с тем, объем и уровень отечественных работ в этой области не достаточен по сравнению с аналогичными мировыми работами. Например, на последних конференциях RCDL-2004 и КИИ-2004 было представлено всего 4 и 5 научных работ, применимых к веб-данным. Это катастрофически мало.

Программа «Яндекса» должна помочь решить проблему. На эти цели в 2004–2005 гг. было выделено 3 млн руб в качестве грантов для победителей конкурса стипендий. Такая программа будет проводиться ежегодно.
Анатолий Ализар, webplanet.ru


Магия первого места

Все знают, что первые места среди результатов поиска дают огромное преимущество. Известно, что при перемещении сайта со второй на первую страницу с результатами поиска Google, трафик увеличивается в четыре-семь раз. При этом CTR ссылки тоже увеличивается в два раза.

Понятно, что первое место — самое выгодное. Это воспринималось как само собой разумеющееся, потому что первое место — по определению самая релевантная страница. Вы думаете, что пользователи просто выбирают страницу, которая наиболее соответствует их запросу? Оказывается, это не так. Исследователи из Корнельского университета провели специальное исследование и выяснили, что на самом деле пользователи слепо верят поисковой системе. Они просто жмут на первую ссылку, что бы там не находилось.

Ученые выяснили, что пользователи жмут на первую ссылку в 42% случаев, и только 8% выбирают вторую ссылку в списке. В преимуществе первого места нет ничего удивительного, однако оно слишком уж большое. Дело в том, что первая ссылка является релевантной поисковому запросу в 36% случаев, а вторая ссылка — в 26% случаев. Отсюда видно, что пользователи на самом деле слишком много внимания уделяют первой ссылке.

Магия первого действительно места существует. Об этом говорит вторая часть научной работы, проведенной исследователями. С помощью специального скрипта они меняли местами результаты поиска, так что вторая ссылка оказывалась на первом месте, в первая — на втором. И что же? Пользователи все равно продолжали жать на первую ссылку в 34% случаев (хотя она была релевантной всего лишь в 26% случаев), а на вторую (которая прежде была первой) — только в 12%. Результаты этого интересного эксперимента опубликованы в интернете (PDF). Здесь определенно присутствует какая-то магия.

Ученые пытаются как-то объяснить этот феномен. Есть две версии: 1) поисковики настолько хорошо работают, что они почти всегда помещают самую релевантную ссылку на первое место; 2) пользователи жмут на первую ссылку не из-за того, что она чем-то лучше, а просто потому что она первая — это можно объяснить ленью или чем-то иным.

Как показывает исследование, правильный ответ находится где-то посередине. С одной стороны, первая ссылка остается самой популярной, даже если она не является самой релевантной. С другой стороны, после перемены мест количество кликов на первую ссылку существенно уменьшилось: с 42% до 34%. То есть релевантность все-таки имеет значение, хотя магия первого места определенно существует.

Известный гуру в области юзабилити Якоб Нильсен посвятил этой теме одну из своих авторских колонок и назвал ее «Power of Defaults». Он подчеркивает, что установки по умолчанию очень сильно влияют на поведение пользователей во всех областях применения дизайна интерфейсов, так что поисковые системы здесь не исключение. Люди очень редко прибегают к функциям персонализации, где бы то ни было, поэтому выбор установок по умолчанию чрезвычайно важен в любой области, будь то регистрационная форма или анкета на сайте, программные интерфейсы или форма заказов в интернет-магазине.
Анатолий Ализар, webplanet.ru


Дорвеи или рекламные страницы - в чем разница?

Недавно я отвечал на одно сообщение в популярном форуме о SEO-маркетинге. Там был вопрос «А чем отличается рекламная страница от дорвея?». Сообщений подобной тематики было много, так что я решил, что пришло самое время написать про это статью.

Техника создания дорвеев – ничего нового

Если вы занимаетесь SEO-оптимизацией, вы наверняка слышали о дорвеях и задавались вопросом - хорошо это или плохо. Дорвеи появились не так давно, и из-за плохой репутации их часто называют «завлекалками», «мостовыми страницами», «воротами», но чаще всего «рекламными страницами». Их применение, как хорошее, так и плохое, как этичное, так и неэтичное постоянно обсуждается с тех пор, как их стали использовать.

Что такое дорвей?

Дорвей – это страница, созданная вебмастером или оптимизатором лишь с целью добиться высокого рейтинга в поисковиках. Обычно они насыщены ключевыми словами или фразами, которые направлены на продвижение и не видны в постоянной навигации сайта. Из-за того, что они имеют высокие позиции в результатах поиска, и посетитель с помощью этих страниц заходит на сайт, их называют дорвеями.

Тактика динозавров

С момента начала работы системы PageRank, измеряющей популярность ссылок сайта и ставшей основным фактором в алгоритме ранжирования сайтов, дорвеи стали практически бесполезными. В основном, из-за того, что нет гиперссылок, указывающих на эти страницы. И они не имеют хороших мест в результатах поиска. Поэтому многие компании прекратили использовать дорвеи, по крайней мере, серьезные SEO-компании.
Читать дальше
Дэвид Уоллас (David Wallace), i-mark.ru


Как сделать блог (сетевой дневник) посещаемым и популярным - 24 совета

Совет #1 – Как и откуда мне начать? Начать стоит с сервиса бесплатных блогов, таких как http://blogs.yandex.ru/, или раздела «Дневники» на различных информационных сайтах. Это позволит вам сконцентрироваться на содержании блога, не беспокоясь о вопросах программирования или хостинга.

Совет#2 – Вы должны решить, о чем будете писать. Хотя это и не обязательное требование, будет намного лучше, если вы выберете одну тему, на которой и будет основан весь ваш блог. Чем больше вы этой темой интересуетесь, тем легче вам будет собирать ответы и комментарии. Выберите такой предмет, о котором вы можете писать с энтузиазмом и легкостью. Найдите свою нишу.

Совет #3 – Всегда придерживайтесь темы. Как правило, все записи блога должны относиться к одной общей теме. Большинство ваших читателей больше заинтересует контент, связанный с определенной тематикой. Старайтесь не отходить от нее. Это обеспечит вам заинтересованных читателей.

Совет #4 – Самое главное - информация. Если вы хотите создать впечатление, что в какой-то области или секторе являетесь экспертом, следите за новостями. Всегда проверяйте факты, прежде чем высказывать свое мнение, от этого зависит ваша репутация. Если вы используете в вашем блоге статьи других людей, соблюдайте условия автора.

Совет #5 – Старая новость – не новость, но она может ею стать.  Делать записи в блог довольно утомительно и отнимает много времени, поэтому важно, чтобы информация была новой и точной. Статьи, новости и другие старые ресурсы можно переработать и использовать в контенте блога. Пока они остаются актуальными и информативными - это источник качественного контента.

Совет#6 – Будьте дисциплинированны и постоянны. Если вы упорно работали и завоевали в итоге свою аудиторию, вы наверняка не захотите ее потерять из-за недостатка общения. Если вам не хватает времени, используйте автоматическое обновление контента на блоге.

Совет#7 – Частота записей. Если контент вашего блога часто обновляется, роботы поисковиков станут индексировать ваши страницы регулярно. Ежедневное обновление вашего блога не только сделает его более интересным для читателей - поисковые машины будут индексировать его чаще. Постарайтесь каждый день добавлять что-то новое.

Совет#8 – Вопрос качества и количества. Для того, чтобы привлечь внимание поисковиков, вам нужно размещать у себя в блоге качественную информацию. Заголовок или одно предложение не вызовут интереса читателей и не помогут завоевать в списке результатов поиска первые места. Архивируйте устаревшие записи.
Читать дальше
Джон Те (John Teh), i-mark.ru


Когда ключевые слова не работают

Любой человек, который работает в сфере поисковой оптимизации по ключевым словам знает, что иногда ключевые слова могут дать огромный трафик, но итоговый уровень конверсии будет равен нулю.

Долгое время я размышлял над этой проблемой – почему релевантные ключевые слова могут привлечь сотни и тысячи посетителей, но результат получается совсем не тот, на который надеешься.

Ключевые слова, которые используют люди, неправильные

Давайте я приведу один пример:

Представьте себе, что я до смерти устал и хочу взять отпуск на пару недель. Я просто хочу поваляться на солнышке, почувствовать тепло песка, потягивать загадочный тропический коктейль и расслабляться. И вот однажды мой сосед, недавно вернувшийся из Мексики, сказал мне, что в Мексике великолепные пляжи. Так что я зашел на Google и сделал запрос "пляжи Мексики". Я получил о-очень много результатов. Все ресурсы, похоже, представляли из себя одно и то же, поэтому я кликнул на первый. Что я получил? Я увидел огромный безобразный магазин при отеле к югу от Канкуна. Я был разочарован. Что же было не так? Google сделал свою работу. Люди, оптимизирующие сайт отеля, сделали отличную работу. Но я не получил того, чего хотел.

Мы оптимизируем для разума, а не для чувств

И это неправильно. И в этом ошибка.

Вот что происходит. Когда мы оптимизируем, мы делаем это для двух типов аудитории - роботов поисковых машин и читателей. Если мы выполняем работу хорошо, мы пишем таким образом, что обращаемся к обоим типам.

И все же так как мы ориентируемся на поисковики, мы подходим к вопросу определения ключевых слов логически. Роботы очень логичны, и люди также могут поступать, руководствуясь логикой. Кажется, в этом есть смысл. Но если вы имеете хоть какое-то отношение к продажам, вы знаете, что в большинстве случаев люди при покупке ориентируются на эмоции, а не руководствуются разумом.

Даже ваши потенциальные клиенты действуют против самих себя

Давайте вернемся к тому, что я забил при запросе. Я забил "пляжи Мексики". Но это не совсем то, чего я хотел. Если бы я сделал запрос, по-настоящему отражающий мои потребности, это было бы: "я до смерти устал и хочу куда-то, где тепло и есть пляж, где я могу просто валяться и расслабиться". Но я попытался сделать другое - и получил нулевой результат.

Вот таким образом работают поисковые машины. Я знаю это, будучи их постоянным пользователем. Так что хоть у меня и была эмоциональная потребность расслабиться, перед началом поиска я произвел предварительную фильтрацию, потому что я знаю, как работает поисковик. И я знаю, что я должен «скормить» Google что-то особенное, если я хочу получить что-то близкое к релевантным результатам.

Что же делать?

Первое - создайте больше входных страниц
Читать дальше
Ник Усборн (Nick Usborne), i-mark.ru


Блогосфера засоряется спамом

Посетителей обычно направляют на другой сайт — с помощью контекстной рекламы, партнерских ссылок или даже автоматическим редиректом. Главное — получить оплату за переход, ради чего, собственно, и создаются спам-блоги.

Как и почтовый спам, создание спам-блогов не требует особых усилий. Существует специальный софт, который позволяет генерировать оптимизированные страницы и автоматически размещать их на популярных блоггерских сервисах, таких как Blogspot, Moveable Type, Wordpress или Blogger.com. Проблема сейчас выросла до поистине катастрофических масштабов. Спам-блоги превращаются в серьезный бизнес. Например, известно, что в Великобритании действует компания, которой принадлежит как минимум 15 тыс. спам-блогов в интернете. Другой пример: только на сайте Blogspot размещено около 10 тыс. спам-блогов о лошадиных бегах. О «новом фронтире онлайновой войны» пишет Дж. Скотт Джонсон (J. Scott Johnson), сооснователь и ведущий разработчик компании Feedster.

Чтобы поддерживать впечатление популярного и часто обновляемого ресурса, спам-блог постоянно скачивает новый контент через интернет-директории, поисковые системы, RSS-фиды и другие информационные каналы. Новые постинги добавляются автоматически, создавая впечатление присутствия живого блоггера. Во многих случаях спам-блоги просто-напросто воруют постинги из настоящих блогов, без уведомления авторов, без получения разрешения и даже не указывая ссылку на оригинал.

Существует большое количество разных спам-блогов, но всех их объединяет одно: на странице множество раз повторяются одни и то же ключевые слова, которые просто «разбавляются» другим контентом. Ключевые слова могут повторяться десятки и даже сотни раз на странице. Во время исследований по ключевому запросу «обучение танцам» был найден блог, где слово «танцы» повторялось 948 раз на странице, тогда как общее количество слов составляло 2048. То есть каждое второе слово было — «танцы».

Владельцы спам-блогов получают такую же оплату за переход по рекламным ссылкам, что и владельцы нормальных сайтов. Они защищают свой бизнес — мол, для рекламодателя нет разницы, откуда к нему пришел посетитель, где он нажал рекламную ссылку. Но на самом деле большинство рекламодателей очень внимательно относится к тому, где именно размещается их реклама. Для большинства из них стало бы большим сюрпризом и огорчением, если бы они узнали правду.

Судя по масштабам распространения спам-блогов, их количество скоро может превысить (если уже не превысило) количество нормальных блогов. Таким образом, блогосфера постепенно засоряется спамом, превращаясь в некое подобие публичного телевидения, где качественный контент теряется в нескончаемом потоке рекламы.

Кто должен бороться со спам-блогами? В первую очередь, это проблема поисковых систем, которые должны совершенствовать инструменты для фильтрации. Многие техники идентификации аналогичны тем, что применяются для фильтрации почтового спама, но здесь все намного сложнее.

Для начала можно создать «черный список» спам-блогов, включив туда все блоги, которые ссылаются на них для повышения PageRank. Кроме того, нужно изучать способы создания спам-блогов. Например, можно с высокой степень вероятности предположить, что в доменной зоне .INFO нет ни одного реального блога на платформе WordPress, где крутится реклама Google AdSense. Все это — спам.

Можно ли выиграть войну со спам-блогами? Нет — всегда найдутся те, кто пытается обмануть поисковые системы. Но, как и в случае с почтовым спамом, можно найти некий баланс, при котором обеспечивается выдача практически чистых от спама результатов поиска, пусть и за счет исключения некоторого количества нормального контента.
Вебпланета


Рейтинг поисковых запросов за последние 10 лет

Рейтинг Lycos 50 публикуется каждую неделю вот уже десять лет. Из него исключены общие термины, такие как «секс», «музыка» и прочие, популярность которых практически не изменяется со временем. Остаются только имена собственные — названия фильмов, игр, компьютерных программ, имена музыкальных исполнителей, актеров и прочих знаменитостей. За десятилетнюю историю Lycos 50 в нем успели отметится Анна Курникова, Владимир Путин, Мария Шарапова, группа «Тату» и другие россияне, известные в Америке. Однако никто из них не может сравниться с самой любимой женщиной американцев — Памелой Андерсон. Эта порно-звезда заняла первое место в списке самых популярных поисковых запросов за последние 10 лет.

Памела Андерсон — настоящая икона интернета. Она попала в список самых популярных запросов в интернете в сентябре 1995 г., когда составлялся первый такой рейтинг. И с тех пор она ни разу (!) не покидала список, практически никогда не выпадая из первой 20-ки. Популярность в интернете ей принесло скандальное интимное видео, которое она сняла со своим мужем, рок-музыкантом Томми Ли. Это видео быстро распространилось по интернету.

Самым популярным певцом десятилетия по праву стала Бритни Спирс, с которой даже близко никто не может сравниться по этому показателю. Наиболее популярное телешоу — мультфильм «Симпсоны» (30-е место в общем рейтинге). Самое популярное кино — «Звездные войны» (18). Приятно, что самой популярной спортсменкой десятилетия стала Анна Курникова (23).

Вот избранные части Lycos 50 за 1995–2005 гг.

1. Памела Андерсон.
4. Бритни Спирс.
9. 11 сентября.
10. Рождество.
11. Принцесса Диана.
13. Библия.
18. «Звездные войны».
20. Марихуана.
23. Анна Курникова.
29. Гарри Поттер.
32. Эминем.
38. НАСА.
40. Война в Ираке.
41. KaZaA.
42. Осама бин Ладен.
43. Мадонна.
47. Нострадамус.
48. Napster.
Lycos


Не могу найти на Google

В большинстве случаев, если нужно что-то найти, пользователь пишет искомые слова в строке ввода на сайте Google и сразу получает то, что ему нужно. Многие наверняка сталкивались с ситуацией, когда Google не способен найти нужную информацию, причём не помогает ни изменение запроса, ни расширенный поиск. Именно для таких случаев и предназначен сайт www.cantfindongoogle.com, ведь гораздо интереснее узнать, что Google не может найти, чем то, что он "знает". Для добавления новой записи достаточно нажать на кнопку "Новая запись" (New Entry) и пополнить коллекцию ненайденного своим случаем.
Can't Find On Google


 

Новости партнеров
Агентства ASDK




"Логика"
коллегия адвокатов

Новости на сайте www.advokatessa.ru:

- Квартира на паях - жилищно-накопительный кооператив (ЖНК)
- Государство нарушает Закон о земле
- Актуальные вопросы земельных отношений или Что скажет суд по поводу самостроя


"Интертревел"
туризм и отдых

Советы туристам:

- Рейтинг популярности летнего сезона
- Лучший термальный курорт Италии.
- Лучшие горнолыжные курорты мира.

Туристические новости - только полезная информация:

Отдых - дело ответственное. Как выбрать страну, курорт, отель? Что нужно знать перед путешествием? В рассылке новости, описание курортов, советы туристам. Новости о получении загранпаспортов и виз, горящие путевки.
Приглашаем подписаться на рассылку "Отдых за рубежом - новости, советы, отзывы" на сайте www.intertravel.ru.
Подписка через subscribe.ru или maillist.tu


"Центавр"
компьютеры и комплектующие

- Производство мониторов Fujitsu Siemens в Зеленограде: комментарий специалиста
- О будущих перспективах мобильных компьютеров
- iPod nano убил винчестеры
 

Рассылка "Компьютеры и комплектующие - новинки и новости"

Мир компьютеров меняется ежедневно. Выпускаются десятки новых моделей оборудования, происходят сотни событий.
В рассылке новинки оборудования: сервера, компьютеры, ноутбуки, мониторы, принтеры, плоттеры, КПК. Статьи, обзоры и тесты оборудования. Ответы специалистов, объявления специальных акций для покупателей.
Приглашаем подписаться на рассылку "Компьютеры и комплектующие - новинки и новости" на сайте www.centavr.ru

Информация от партнеров публикуется по согласованию с Агентсвом ASDK.
Агентсво интернет-маркетинга ASDK     info@asdk.ru
(C) ASDK.ru 2005. При использовании материалов ссылка на www.asdk.ru обязательна.

Subscribe.Ru
Поддержка подписчиков
Другие рассылки этой тематики
Другие рассылки этого автора
Подписан адрес:
Код этой рассылки: inet.webbuild.raskrutka
Архив рассылки
Отписаться
Вспомнить пароль

В избранное