Отправляет email-рассылки с помощью сервиса Sendsay
  Все выпуски  

Профессиональное продвижение сайтов. Пособие от SeoPult



SeoPult Выпуск №77:
Опытный подход к выводу в ТОП по
высокочастотным запросам
 
 
 
Здравствуйте!

В издательстве «Иванов, Манн и Фербер» вышла книга Максима Спиридонова «Рунетология»: 20 интервью с людьми, создающими Рунет и управляющими Рунетом. Среди них и руководитель Системы SeoPult Николай Евдокимов. Книга очень симпатичная и интересная.

С уважением, Наталья Мальцева, PR-менеджер Системы SeoPult.


 

Новости SeoPult


Практика поискового маркетинга


Опытный подход к выводу в ТОП по высокочастотным запросам


Бытует мнение, что ТОП по высокочастотным запросам – это шаманство, доступное лишь избранным. Единицам, осиянным тайным знанием, которое можно получить только лично от Садовского и Сегаловича на эзотерическом посвящении. Отчасти это действительно так: с наскока в ТОП с серьезной конкуренцией не попасть. Но никакой магии нет: просто нужно подойти к задаче с запасом терпения и готовностью экспериментировать.

Стоит ли?..
«Игра не стоит свеч» – так говорили до газового и электрического освещения об азартных играх с низкими ставками, где потенциальный выигрыш не мог перекрыть затраты на покупку довольно-таки недешевых в то время свечей (подробнее об этом и многих других интереснейших фактах читайте в исследовании А.Р. Экерча «История ночи»). С первой десяткой по высокочастотным (точнее, по высококонкурентным – эти понятия обычно совпадают, но не в 100% случаев) запросов ровно то же самое. Иногда гораздо более разумно направить SEO-бюджет на продвижение по большому списку НЧ-запросов – во-первых, здесь можно получить вполне гарантированный и стабильный результат без крово- и потопролитных битв с конкурентами, а во-вторых – привлечь на сайт качественный и высококонверсионный трафик посетителей. Причем по весьма разумной цене – как в сумме, так и в перерасчете на одного потенциального клиента. Семантическое ядро низкочастотных запросов может быть очень большим, его легко расширять и таким образом гибко увеличивать расходы и объем привлекаемого трафика. Тем не менее, в некоторых сегментах НЧ-запросы могут оказаться бесполезными. Расхожий пример – «пластиковые окна»: продает только этот сверхконкурентный запрос, а все тематические НЧ- и СЧ-слова не дают реальных заказов. Видимо, человек, реально желающий поставить пластиковые окна, начинает поиск именно с этого запроса, причем вполне удовлетворяется качеством и набором услуг сайтов из первой десятки, поэтому уточняющие запросы не использует. Это тоже необходимо учитывать. Тем не менее, абсолютно подавляющее большинство тематик позволяют результативно работать с НЧ-запросами.

Часто в борьбу за позиции по ВЧ-запросам компании включаются не по чисто экономическим соображениям (увеличение оборота и прибыли), а из-за престижа или неумеренных амбиций руководства. Но тем, кто поднимает собственный бизнес или ответственно относится к средствам заказчика – в общем, считает деньги, – нужно постоянно держать в уме простейшую формулу: если прибыль с одного клиента, привлеченного с помощью SEO, превышает затраты на привлечение, то все хорошо. Если она меньше, необходимо менять стратегию. Кстати, далеко последнюю роль в этом расчете играет конверсия, поэтому карабкаться в дорогой ВЧ-ТОП нужно только с качественным, реально продающим сайтом.

Путь длиною в тысячу миль начинается с первого шага
В подавляющем большинстве случаев по ВЧ-запросу продвигается главная страница сайта. Здесь мы не будем рассматривать огромные интернет-магазины, которые нанимают собственных SEO-специалистов: сосредоточимся на обычном пользователе SeoPult – человеке, продвигающем собственный сайт. Итак, первым делом необходимо собрать данные и проанализировать их: наберите в «Яндексе» интересующий ВЧ-запрос и изучите текущих лидеров. Самый логичный путь – выявление успешных паттернов и подгонка своего сайта под эти параметры.
  1. Даты регистрации доменов. По многим перегретым ВЧ-запросам войти в ТОП с молодым сайтом просто невозможно. Если среди лидеров только сайты с датой регистрации более 3-х лет, а вашему проекту – менее 1 года, то на быстрое попадание в ТОП рассчитывать не стоит. Тем не менее, возраст – это единственный параметр, который растет сам собой без каких-либо усилий, так что начинать работать над развитием сайта необходимо.
  2. Количество страниц в индексе. Если у всех сайтов-лидеров, предположим, более 300 страниц, на эту цифру и необходимо ориентироваться. Вывести сайт с десятком страниц в ТОП по ВЧ-запросу практически нереально.
  3. Количество контента. Страница странице рознь – нет смысла плодить десятки пустышек без контента или с копипастой. Контент должен быть оригинальным, тематическим, хорошо структурированным и достаточно объемным. Практика показывает, что вполне достаточно 1000-3000 знаков оригинального текста на страницу, чтобы она стабильно держалась в индексе. Не забывайте скармливать все тексты «Яндекс.Вебмастеру» перед заверстанием на страницы сайта – так вы защитите свое право быть первоисточником (в первую очередь – перед алгоритмами самого поисковика). Также необходимо очень внимательно посмотреть на продвигаемые под нужный запрос страницы сайтов-лидеров выдачи. Именно такое количество контента (обычно наблюдается завидное единообразие) наиболее радует алгоритм «Яндекса» в данный момент, и на него следует ориентироваться. Можно и нужно посчитать и среднюю плотность ключевых слов.
  4. Перелинковка. Схема внутренней перелинковки сайтов лидеров – то, на что стоит обратить пристальное внимание. Обычно применяются ссылки на главную с внутренних страниц с анкором, содержащим ВЧ-запрос.
Можно и нужно анализировать все остальные параметры – если долго медитировать над лидерами и сравнивать их с сайтами, занимающими 50-60 позиции, можно вывести «формулу успеха». Безусловно, это будет не закон на все времена – алгоритмы меняются, и анализ нужно проводить регулярно, подстраивая под параметры текущих лидеров выдачи свой сайт.

Вывод

Секрет успеха прост: качественная внутренняя оптимизация + внедрение паттернов лидеров SERP + качественная ссылочная масса. С последним вполне может справиться SeoPult (хотя, например, и вирусная реклама, и размещение статей на трастовых сайтах будут нелишними), но первые два пункта ложатся на плечи сайтовладельца, желающего конкурировать с лидерами своей отрасли. Это возможно, в этом нет никакого волшебства, но труда и средств потребуется немало. И именно с точки зрения внутренней оптимизации и работы над сайтом – в том числе его дизайном и юзабилити.


 

В ТОП без гирь: аудит сайта от Николая Евдокимова



Здравствуйте! Интересует аудит сайта www.nika-dush.ru. У нас не так много опыта в SEO, поэтому советы по поводу нашего сайта могут быть интересны и многим другим начинающим!

Спасибо! Эрмине.

Аудит сайта читайте в нашем блоге.

Ваши заявки на аудит контекстной рекламы и SEO-аудит присылайте на pr@seopult.ru.

 
Новости поискового маркетинга

 
 
Facebook – виновник роста акций «Яндекса»
Американское издание Bloomberg сообщает, что акции «Яндекса» в Нью-Йорке прибавили 3,5% и выросли в цене до 21,62 доллара после заметки в газете The Telegraph о совместном проекте «Яндекса» и Facebook. Любопытно, что впервые эта новость стала прозвучала еще в прошлом месяце. Но рост акций российского поисковика начался только после публикации в издании The Telegraph. Суть новости в интеграции сервиса «Яндекс.Музыка» в Facebook.

Пресс-секретарь «Яндекса» Очир Манджиков сообщил, что руководство таким образом надеется увеличить количество пользователей. Очир считает, что за сервисом обмена музыкальным контентом большое будущее, и это сотрудничество имеет большой потенциал.

Google Analytics: отчет по социальным сетям
Официальный блог компании Google информирует, что готовится большой отчет по социальным сетям. Маркетологи и многие другие специалисты уже давно нуждаются в подобном отчете, чтобы отслеживать распространение различных материалов в сети. Google Analytics призывает к сотрудничеству все социальные сервисы для взаимной интеграции. Это даст возможность оценивать вовлеченность пользователя вне сайта, а также правильно оптимизировать сообщества.

На сегодняшний день Google Analytics уже работает с социальной сетью «В Контакте» и многими другими сервисами, но для полной достоверности предоставляемых сведений и аналитической работы нужна интеграция со всеми социальными медиа.

Разработчики проекта обещают уже в следующем году полноценную работу этого сервиса. Он будет учитывать все «лайки», комментарии и упоминания.

Google достались 44% мировой выручки от онлайн-рекламы
В недавно опубликованном отчете ZenithOptimedia говорится о том, что компания Google контролирует около 44%доходов от всей онлайн-рекламы. Компания Google является самым крупным игроком на рынке рекламы в целом.

Почти половина всех доходов от рекламы в интернете принадлежит контекстной рекламе, в 2011 году на ее долю пришлось 49%.

По прогнозу ZenithOptimedia интернет-реклама по объему выручки в 2013 году обгонит печатные издания и займет второе место, тогда как сейчас она занимает лишь третье, и ее доля составляет 16%.

AdSense позволит заработать на мобильных сайтах
В официальном блоге Google AdSense опубликована статья о новой возможности монетизации мобильных сайтов. Отныне доступна программа AdSense для таких сайтов. Она подбирает для объявления для показа на мобильных сайтах, плата начисляется за каждый клик по объявлению.

Реализовано это следующим образом: во время загрузки AdSense в автоматическом режиме определяет тип мобильного устройства, с которого пользователь выходит в сеть, а затем подбирает подходящее для этого устройства объявление. Причем, эта возможность подходит только лишь для мобильных сайтов, а не для приложений. Функция «персонализированные поисковые объявления» давно доступна для полноценных настольных компьютеров, но теперь возможность ее подключения есть и для мобильных сайтов и приложений. Это открывает широкие возможности за счет улучшенного таргетирования трафика.

«Яндекс»: нововведения ноября
Вышел отчет «Яндекса» о последних нововведениях, которые были сделаны за ноябрь. Одним из главных событий месяца стало внедрение новой формулы ранжирования коммерческих сайтов в московском регионе.

Также изменилась схема формирования сниппетов – для большей информативности теперь заголовок может быть выбран из заголовков самой страницы. Изменения коснулись инструмента для выбора зеркала с «www» и без в сервисе «Яндекс.Вебмастер».

С каждым месяцем «Яндекс» становится все безопаснее, меры разработчиков были направлены на оповещение владельцев сайтов о вредоносном коде на их страницах. Также для «Яндекс.Бара» для браузера Mozilla Firefox теперь доступна база зараженных сайтов.

О других нововведениях ноября вы сможете прочитать в официальном блоге команды «Яндекса» .

Мэтт Каттс объяснил, что такое «траст»
На этот раз в своем видеоролике руководитель группы Google Webspam Мэтт Каттс решил объяснить, что означает термин «доверие» (или «траст»). Это слово очень часто используется представителями Google в различных контекстах.

Мэтт Каттс расказал, что этот термин может использоваться в разных ситуациях. Например, одно из значений говорит о доверии одного сайта к другому, которое передается через ссылки – это PageRank. Если на сайт ведут качественные ссылки, то он обладает некоторым уровнем доверия. Мэтт поделился информацией о том, что траст формируется при учете более двух сотен факторов. Чтобы получить максимум траста, необходимо создать качественный ресурс, которому пользователи будут доверять и считать авторитетным, на который будут ссылаться другие сайты.

Google AdSense: борьба с накруткой
Специалисты Google AdSense выпустили статью, в которой рассматриваются проблемы накрутки кликов и способы предотвращения этого. Проблема накрутки не нова, но у пользователей накопилось много вопросов, поэтому в опубликованных материалах разработчики решили дать ответы на них.

Одно из основных направлений руководства сервиса AdSense – сделать сеть максимально безопасной. Причем, разработчики стремятся создать такие условия для пользователей, чтобы им самим удобно было следить за трафиком, предотвращать накрутку кликов и своевременно сообщать специалистам о возможных нарушениях.

Специальные алгоритмы AdSense позволяют выявлять недействительные клики по самым разным параметрам, это дает возможность исключить их появление в отчете по аккаунту. Для предотвращения накруток была создана специальная группа сотрудников, которая следит за ситуацией и проверяет подозрительные аккаунты.

В сниппетах «Яндекса» появились социальные ссылки
Очередное нововведение «Яндекса» коснулось сниппетов. Теперь в них можно увидеть социальные кнопки, которые ведут в сообщества компании в социальных сетях (Twitter, Facebook, «ВКонтакте»). Таким образом на страницу сообщества в социальной сети можно будет перейти в один клик из поисковой выдачи.

Новые сниппеты были замечены в пятницу 9 декабря, но руководство «Яндекса» пока не дает официальных комментариев. Специалисты, чьи сайты получили социальные кнопки в выдаче, в свою очередь отмечают, что не предпринимали никаких мер для этого и предоставляли расширенную информацию. То есть «Яндекс» сам размещает социальные кнопки в сниппете, в случае присутствия прямых ссылок на сообщества в социальных сетях на страницах сайта.

Как считают некоторые специалисты и аналитики, эта мера позволит еще сильнее связать обычные сайты и «социальную» часть сети. Непрекращающийся рост популярности социальных медиа объясняет такой шаг со стороны главного поисковика Рунета.  


 

Окно в буржунет


Насколько умны поисковые роботы? (часть вторая)
Мы продолжаем публикацию статьи Майкла Кинга. Это вторая часть, а если вы хотите освежить в памяти первую – она в прошлом выпуске рассылки.

Доказательства
  • Функция Instant Preview – вот почему мы видим скриншоты-аннотации в SERP. Эти превью обладают впечатляющей возможностью: они не только отображают скриншот страницы, но также визуально выделяют и подчеркивают текст, подходящий под ваш запрос. Этого просто невозможно достигнуть простым текстовым пауком.


  • Cкриншоты флеш-страниц – вы, возможно, уже заметили в Инструментах вебмастера Google скриншоты флеш-сайтов. Постойте... я думал, Google не видит флеш...

  • Подтверждение запросов AJAX POST – Мэтт Каттс подтвердил, что GoogleBot умеет обращаться с запросами AJAX POST, и, по случайному совпадению, это произошло через несколько часов после того как Рэнд запостил статью «GoogleBot – это Chrome». Согласно определению, AJAX – это контент, загружаемый JavaScript, когда происходит действие после загрузки страницы. Следовательно, его невозможно отследить с помощью текстового паука, потому что текстовый паук не выполняет JavaScript, а только получает существующий код, каким он предоставлен при первоначальной загрузке.

  • Google отслеживает Flash – Мэтт Клэйтон также показал мне некоторые журналы сервера, в которых GoogleBot получал доступ к URL, которые доступны только через встроенные Flash-модули на Mixcloud.com:

    66.249.71.130 "13/Nov/2011:11:55:41 +0000" "GET /config/?w=300&h=300&js=1&embed_type=widget_standard&feed= http%3A//www.mixcloud.com/chrisreadsubstance/bbe-mixtape-competition-2010.json&tk=TlVMTA HTTP/1.1" 200 695 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"

    66.249.71.116 "13/Nov/2011:11:51:14 +0000" "GET /config/?w=300&h=300&js=1&feed= http%3A//www.mixcloud.com/ZiMoN/electro-house-mix-16.json&embed_type=widget_standard&tk=TlVMTA HTTP/1.1" 200 694 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)
Допустим, это не новость, но другой пост от 2008 года объясняет, что Google «рассматривает Flash-файлы таким же образом, как это делал бы человек, вводя данные, и так далее». А, вы имеете в виду, как человек работает с браузером?
  • Скорость сайта – Хотя Google мог бы получать время загрузки сайтов с панели инструментов и данные об использовании от Chrome, для него гораздо надежнее получать эту информацию, индексируя саму сеть. Не выполняя всего кода страницы, практически невозможно точно вычислить время загрузки этой страницы.
До сих пор все это могло звучать так, как будто Google находится всего в нескольких шагах от SkyNet. А оптимизаторы и Google уже много лет уверяют нас, что поисковый робот (паук) имеет текстовую основу, поэтому это может показаться вам фантастикой. Уверяю вас, это не так, и многие из тех вещей, о которых я говорю, доступны программистам даже с намного менее сильной командой инженеров, чем у Google.

Знакомьтесь – PhantomJS
PhantomJS – это headless Webkit browser, которым можно управлять через JavaScript API. С помощью небольшой автоматизации скрипта браузер легко можно превратить в паука. Забавно, что его логотипом является призрак, похожий на призраки в Pacman, а концепт довольно прост: PhantomJS используется для загрузки страницы так, как пользователь видит ее в Firefox, Chrome или Safari, извлечения материалов и прослеживания ссылок. PhantomJS имеет бесчисленное количество приложений для парсинга информации и других видов анализа сайтов, и я советую SEO-общественности осознать это прежде чем мы двинемся дальше.

Джош воспользовался PhantomJS, чтобы подготовить некоторые доказательства сведений, которые я выложил на SearchLove.

Ранее, когда я выпустил GoFish, я уже упоминал, что столкнулся с трудностями при сборе информации о росте количества запросов с Google Insights с помощью текстового паука из-за того, что список этих вопросов предоставляется через AJAX. Ричард Бакстер предположил, что эти данные легко можно собрать с помощью строки XPath (XPath string), и это убеждает меня в том, что поисковая архитектура ImportXML в Google Docs основана тоже на headless browser.


На схеме написано красным: «Обычным путем эти данные получить невозможно, потому что это AJAX».

Во всяком случае, здесь Джош снимает эти данные со страницы при помощи PhantomJS.

Делать скриншоты текстовым пауком невозможно, но с помощью headless webkit browser это проще простого. На этом примере Джош показывает, как делаются скриншоты при помощи PhantomJS.

Chromium – это общедоступная ветвь браузера Webkit, а я сильно сомневаюсь, что Google создал браузер из чисто альтруистических побуждений. Вышеупомянутое исследование предполагает, что GoogleBot – это многопоточный headless browser на основе того же самого кода.

Почему нам ничего не говорят?
Ну, вообще-то, говорят, но утверждают, что «робот-индексатор для создания превью» – это совершенно отдельный объект. Представьте этого робота как «миссис Pacman».

Участник главного форума вебмастеров пожаловался, что в качестве пользовательского агента у них в журналах отображается "Mozilla/5.0 (X11; U; Linux x86_64; en-US) AppleWebKit/534.14 (KHTML, like Gecko) Chrome/9.0.597 Safari/534.14", а не "Mozilla/5.0 (en-us) AppleWebKit/525.13 (KHTML, like Gecko; Google Web Preview) Version/3.1 Safari/525.13".

Джон Му рассказал: «В качестве инструмента для тестирования мгновенных превью мы используем пользовательский агент по образцу Chrome, чтобы можно было сравнить то, что будет видеть браузер (при помощи этого пользовательского агента), с тем, что видим мы с помощью доступа Googlebot к кэшированному превью».

В то время как headless browser и Googlebot, как мы знаем, отличаются, мне кажется, что они всегда параллельно просматривают страницы и собирают информацию для индексации и ранжирования. Другими словами, это как одновременная двухпользовательская версия Pacman с миссис Pacman в 3D и обычным Pacman, которые играют на одном уровне в одно время. В конце концов, паукам не было бы смысла просматривать всю сеть дважды по отдельности.

Так почему же относительно этих возможностей не все так ясно, ведь они имеют отношение к ранжированию? В двух словах: качество поиска. Прикрываясь недостатками текстовых пауков, поисковики могут продолжать использовать их в качестве козла отпущения, объясняющего их неидеальные результаты. Они могут продолжать двигаться в направлении таких вещей как предполагаемый AuthorRank и полагаться на SEO, чтобы в буквальном смысле оптимизировать свои поисковые машины. Они могут продолжать говорить неопределенные вещи, вроде «не гонитесь на алгоритмом», «улучшайте пользовательское восприятие» и «мы учитываем то, что видно без прокрутки», что заставляет специалистов SEO облегчать работу Google.

Основной продукцией Google (и единственной их продукцией, если спросить у Эрика Шмидта в суде), является поиск, и если обнародовать информацию о том, что их возможности намного превосходят заявленные, то им придется повысить качество поиска. Они не говорят нам об этом, потому что с ростом возможностей растет и ответственность.

Что это означает для нас?
Когда мы с Джошем представили свое исследование, многие люди спрашивали меня: «Как это должно поменять мои действия в плане SEO?». По моему мнению, есть три момента:

1. Javascript не поможет вам ничего скрыть. Если вам казалось, что с помощью постзагрузки JavaScript вы можете спрятать какой-либо контент – прекратите это делать. Заманивание и переключение теперь на 100% неэффективный метод. Pacman видит все.

2. Пользовательское впечатление чрезвычайно важно. Google сейчас может в буквальном смысле видеть ваш сайт! Как сказал Мэтт Катс, они смотрят на то, что выше границы прокрутки, а следовательно, могут учитывать при ранжировании то, сколько рекламы представлено на странице. Google может применять данные о поведенческих факторах вместе с дизайном сайта чтобы определить, насколько сайт полезен для людей. Это одновременно радует и пугает, но также это означает, что каждый специалист SEO должен приобрести книгу Круга «Не заставляй меня думать».

3. Инструменты SEO должны стать умнее. Большинство средств SEO основано на текстовых сборщиках (text scrapers), и хотя многие из них довольно сложны (в данный момент лидирует SEOmoz), они все еще сильно напоминают Pacman 80-х годов. Если мы хотим понять, что на самом деле принимает во внимание Google при ранжировании страниц, надо учитывать больше аспектов.
  • При обсуждении таких вещей как Page Authority и вероятность спама необходимо визуально проверять страницы с точки зрения программы, а не ограничиваться простыми показателями, такими как плотность распределения ключевиков и граф ссылок. Другими словами, нам нужен показатель качества пользовательского восприятия (UX Quality Score), на который влиял бы визуальный анализ и возможные видоизменения спама.
  • Следует сравнивать, насколько отображаемая страница отличается от того, что можно предполагать по коду. Это можно назвать коэффициентом дельта (Delta Score).
  • При оценке распределения доли ссылок на странице нужно также учитывать динамическое преобразование (dinamic transformations), поскольку поисковые машины способны понять, сколько в действительности ссылок на странице. Этот фактор тоже можно включить в коэффициент дельта (Delta Score).
  • Также следует включить в наш анализ обработку естественного языка, так как это, по-видимому, тоже учитывается алгоритмом Google. Этот фактор не оказывает значительного влияния на общий результат, но помогает определить ключевые понятия, с которыми машина ассоциирует контент, а также полностью понять, чего стоит ссылка с учетом желаемого результата. Другими словами, необходим контекстуальный анализ графа ссылок.
В двух вещах я согласен с Мэттом Катсом. Единственный постоянный параметр – это перемены. Однако мы должны также понимать, что Google будет продолжать дезинформировать нас относительно своих возможностей или подталкивать к определенным выводам, которых мы потом будем придерживаться. Поэтому нам следует понимать, что Google в ответе за свои технологии. Проще говоря, если они могут точно доказать, что они ничего такого не делают, то с этого момента им следует начать; в конце концов, там работают одни из самых талантливых инженеров на планете.

Google продолжает усложнять поисковый маркетинг и отменять данные, позволяющие нам улучшать восприятие пользователем, но факт в том, что у нас симбиоз. Поисковики нуждаются в SEO-специалистах и вебмастерах, чтобы сделать сеть быстрее, проще и понятнее, а мы нуждаемся в поисковиках, чтобы качественный контент поощрялся, занимая более заметные места. Проблема в том, что у Google в руках все карты, и я рад, что приложил свои усилия к тому, чтобы вырвать одну из них.

Твой ход, Мэтт.


 
 
Интересное на iTV

 
 
«Цифровые истории» – новый цикл программ на телеканале iTV. Эксперт по веб-технологиям Microsoft Гайдар Магдануров встречается с известными интернет-бизнесменами и беседует о рисках и преимуществах разработки и продвижения новых проектов.
 
 
Почитать на сладкое

 
 
  • Происходит многое, например:


  • А также:


 
     
   

SeoPult.ru: автоматизированное продвижение сайтов seo@seopult.ru
 
 

В избранное