X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

История благодарностей участнику MissContent. Поблагодарили: 1009 раз(а)
Дата поста: В теме: За сообщение: Поблагодарили:
17.10.2013, 10:49 Любит ли Google новый контент?
Пришло время разрушить устойчивый миф о том, что Гугл лучше ранжирует сайты, которые регулярно обновляются. Благодаря этому заблуждению, в интернете ежедневно появляются тонны бредо контента, с помощью которого, вебмастера надеются продвинуть свои ГСы в топы.

Остановитесь и подумайте. Сейчас в блогах, форумах и в соц. сетях появилось много SEO гуру, которые отпускают направо и налево советы по продвижению сайтов. Они не отслеживают к каким последствиям приводит следование их советы. Тысячи загубленных по их вине сайтов служат им немым укорам. Таких людей легко узнать по советам увеличить свой PageRank, создавать инфографику и использовать гостевые посты для получения ссылок. И что самое страшное, их читатели разбираются в теме еще меньше.

А теперь они говорят нам, что новый контент ранжируется лучше старого.

Если старый контент действительно так плох, то объясните мне уважаемые гуру, почему этот сайт ранжируется так хорошо по этому запросу? На дворе октябрь 2013 года, а мне по запросу с пометкой новости подсовывают столетний сайт! Возможно, поскольку это новости о человеке, который умер 100 лет назад Гугл не торопится. Вероятно, ему потребуется еще пара веков, чтобы привести выдачу в порядок.

С другой стороны, несмотря на новые новости, в топе еще висят статьи 2007 года о Пионер-10 (беспилотный космический аппарат НАСА, прекративший в 2007 году передачу данных обратно на Землю). Возможно Гугл знает что-то, чего не знают SEO эксперты.

Даже по такому сверх популярному запросу «how to make a baby» на первом месте будет информация 2010 года.

Попытки манипулировать выдачей предпринимались неоднократно. Одна из распространенных практик — добавлять апдейты к старым статьям. Некоторые берут старые статьи и публикую их заново с измененной датой. Либо вообще отказываются от дат. Когда бы пользователь не зашел, статья всегда выглядит новой и актуальной. Разумеется, это возможно только для не новостных тематик. Возможно в следующем году или в 2015 Гугл запустит новый алгоритм, назвав его для примеру Сапсан, который будет бороться с такими накрутчиками.

С другой стороны, старый контент отлично ранжируется. За много лет я опубликовал тысячи статей. Большинство из них содержат дату публикации в самом тексте и урле. И эти старые статьи до сих пор продолжают приносить посетителей, обратные ссылки и лайки в социальных сетях. Также они хорошо ранжируются, некоторые даже занимают первые места в выдаче по ключевым словам из заголовка. И это несмотря на копипастеров. Впрочем, иногда им удается меня обойти. Возможно возраст контента играет гораздо меньшую роль, чем его качество и форма изложения. Но это только предположение.

То есть если ваша статья проиндексировалась, попала в Google News и весь день вы наслаждаетесь тем, что обошли конкурентов, очень высоки шансы, что к концу дня вас обойдет более старый материал с большим числом ссылок.

Так что, использование новостного спама с целью занять высокие позиции дает краткосрочные результаты и рекомендуя такие низкосортные стратегии вы рискуете потерять доверие ваших читателей. Рано или поздно число таких накрутчиков превысит критическую точку и Гугл будет вынужден принять соответствующие меры против вас и легионов ваших последователей.

Вам нужно научиться думать самостоятельно и перестать принимать на веру каждое слово SEO гуру, если не хотите каждый раз получать от Гугла.

Оригинал статьи на английском языке: http://www.seo-theory.com/2013/10/04/dear-...-googles-serps/


Спасибо сказали: (1)
10.10.2013, 13:16 3 новых инструмента для распространения контента в соц.сетях
Думаю, все согласятся с тем, что присутствовать в социальных сетях для компании просто необходимо, поскольку социальные сети сейчас стали одним из основных источников трафика. Многие верят, что социальные факторы ранжирования — это будущее SEO.

Рынок отреагировал на эту потребность и сегодня мы рассмотрим 3 новых инструмента, для обмена контентом в социальных сетях.

1. Viral Content Buzz

Данный сервис был создан в сентябре 2012 года. Его услуги полностью бесплатны. Принцип работы очень прост: вначале вы делитесь чужим контентом и зарабатываете баллы, а затем тратите их на раскрутку собственных статей. Чем раскрученнее аккаунт, тем больше баллов вы сможете заработать. Подробнее о системе начисления баллов можно почитать здесь.

ViralContentBuzz распространяет контент через Twitter, Pinterest, Facebook и StumbleUpon. Все статьи проходят ручную модерацию, поэтому контент действительно очень качественный. Материалы размещаются только в аккаунтах реальных людей, ботов там нет.

Несколько советов по работе с ним.

Объединение аккаунтов. При объединении аккаунтов из разных социальных сетей, при регистрации перейдите в Settings > Social Accounts и затем нажмите “enable”.

Информационная панель. После регистрации, вы можете настроить категории, которые вы хотите видеть в своих новостях. Это позволит найти информацию по определенной тематике, которой вам будет интересно делиться с вашими читателями и зарабатывать баллы.Ниже приведен скриншот моей информационной панели. Если вы обратите внимание на верхнюю часть экрана, то увидите некоторые некоторые опции (проекты, история обмена...).



Обмен контентом. Вы можете делиться контентом, нажимая на кнопки внизу статьи (как на скриншоте вверху). Для каждой социальной сети, в которой у вас есть аккаунт, будет своя кнопка. В приведенном выше примере доступны только Twitter и Facebook, всего их может быть 4. Если вы нажмете на кнопку, то увидите сколько баллов вы заработаете.



Добавление контента. Добавить контент можно кликнув на “Add Projects” вверху экрана. Это будет стоить вам несколько баллов.

Есть еще много полезных настроек вроде буфера обмена и отсрочки публикации, настраиваемой панели, ярлыков и папок для управления несколькими проектами, отчетов по проектам, которые можно отсылать на электронную почту...

На первый взгляд все может показаться сложным, но это не так. Вы можете узнать больше, посмотрев это видео.

2. Facebook Image Detection Tool

Этот проект был создан командой TechWyse и первоначально предназначался для внутреннего использования, но недавно компания открыла к нему доступ.

Помогает рекламодателям, размещающих объявления на Facebook, соблюдать все требования. Одно из правил гласит, что текст на картинке рекламного характера должен занимать не более 20 % и рекламодателям каждый раз приходилось гадать, одобрят их объявление или нет.

Начало работы очень простое.

Загрузка приложения. Скачать данное приложение для браузера Chrome можно здесь. Страница будет выглядеть следующим образом:



Добавление фотографий. Загрузите выбранную фотографию, как на скриншоте ниже.



Результаты. После того как вы загрузите изображение, инструмент даст вам знать, соответствует ли эта она требования Фейсбука. После этого вы может отметить на картинке место, где будет размещен тест и приложение посчитает сколько процентов он занимает.



Один из самых простых инструментов для работы в социальных сетях и при этом абсолютно бесплатный. Более подробно ознакомиться с приложением вы можете посетив эту страницу.


3. BuzzBundle

Программа BuzzBundle была запущена Link-Assistant.com осенью 2012 года в бета версии и до сих пор продолжает обновляться и радовать нас новыми функциями. Это самая удобная программа для мониторинга социальных сетей и управления аккаунтами.

Работа начинается с загрузки BuzzBundle. Я рекомендую начинать с бесплатной версии с целью ознакомления с функционалом. Просто введите адрес своей электронной почты, и вам сразу будут высланы ссылки на скачку версии для любой операционной системы, а также инструкции по установке. Ниже приведен скриншот главной страницы BuzzBundle с описанием основных функций.



Более подробно остановимся на трех возможностях, которые делают этот проект поистине уникальным.

Персонажи. Вы можете создавать различных персонажей, для каждого создавать несколько аккаунтов и управлять ими с помощью одной платформы. Например, вы можете общаться от лица ген. директора, PR менеджера, службы клиентской поддержки или создать отдельных представителей для каждой целевой аудитории. Только представьте: 10 человек у каждого из которых по 10 аккаунтов = 1000 человек говорят о вашей компании. Ниже приведен скриншот, который сделан при переключении аккаунтов.



Ссылки. С помощью этого инструмента вы можете все ссылки на ваш сайт из социальных сетей. Эта информация подскажет, где нужно увеличить свое присутствие.

Отслеживание репутации. Есть возможность отследить все упоминания и обсуждения вашей компании (немного отличается от Google Alerts). Возможен поиск по ключевым словам.



А вы уже пользовались этими сервисами? Буду раз услышать ваши впечатления.

Оригинал статьи на английском языке: http://moz.com/ugc/need-a-new-tool-3-socia...ething-specific


Спасибо сказали: (3)
3.10.2013, 10:13 Используем Tumblr в SEO.
В мире существует множество ресурсов, с помощью которых можно продвигать свой сайт и в этом разнообразии очень легко пропустить действительно стоящие. Tumblr является именно такой социальной сетью, которую часто упускают из вида, несмотря на огромный потенциал для SEO и социального продвижение. Я и сам вначале с пренебрежением относился к Tumblr но затем, меня увлекли его простота и эффективность. Надеюсь, что дочитав этот пост до конца, вы тоже проникнитесь этой же идеей.

В этой статье я остановлюсь на следующих моментах:

1. Что такое Tumblr и как он работает?
2. Его преимущества по сравнению с другими социальными сетями.
3. Практические советы по использованию Tumblr.

Почему именно Tumblr?

Вначале немного цифр, которые помогут вам оценить перспективность этого ресурса:

130 500 000 блогов, по состоянию на август 2013.
Занимает 28 место среди самых посещаемых сайтов по версии Comscore.
300 миллионов уникальных посетителей в месяц согласно Yahoo.
50% пользователей Tumblr молодые люди до 25 лет.
53.5% пользователей — женщины.


Цифры впечатляют, не так ли? Учитывая, 130 миллионов блогов, Tumblr стал крупнейшим в мире блогохостингом, обогнав даже Wordpress с его 70 миллионами. А его 300 миллионов посетителей в месяц составляют 15% от всех пользователей интернета. Последние исследования показали, что молодежь предпочитает Tumblr даже больше, чем Facebook.

Популярность Tumblr не осталась незамеченной крупнейшими брендами. В мае, Yahoo приобрела Tumblr з $ 1,1 млрд. (самая крупная сделка после покупки Google YouTube). Большинство крупных компаний уже присутствуют на Tumblr.



Если вы еще не зарегистрированы на Tumblr, то вы безнадежно отстали.

Что такое Tumblr?

В двух словах сложно объяснить что такое Tumblr, потому что он объединяет функционал нескольких сайтов.



На мой взгляд, Tumblr в большей степени сочетает черты Wordpress и Facebook — возможность создать полноценный блог и элементы социальной сети, как хештеги, лайки, возможность следить за интересными людьми и делиться новостями. Еще Tumblr во многом похож на Pinterest, за исключением того, что у вас один блог.

Таким образом, несмотря на то, что Tumblr является самой популярной платформой для микроблоггинга в интернете, он превосходит функционал блогохостинга и позволяет пользователям оценивать и обмениваться контентом,

Преимущества Tumblr.

1.Dofollow ссылки

В отличие от остальных социальных сетей, ссылки с Tumblr dofollow. Учитывая социальную направленность Tumblr и возможность лайкать понравившиеся посты, очень велика вероятность, что интересный пост будет расшарен другими пользователями. Это означает, что если ваш пост понравится 100 людям, то вы получите 100 dofollow ссылок! Более того, ссылку можно добавить и в сам пост и тогда, обратные ссылки получит не только ваш Tumblr блог, но и ресурс на который ссылаются.



Тоже самое относится к Google+ и Pinterest, но на Tumblr пользователи более активны и больше шансов, что ваш контент распространится как вирус.

Конечно, нужно быть осторожнее с анкорами, учитывая возможные санкции со стороны Пингвина, но более простого способа получить обратные ссылки я еще не встречал.

2. Источник отличного контента.

Благодаря хештегам, на Tumblr хорошо работает поиск по сайту. Если вам нужно найти актуальные мемы или интересные картинки, наберите соответствующий хештег. Большой плюс в том, что люди действительно используют хештеги для поиска, в отличие от Facebook. Это значит, что даже если у вас мало подписчиков, ваш материал все равно найдут, если вы используете правильные хештеги.



3. Площадка для тестирования.


Если вы занимаетесь продвижением в социальных сетях, у вас наверняка накопилась куча идей, которые требуют проверки. Лучшей площадки для их тестирования сложно себе представить. Пользователи Tumblr гораздо менее требовательны к контенту, потому что новости расположены в хронологическом порядке и они легко могут прокрутить неинтересный контент, подобно тому, как пользователи просматривают Pinterest.

4. Микросайты.

Tumblr является самой популярной в мире платформой для микроблогов, что также делает его идеальной площадкой для создания микросайтов. Из преимуществ следует отметить легкость создания, простоту в управлении и бесплатность. К тому же, вы можете подключить к Tumblr свой домен.



Если регулярно публиковать интересный контент, то можно получить PR2 — PR4 за несколько месяцев и затем связать сетку сайтов с основным ресурсом.

5. Продвижение бренда.

Tumblr это еще 1 инструмент в вашем арсенале для продвижения бренда в интернете. В дополнении к другим социальным сетям, Tumblr дает еще одну возможность для взаимодействия с клиентами, особенно если вы ориентированы на молодую аудиторию. Как говорит гуру интернет маркетинга, Пэт Финн «Лучшая стратегия продвижения — быть везде, где находятся ваши потенциальные клиенты».




Выбираем контент для Tumblr.

Как и во многих других социальных сетях, наибольшей популярностью пользуется графический контент. Рассмотрим 4 вида контента, которые лучше всего подойдут для Tumblr.

1. Мемы.



Мемы просто идеальный контент для вирусного распространения. Вы можете публиковать мемы близкие к вашей тематике, найденные в интернете, но лучше всего сделать их самостоятельно.

2. Фотографии/картинки.
Поскольку, у подростков, которые составляют большую часть аудитории есть проблемы с концентрацией внимания, в силу их возраста, картинки являются самым популярным контентом на Tumblr.



Даже если у нас нет профессиональной фотокамеры, с помощью приложения в Instagram можно взять обычной фото и придать ему винтажный вид. А на таких сайтах как Fiverr, Elance, и DeviantArt можно заказать рисунок на любую тему за весьма умеренную сумму.

3. Цитаты.
Этот вид контента особенно легко создать. Просто берем понравившееся высказывание и накладываем его на подходящую картинку и вы получите уникальный контент который можно использовать в любой социальной сети.




4. Гифки.

Как и Google+, Tumblr позволяет использовать анимированные GIF-изображения в ваших сообщениях. Они невероятно популярны среди пользователей Tumblr. Для вдохновения посетите блог This Advertising Life. Мне он очень нравится и к тому же у него PR 5.


Когда мой клиент спрашивает меня, почему их позиции меняются каждый день, я делаю вот так...



Гифки можно найти на хештегу "animated GIF" или просто "GIF". Либо посмотрите на специализированном сайте, вроде ForGIFS.

Заключение.


За прошлый год я создал там десятки блогов и могу вам гарантировать, что если вы будете использовать советы изложенные выше регулярно, то сможете собрать большое число читателей, получить хорошие обратные ссылки и продвинуть свой ресурс.

Оригинал статьи на английском языке: http://moz.com/blog/how-to-use-tumblr-for-...media-marketing


Спасибо сказали: (4)
26.9.2013, 12:00 Google Keyword Planner и его аналоги.
Несмотря на то, что Google Keyword Tool был далеко не идеальным инструментом, именно он получил признание у вебмастеров. И когда Гугл объявил о его закрытие, это известие вызвало панику в рядах вебмастеров. Но на смену ему Гугл подготовил новый инструмент - KeyWord Planner, который по заверению разработчиков еще лучше. Так ли это и есть ли другие альтернативы, попытаемся разобраться в этой статье.

Google Keyword Planner. Плюсы и минусы.

Поскольку Keyword Planner предназначен прежде всего для PPC специалистов, для его использования необходима учетная запись AdWords (при этом вам не нужно вводить никакой платежной информации).

Достоинства инструмента KeyWord Planner.

1. Очень подробный локальный таргетинг. Можно получить все необходимые данные по ключевым словам на уровне района, города, вплоть до самых маленьких населенных пунктов. Это очень удобно при ведении бизнеса в конкретном районе.



2. Инструмент распределяет кейворды по смысловым группам, что упрощает ведение PPC кампании. Кроме того, эта функция дает представление о том, какие слова Гугл относит к одной семантической группе.
3. Есть функция, позволяющая осуществлять поиск по комбинациям слов из двух списков. Это помогает определить объемы поиска по различным вариациям (например, добавив локацию или цвет), не используя при этом Excel
4. Можно установить минимальный порог для ключевых слов и вам не придется тратить время на заведомо неподходящие варианты.
5. В отличие от старой версии, отсутствует ограничение на проверку 100 кейвордов.

Недостатки KeyWord Planner.

1. KeyWord Planner позволяет просматривать статистику только по точному соответствию. Получить данные по другим типам соответствия, например фразовому или точному больше нельзя.
2. Данные из раздела «Среднемесячные объемы поиска» рассчитываются за 12 месяцев, поэтому KeyWord Planner не подходит для выявления текущих трендов. В этом случае лучше использовать Google Trends.
3. Исчезла функция поиска по синонимам. Тем не менее, есть вероятность, что разработчики вернут ее обратно.
4. KeyWord Planner не позволяет настраивать таргетинг на мобильные устройства. В результате, среднее количество поисковых запросов в KeyWord Planner будет выше, чем в Google Keyword Tool, поскольку новый инструмент теперь отображает среднее количество поисковых запросов по всем устройствам (обычным компьютерам и ноутбукам, планшетным ПК и мобильным телефонам).
5. «Локальные» и «Глобальные» объема поиска больше не отображаются автоматически. Вместо этого «Глобальные» (которые теперь называются «Весь мир» выдаются по умолчанию и вам нужно настроить таргетинг для локальных запросов.

Альтернативы.

Вот еще несколько инструментов, где вы можете посмотреть статистику по ключевым словам. Поскольку Google Keyword Tool был бесплатным, я не включил в этот обзор такие инструменты, как Moz Keyword Difficulty и SERP Analysis.

Google Webmaster Tools

Любой зарегестрированный пользователь может посмотреть статистику ключевых слов по своему сайту в Google Webmaster Tools.

Плюсы.
Данные предоставляются самим Гуглом.

Минусы.
Показывает данные только по тем ключевым словам, по которым ранжируется ваш сайт. Другие вы не можете посмотреть.
До сих пор идут споры о достоверности этих данных. Многие считают, что Keyword Tool был точнее.

Bing Keyword Tool

Бинг предоставляет альтернативный инструмент для поиска ключевых слов.

Плюсы.
Пользователи могут отфильтровать донные по дате, что дает более точные результаты.
Данные о последних трендах отражаются наряду с другими показателями.
Есть аналог поиска по точному соответствию, как в Google Keyword Tool.
Инструмент находится в стадии тестирования, поэтому нас ждут новые возможности и доработки.



Минусы.
Поскольку Бингом пользуется меньшее число пользователей, все показатели будут ниже, чем в Гугле.
Привязка к месту возможна только на уровне страны.
Вы должны иметь аккаунт в Bing Webmaster Tools.

WordTracker



Старый добрый WordTracker . Это первый инструмент, который я использовал для исследования ключевых слов и он по прежнему на высоте.

Плюсы.
Есть функция оценки эффективности ключевых слов на основе объема поисковых запросов.
WordTracker сотрудничает с SEMRush и за дополнительную плату предоставляет расширенный функционал.
Можно отфильтровать ключевые слова по: «ключевые слова в любом порядке», «точные ключевые слова внутри поиска», «точное соответствие»...

Минусы.
Доступ к полному функционалу доступен на платной основе (от $69 в месяц). Есть и бесплатная версия: только глобальный поиск, нет данных SEMRush и лимит в 50 ключевых слов. Для использования бесплатной версии нужно зарегистрироваться и указать действующий адрес электронной почты.

WordTracker использует данные данные метакролеров вроде DogPile. Поскольку метакролерами пользуется очень малое число пользователей, данные могут быть искажены, с пользу тех, кто их использует.

SEMRush



Сервис обладает огромным функционалом - от анализа рекламных кампаний до формулировки лучших рекламных текстов.

Плюсы.
SEMRush предоставляет данные полезные как для проведении PPC кампаний, так и для поисковой оптимизации. Поэтому он будет особенно полезен для маркетологов работающих на стыке PPC/SEO.
Есть функция подбора ключевых слов по точному и фразовому соответствию.
Данные по ключевым словам предоставляются Google Keyword API, что делает SEMRush одним из наиболее достоверных источников.

Минусы.
Пользователь должен зарегистрироваться и указать действующий адрес электронной почты. Но сам сервис бесплатный.
Привязка к месту возможна только на уровне страны.
Несмотря на возможность поиска синонимов и похожих фраз, сервис больше подходит для поиска отдельных ключевых слов.

Еще один способ.
Существует еще 1 способ поиска ключевых слов, который мне очень нравится. Начните вводить ваше ключевое слово в форму для поиска и посмотрите, что предложит вам Гугл. Если добавить еще одну букву следующего слова, можно получить еще больше вариаций.



Плюсы.
Эти ключевые слова будут прибыльными в плане трафика, потому что очень много людей пользуются подсказками Гугла.

Минусы.
Невозможен поиск синонимов. Все фразы будут начинаться с одного слова.
Нельзя посмотреть количество запросов.Но для этого вы можете использовать любой из названных выше сервисов!
Подсказки Гугла могут меняться в зависимости от вашего месторасположения и истории поиска.

А какие инструменты для поиска ключевых слов используете Вы?

Оригинал статьи на английском языке: http://moz.com/blog/keyword-volume-tools

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


Спасибо сказали: (1)
19.9.2013, 10:32 3-х уровневая модель подбора ключевых слов.
При продвижении любого сайта основную роль играют правильно подобранные ключевые слова. Но чтобы подобрать такие слова, необходимо думать как пользователь, проанализировать и выбрать те слова, которые, по вашему мнению, будет использовать клиент при поиске товара или услуги, которые вы продвигаете на сайте. От этого, прежде всего, зависит успеха продвижения вашего сайта в поисковых системах.

Зависимость между CTR и позицией.


Не так давно, мы получили заказ на продвижение одного сайта. Задача была занять хорошие позиции по ключевым словам. После проведения комплекса мер по оптимизации сайта и написания нового контента с этими ключами мы стали ждать.

Вскоре мы с радостью обнаружили, что из 30 потенциальных кейвордов, мы занимаем место в первой тройке по 10 из них. По 16 запросам мы находились на первой странице и еще по 9 на второй. Отчет из Google Analytics тоже нас порадовал:



Мы отрапортовали заказчикам, что в результате нашей работы трафик на сайте увеличился и они теперь занимают первые позиции по основным ключевым словам.

Прошло несколько месяцев и мы теперь можем проанализировать отдачу и прибыль от 16 ключевых слов, находящихся на первой странице. Сайт имеет примерно 15000-20000 посещений в год и 500-600 продаж.



Как оказалось, проделанная работа увеличила трафик на 0.8% , а конверсию на 1.6% . Весьма скромные результаты, не так ли?

Все дело в том, что мы выбрали неправильные кейворды, которые не приносили реальных посетителей. Можно было конечно, заменить их синонимами и посмотреть на изменения, но мы решили не рисковать и разработали собственную методику по отбору ключевых слов.



1 уровень — высокая конверсия
2 уровень — хороший трафик
3 уровень — плохой трафик.

Вот как это работает.

С помощью данных об органическом поиске из отчета Google analytics, мы можем выделить ключевые слова, которые дают больше всего переходов. Мы не берем в расчет запросы, связанные с вашим брендом, поскольку они без всяких сомнений самые прибыльные. Они появляются, когда посетители уже проинформированы и заинтересованы. Они более конкретны и уникальны, часто основаны на названии компании, или домена, или ключевых продуктов, включая вариации/неправильные написания этих названий.

1 уровень — много трафика и переходов.


Первая группа кейвордов включает запросы, которые приносят больше всего трафика и способствуют повышению конверсии. Это будет самая маленькая группа. Одновременно они будут самыми дорогими в PPC компании.

Отдача: более 1000 посетителей и конверсия более 1.5%.

Шаги по оптимизации: увеличить число внутренних ссылок на эти страницы, добавить видео, картинки и отзывы. Сделать расширенные сниппеты. Проверить скорость загрузки сайта.


2 уровень — много трафика, но низкая конверсия.

Следующая группа включает кейворды, дающие хороший трафик, но с низким уровнем конверсии. Эта группа будет больше предыдущей. Направив усилия на эту группу кейвордов, вы привлечете значительное число посетителей на ваш сайт.

Отдача: более 1000 посетителей и конверсия менее 1.5%.

Шаги по оптимизации: создайте новые целевые страницы, заточенные под эти ключевые слова с помощью сервиса Unbounce. Определить эффективность этих страниц помогут Optimizely и Visual Website Optimizer. Желательно, протестировать все элементы лендингов, включая заголовки, картинки и кнопки.

3 уровень — мало трафика при высокой конверсии.

Третья и последняя группа этой модели включает кейворды, которые приносят совсем мало трафика, но при этом хорошо конвертятся. Самая многочисленная группа.

Отдача: менее 1000 посетителей и конверсия более 1.5%.

Шаги по оптимизации: купите трафик на эти страницы и перенаправляйте пользователей, которые ранее посетили эти страницы. Проведите конкурс или сделайте почтовую рассылку для привлечения посетителей.

Затем, можно повторить действия, описанные в пунктах 1 и 2 для увеличения отдачи.

Написание контента.

Наша модель не только позволяет оптимизировать ключевые слова для увеличения посещений и продаж, но также в ней можно почерпнуть идеи для написания контента на основе этих ключей.

Например, мы выяснили, что кейворды «плохая кредитная история», «размер заработной платы для получения кредита», «кредит наличными» дают хороший трафик, но показывают низкий уровень конверсии. Здесь можно использовать такие заголовки:

7 способов получить кредит, если у вас плохая кредитная история.
Требования, выдвигаемые банками к размеру заработной платы, при выдаче кредита.
3 способа, когда не хватает денег до получки.

Результаты.

Возможно, еще слишком рано говорить об эффективности этой модели, учитывая сезонность.
Для сравнения, мы взяли данные одного из наших клиентов за 2012 год и первое полугодие 2013 года.

Трафик увеличился на 107% с 1700 посещений в 2012 году до 3665 до в 2013.
Прибыль выросла на 175% с $4500 в 2012 до $12600 в 2013.

Теперь мы по настоящему довольны результатами проделанной работы и прогнозируем увеличение дохода в 3-4 раза, по сравнению с прошлым годом.



Заключение.

Эту модель можно использовать на любых сайтах, вне зависимости от того, на каком языке они написаны. Помните: если вы не последуете нашими советами, их могут использовать ваши конкуренты.

Оригинал статьи на английском языке: http://moz.com/ugc/the-3-tier-keyword-conversion-model


Спасибо сказали: (6)
12.9.2013, 13:11 5 выводов после 100 000 тестов на юзабилити.
На протяжении уже нескольких лет я работаю в UserTesting.com (сервис тестирования юзабилити, дает возможность владельцам сайта посмотреть, как впервые попавшие на сайт пользователи там ориентируются). За это время я просмотрел сотни тысяч сайтов и хочу рассказать о наиболее часто встречающимися ошибках.

1. Многоуровневые меню.

На видео видно, как человек пытается пробраться через несколько уровней навигации. Когда он думает, что уже добрался до конечного пункта, меню исчезает. Мы наблюдаем это каждый день на разных сайтах и это всегда раздражает пользователей.

На Амазон достойно справились с подобной проблемой. При наведении курсора, у них выделяется вся секция.



Такое решение делает жизнь ваших посетителей намного проще. Это не только избавляет их от необходимости виртуозно маневрировать мышью, но и позволяет сразу видеть все пункты меню. Кроме того, вы можете добавить картинки и выбрать подходящий стиль.

В решение проблемы навигации на сайте вам помогут следующие ресурсы:

Создаем многоуровневое меню для вашего сайта.
Проектирование раскрывающихся меню : примеры и передовые методы.

2. Хаос в разделах с товарами.

Следующее видео иллюстрирует, насколько запутанными могут быть разделы с товарами. Один из наиболее часто встречающихся недочетов.
В этом примере пользователю потребовалось 48 секунд, чтобы найти раздел с маленькими пылесосами. Он начал с раздела «Электроника», затем перешел в «Домашнее хозяйство». В конечном итоге, он нашел искомое в разделе «Дом и сад».

Все читающие это вероятно сейчас разделились на 2 категории. Одни подумали: «Какой кретин поместил пылесосы в раздел «Дом и сад»? А другие: «Это же очевидно!»

На самом деле это не вина дизайнера и не вина пользователя. То, что одному кажется предельно ясным, может быть непонятно другому. Это нужно принять как факт.

Что мы можем с этим сделать?

Самым действенным способом понять, что не так с вашими разделами — усадить кого-то перед компьютером и попросить найти различные товары не пользуясь внутренним поиском.

Другой способ — использовать сервисы вроде OptimalSort или TreeJack. Optimalsort — это инструмент, который помогает организовать структуру сайта с помощью метода сортировки карточек. Treejack — приложение для тестирования многоуровневой информационной архитектуры сайта. Чтобы начать тестирование, структуру веб-сайта необходимо организовать как таблицу и загрузить в Treejack.

3. Проблемы с внутренним поиском.

По статистике, 10 % посетителей используют внутренний поиск. Многолетний опыт позволяет разделить проблемы с внутренним поиском на 4 группы:

1.В результатах поиска не учитываются опечатки, множественное число, дефисы и тому подобное.
2. Окно для ввода слишком маленькое.
3. Поисковые результаты не отсортированы по релевантности.
4. Поисковые результаты не соответствуют запросу.

Чтобы увидеть пример № 3 в действии, давайте посмотрим как человек ищет пылесос на сайте. Поскольку результаты поиска автоматически сортируются по «Самые популярные», он получает ссылки батарейки и бумажные фильтры!

Если у вас на сайте представлен только 1 товар, посмотрите логи внутреннего поиска и выделите 10-20 ключевых слов, которые люди ищут на вашем сайте. Введите найденные слова в поле поиска и проверьте релевантность результатов.

Затем посмотрите, легко ли на вашем сайте найти: «Контакты», «Регистрация», «Корзина»...

4. Про ссылки.

Очень часто ссылки совсем не похожи на ссылки и пользователь даже не догадывается, что на них можно нажать. В примере, пользователь ищет ссылку на "basic uploader", не понимая, что "basic uploader" это уже ссылка! Как должна выглядеть ссылка?

Не открою Америку, если скажу, что ссылки должны быть окрашены и подчеркнуты. В идеале, ссылки, которые посетитель уже открывал, должны быть другого цвета.

Более детальную информацию вы найдете в следующих постах: «Guidelines for Visualizing Links» и «Links Should Really Look Like Links».

5. Не будьте скучными.

Есть просто замечательные сайты с отличной навигацией, толковым поиском и правильно оформленными ссылками, за исключением одного... они неимоверно скучны. Сайт выполняет свою прямую функцию, но люди не чувствуют сопричастности к бренду. В следующем видео посетительница в первый раз скачивает мобильное приложение. Обратите внимание на глубокий вздох и интонацию.

Попросите незаинтересованного человека прокомментировать ваш сайт и вы узнаете много нового.

Туннельное восприятие.

В этой статье я привел только 5 примеров, на самом деле их намного больше. У разработчиков сайта взгляд часто «замыливается» и они не могут беспристрастно оценить свое творение.



Вот почему так важно, доверить тестирование сайта обычным людям, которые смогут оценить его свежим взглядом.

Оригинал статьи на английском языке: http://moz.com/blog/5-lessons-learned-from...ability-studies

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


Спасибо сказали: (7)
3.9.2013, 11:53 Создаем сайты для слепых.
Гугл не раз заявлял, что сайты нужно создавать для людей, а не для получения выгоды. Почему бы не пойти еще дальше и сделать сайт, которым смогут пользоваться даже слепые? В США например, приблизительно 20 процентов населения имеют те или иные проблемы со здоровьем, 10 процентов из них — достаточно тяжелые. Это означает, что в 3 из 10 семей есть люди с ограниченными возможностями.

Вы можете задать вопрос: зачем тратить время, оптимизируя сайт для слепых?

1.Если у вас бизнес, вы расширите круг потенциальных клиентов.
2. Это благое дело. Люди с ограниченными возможностями, их семьи и друзья обязательно это оценят, что послужит укреплению положительного имиджа вашей компании.

Люди, с нарушениями зрения, тоже зарабатывают и тратят деньги, дайте им возможность использовать для этого ваш сайт! Согласно одному из исследование, суммарное состояние людей с ограниченными возможностями составляет $ 175 000 000 000. Учитывая стремительное старение населения, таких людей будет становиться все больше.

С июня 2001 года все американские государственные сайты должны быть доступны для людей с ограниченными возможностями. На частные сайты эти требования не распространяются, но желательно чтобы они соответствовали стандартам Web Accessibility Initiative (WAI). Просто удивительно, что люди с нарушениями зрения используют интернет, принимая во внимание мизерное количество сайтов, созданных специально для них.

Как можно сделать свой сайт полезным для слепых?

Теперь, когда вы поняли, как важно не пренебрегать значительной частью населения, обсудим как можно сделать сайт удобным для людей с нарушениями зрения. На самом деле это не так сложно, как вы могли подумать и является сочетанием всего лучшего из веб-дизайна и юзабилити.

Обычно, люди с нарушением зрения используют специальные программы, озвучивающие содержимое экрана. Job Access With Speech (JAWS) — одна из самых распространенных. Чтение происходит путём предоставления пользователю информации, отображаемой на экране, через озвучивание текста на экране и с помощью шрифта Брайля, позволяющего без ограничений пользоваться клавиатурой (большинство слабовидящих не используют мышь). Она совместима с операционными системами Windows и многими программами, такими как Microsoft Office, Firefox и Adobe Acrobat. Второй по популярности программой является Window-Eyes.

Точно так же, как зрячие, которые не читают каждое слово на вашем сайте, слепые сканируют содержимое сайта с помощью этих программ. Но поскольку эти программы читают не просто текст, а код, существуют помехи на пути к нужной информации. Например, список ссылок, украшенный декоративными маркерами, как на картинке ниже.



Компьютерная программа их может интерпретировать следующим образом: Декоративный маркер. Дом. Декоративный маркер. Вопросы. Декоративный маркер. Свяжитесь с нами.
Для элементов, которые могут помешать слабовидящим понять текст используете пустой alt-текст. Программа его просто пропустит. Тоже самое относится и к картинкам, рядом со ссылками. Например, изображение конверта рядом с адресом электронной почты поможет зрячему быстрее сориентироваться, но абсолютно бесполезно для слепого.

Все важное вверху.

Самую значимую информацию нужно помещать вверху страницы, в начале параграфа. От этого выиграют все: слепы, зрячие, сам владелец сайта и даже Гугл, которому будет легче определять релевантность текста.

В программах для считывания текстов есть функция просмотра, когда можно прослушать только первые слова параграфа и решить, продолжать ли дальше.

Тоже самое относится и к формам для заполнения на сайте. Когда во время эксперимента участников попросили найти и заполнить форму, расположенную внизу страницы, у них это заняло значительное время, а некоторые даже не справились.

При создании формы, важно не забывать про tabindex атрибут. Незрячие обычно используют для навигации клавиатуру, а этот атрибут как раз определяет последовательность перехода между ссылками при нажатии на кнопку Tab. У атрибута tabindex должно быть численное значение. Клавиша Tab будет проходить по элементам от меньшего к большему значению атрибута. Если tabindex='0', то этот элемент будет последнем в списке. При значении -1, элемент не доступен для табуляции.

Ограничьте число ссылок на странице.

Это должно быть в числе первоочередных задач, даже если ваш сайт рассчитан на обычных людей. Дело в том, что когда пользователь открывает страницу с помощью JAWS, первое что он слышит, это количество ссылок на странице. Только представьте его огорчение, если их окажется больше 100! Любой человек предпочтет поискать в другом месте, чем просматривать все 100 ссылок. Есть еще одна причина для ограничения числа ссылок на странице. Чем больше у вас ссылок, тем меньший ссылочный вес они передают на на внутренние страницы вашего сайта.

Анкорный текст и заголовки.

Уделите им особое внимание при разработке сайта. Для ускорения навигации по сайту, слабовидящие люди могут включить опцию прослушивания ссылок. И если они услышат «Нажмите здесь» или «Подробнее», то никакой пользы от этого не будет. Им придется выйти из этого режима и прослушать весь текст. Предпочтительнее: «Больше информации о продукте Х».

Аналогично, они могут выбрать опцию прослушивая заголовков. Использование тегов H2 делает этот процесс намного удобнее.

Кейворды.

Наличие ключевых слов на странице важно не только для Гугла. Программное обеспечение имеет функцию поиска по ключевым словам. Примечание: тесты на картинках при этом не принимаются во внимание. Поиск идет только по тексту.



Поисковик не смог бы найти ключевые слова на этой картинке.

Отдельная версия сайта не обязательна.

Владельцы некоторых веб сайтов создают для слабовидящих людей отдельные версии, включающие только текстовый контент. Но в результате исследования выяснилось, что слабовидящие редко используют эти версии, т.к. их редко обновляют и информация там не всегда актуальна.

Они бы предпочли обычные сайты, при условии некоторых доработок. Только в случае использования JavaScript, Flash и других мультимедийных элементов необходима отдельная версия. Сайты на JavaScript, дожны быть доступны при его отключении. А к Flash, Java и DHTML можно было бы получить доступ с клавиатуры. Ну и конечно не помешали бы простые тестовые навигационные ссылки в нижней части страницы.

Программы компании Adobe как правило, совместимы с программами для чтения с экранов. Если вы используете Flash, зайдите на их сайт, где можно найти информацию о последних версиях и их совместимостях.

Заключение.

По мере старения населения и роста интернет грамотности, число пользователей интернета с ослабленным зрением будет все возрастать. Многим кажется, что речь идёт о дополнительных расходах. Это не так. Вам не нужно создавать специальные версии своих страничек для слепых. Необходимо всего лишь сделать сайт совместимым с программным обеспечением для людей, лишённых зрения.

Оригинал статьи на английском языке: http://www.searchenginejournal.com/designi...he-blind/66457/
22.8.2013, 9:40 Могут ли хакеры удалить ваш сайт из выдачи?
К сожалению, ответ на этот вопрос будет положительным. Ваш сайт может быть помечен как «взломанный» и полностью удален из индекса Гугла. Это происходит, когда хакер внедряет вредоносный код на ваш сервер. Гугл удаляет ваш сайт из поиска, с целью защиты компьютеров пользователей от дальнейшего заражения.

На картинке ниже, вы можете видеть пример такого сайта. Даже включение сайта в черный список способно полностью парализовать работу сайта, т.к. это ведет к потере органического трафика. Посетители будут бояться заходить на такой сайт из-за предупреждающей надписи, о том, что он заражен.



В связи с участившимися в последнее время такими атаками, Гугл запустил службу помощи для сайтов, взломанных хакерами.

В разделе Webmasters help for hacked sites, каждый пострадавший от рук хакеров владелец ресурса найдет ответы на ключевые вопросы: почему его сайт взламывают, как технически осуществляется взлом сайта, и как восстановить его работу после взлома. Страница содержит статьи и видеоролики, в которых пользователю даётся пошаговая инструкция по восстановлению и повторному запуску своего сайта. За несколько лет за помощью уже обратились 130 000 вебмастеров.

Диаграмма ниже показывает, какой размах, в последние годы, приобрела эта проблема. И это касается не только сайтов банков или крупных корпораций, как вы могли подумать. Маленькие сайты с с небольшим трафиком тоже могут быть заражены.

В большинстве случаев, хакеры используют автоматизированные процессы, чтобы обнаружить и использовать уязвимости на серверах. Многие виртуальные и даже выделенные хостинги не гарантируют защиты.



Почему Гугл это беспокоит?

Гуглу не нравится, что его используют как посредника для доступа к зараженным сайтам. Он добился успеха благодаря качеству предоставляемых услуг и доверию со стороны пользователей и не хочет терять это доверие. Кроме того, Гуглу становится сложнее предоставлять релевантные поисковые результаты, т.к. ему приходится иметь дело не только с черным SEO, но и предотвращать угрозы, связанные с безопасностью.

По сравнению с попытками вебмастеров манипулировать выдачей, новая угроза может принести гораздо больше вреда пользователям. Одно дело предоставить ссылку на дублированный контент и совсем другое направить их на сайт, который будет красть их личные данные или заражать компьютер вредоносными программами.

В последнее время эти угрозы встречаются слишком часто, чтобы их игнорировать. И к сожалению, у Гугла не хватает мощностей для эффективного выявления сетевых угроз.


Почему я должен беспокоиться?

Потому, что вы можете попасть в черный список. Гугл не может удалить вредоносные программы с вашего сайта. Единственное, что ему остается сделать — удалить ваш сайт вместе с ними. Даже при лучшем варианте развития событий, возвращение в поисковую выдачу займет много времени и сил, что отразится на снижении трафика, а соответственно и доходов.

В долгосрочной перспективе это также означает потерю позиций в поисковой выдаче. Нет никаких гарантий, что вам удастся восстановить прежние позиции.



Выводим сайт из черного списка.

Реабилитировать свой сайт будет трудно, долго и дорого. Рекомендации Гугла сводятся к следующему:

«Мы прикладываем все силы, чтобы найти пути решения этой проблемы, но несмотря на это, владельцам сайтов придется трудно, если они не в совершенстве владеют навыками администрирования сайта и не обладают опытом работы с исходным кодом».

Гугл требует четкого понимания исходного кода (PHP, JavaScript и др.), осознание структуры каталогов, тесной работы с вашим хостинг-провайдером и др.

Такие требования являются невыполнимыми для многих вебмастеров, особенно для пользователей виртуального хостинга. Но когда встает угроза полной потери трафика, многие готовы заплатить сотни тысяч долларов, за аудит сайта и удаление вирусов.



Есть более простое решение.

Год назад, когда угроза безопасности встала особенно остро, мы начали зондировать интернет на предмет надежных и доступных по цене сервисов, предоставляющих защиту сайта. После тестирования нескольких, мы остановились на Incapsula, которой мы пользуемся и по сей день.

Этот сервис безопасности идентифицирует и блокирует угрозы вашему сайту, включая хакеров, спамеров и ботов. Кроме этого, Incsapsula улучшает производительность сайта с помощью своей глобальной сети доставки контента (CDN). Даже бесплатной версии достаточно для профилактики занесения в черный список. Incapsula так же проводит виртуальные исправления, если находит уязвимости в ваших файлах, что позволит сайту выглядеть достойно при подаче заявки на вывод из черного списка.

Для более наглядного представления возможностей Incapsula, предоставляем скриншот нашей админ панели. Обратите внимание на 72% ежедневного кэшированного объема и количество отраженных атак за последние 3 месяца.



Оригинал статьи на английском языке: http://www.searchenginejournal.com/can-hac...le-index/65780/


Спасибо сказали: (4)
15.8.2013, 8:41 Изменения алгоритма ранжирования мобильных сайтов.
Гугл недавно анонсировал изменения алгоритма, касающиеся ранжирования мобильных сайтов, что значительно облегчит жизнь владельцам смартфонов. Цель этих изменений: повысить в поиске сайты, ориентированные на мобильные устройства и понизить сайты, не заботящиеся об удобстве мобильных пользователей.

В этой статье я обозначу ключевые моменты, основанные на рекомендациях Гугла, которые помогут вам избежать санкций.

1. Гугл любит один URL и отзывчивый дизайн.

Еще год назад, Гугл объявил, что предпочитает сайты, поддерживающие единый адрес на разных платформах. Иными словами, Гугл отдает приоритет сайтам, имеющим единый URL на всех типах устройств: настольных компьютерах, смартфонах, планшетах...

В этом году, Гугл впервые официально подтвердил, что сайты с одним URL выше ранжируются. Из обновленных рекомендаций для вебмастеров:

«Гугл рекомендует вебмастерам следовать передовой практике использования отзывчивого веб дизайна и поддержки единого HTML для всех устройств».

Почему же Гугл предпочел именно этот вариант?

Первая причина: прежде всего это связано с особенностями распространения контента в последние годы. Люди сами охотно делятся ссылками на интересный контент, тем самым улучшая ваши позиции.

Причина вторая: медленные редиректы. Если вы видите “m.” или“mobile.” в начале URL (например: http://www.m.example.com), то вас ждет переход на другой сайт. Время перенаправления зависит от скорости вашего соединения. Для мобильного посетителя, использующего 3G переход может занять пол секунды. По данным KISSmetric эта незначительная на первый взгляд задержка ухудшает конверсию на 3,5 %. Например, если выручка вашего сайта составляет $100 000 в день, то за год вы потеряете 1,4 миллиона долларов! Так что, редирект может вам очень дорого обойтись.

Еще один минус отдельных мобильных версий сайтов — большие затраты на их поддержку. Если большие компании еще могут себе это позволить, то для маленьких затраты на поддержание нескольких версий становятся непомерным бременем.

2. Мобильные прокси остались в 2010.

Для владельцев сайтов, использующих мобильные прокси настали тяжелые времена. Хотя Гугл продолжает оказывать поддержку для прокси-решений, он ясно дал понять, что сайты с неправильно настроенные мобильные прокси будут понижаться в выдаче.

Совет: если вы обираетесь продолжать использовать этот метод, советую вам ознакомиться с рекомендациями Гугла.

По правда говоря, им мало кто следует. Только 4.5% ретейлеров из Internet Retailer Top 500 выполнили все необходимые предписания.

Гугл обновил требования к сайтам, использующим отдельные мобильные URL (включая почти все мобильные сайты использующие прокси). Теперь он требуют двусторонней (то есть, «двунаправленной») разметки. Узнать больше о требованиях Гугл.

Если у вас отдельный мобильный URL, 100% выполнение всех требований будет означать изменение разметки для каждой страницы мобильной и десктопной версии. Кроме того, на мобильную и планшетную версию потребуется добавить тэг canonical link, указывающий на соответствующий контент на десктопной версии.

В уже упоминавшемся Internet Retailer Top 500 более половины сайтов не установило канонический тэг для страниц, кроме главной. 95% проигнорировало соответствующую десктопную разметку.

3. Типичные ошибки.

Гугл указал на некоторые распространенные ошибки, которые приводят к понижению в выдаче.

Невоспроизводимое видео
Некачественные редиректы
404 только для смартфонов
Загрузка приложений
Неправильные перекрестные ссылки
Скорость страниц

Я не буду останавливаться на проблемах с видео, т.к. в настоящее время они встречаются все реже. Мы так же опустим обсуждение скорости загрузки не потому, что она не важна, а потому, что это слишком обширная тема для данного поста.

Рассмотрим оставшиеся ошибки более подробно.

Некачественные редиректы.

На многих сайтах есть страницы, оптимизированные для смартфонов, и пользователи перенаправляются на них в зависимости от агента пользователя. Обычная ошибка – перенаправление пользователя по URL’у сайта для десктопа на неправильный URL сайта для смартфона.

Только представьте разочарование пользователя, перешедшего с мобильного поиска на сайт и не найдя там нужной информации! А ведь мобильный поиск приносит до 15% трафика.

Если вы последовали рекомендации Гугла и используете единый URL, то вам не о чем волноваться. В противном случае убедитесь, что ваши редиректы работают правильно.

404 только для смартфонов.

В последнее время это встретишь нечасто, но еще попадаются сайты, которые выдают ошибку 404, когда страница оптимизированная под мобильные устройства недоступна. Если содержимое все же недоступно для просмотра с экрана смартфонов, покажите десктопную страницу. Это лучше, чем сообщение об ошибке.

Загрузка приложений.

Будучи активным мобильным пользователем, я впадаю в депрессию, попадая а страницу напичканную рекламой мобильных приложений. В лучшем случае, владелец сайта использует оптимизированную под мобильных пользователей версию. В худшем, от рекламы нельзя скрыться. В любом случае, я как можно быстрее возвращаюсь к результатам поиска и ищу более дружелюбный сайт. И я такой не один.

Гугл уже не раз предупреждал, что будет пессимизировать такие сайты. Спасибо тебе, Гугл за это!

Неправильные перекрестные ссылки.

Когда пользователь отказывается от просмотра мобильной версии странице, его нужно перенаправить на соответствующую десктопную версию, а не на домашнюю страницу или лендинг.

Если вы заметите, что посетители часто отказываются от просмотра какой-либо страницы, это свидетельствует о том, что с ее мобильной версией что-то не так. Среди распространенных ошибок: показ только части контента или неработающая мобильная версия.

Заключение.


Поскольку доля мобильного трафика только увеличивается, важно следовать рекомендациям Гугла для улучшения позиций ваших сайтов.

Оригинал статьи на английском языке: http://moz.com/ugc/the-definitive-guide-to...obile-seo-rules

Замечание модератора:
Эта тема была закрыта автоматически ввиду отсутствия активности в ней на протяжении 100+ дней.
Если Вы считаете ее актуальной и хотите оставить сообщение, то воспользуйтесь кнопкой
или обратитесь к любому из модераторов.


Спасибо сказали: (2)
22.7.2013, 12:29 Сайт, занимающий 1 позицию в Гугле, получает 33% поискового трафика.
Всем здравствуйте! Сделала перевод статьи с Searchenginewatch и выкладываю на ваше обозрение.

Исследовательская компания Chitika, которая также специализируется на таргетинге рекламы в Сети, опубликовала интересный отчет по распределению поискового трафика, в зависимости от занимаемой позиции, в поисковой выдаче. Согласно полученным данным, сайт занимающий верхнюю строчку в выдаче, получает 33% всего трафика; занимающий вторую позицию только 18% и дальше эти цифры еще больше уменьшаются.



Для первых 10 позиций, цифры распределились следующим образом:



Аналогичное исследование, проводимое Chitika в 2010 году, дало похожие результаты, что позволило компании сделать вывод о крайней необходимости мероприятий, направленных на улучшение ранжирования сайта, для компаний, ведущих онлайн бизнес .

«Занимать лидирующую позицию в поисковой выдаче для коммерческого сайта чрезвычайно важно и эти цифры только подтвердили колоссальный разрыв между лидером отрасли и конкурентами, находящимися позади. Все это еще раз доказало необходимость использования поисковой оптимизации (SEO) для того чтобы представить бизнес с наилучшей стороны для посетителей ресурса и получить от этого максимальную отдачу. Причем, как показали цифры, влияние SEO за последние годы только возросло и эта тенденция не собирается меняться в ближайшем будущем».

Не вызывают удивление и данные, по распределению трафика между страницами. Первая страница получает 92% всего трафика, в то время как вторая всего 4,8%, а третья в вовсе 1.1%



Но на какой странице вы бы не находились, верхняя строчка все равно собирает больше трафа. На страницах 2, 3 и 4, трафик падал на 27%. Вторая и третья строчки получали соответственно 11.3% и 5.4%.

Для этого исследования, компанией были проанализированы десятки миллионов показов рекламных объявлений, где пользователь попадал на страницу через поиск Гугла.


Толкование результатов ранжирования и информации о трафике.


Позиции, занимаемые сайтом в поисковой выдаче, так же важны как и трафик, который они приносят. И хотя, позиции по конкретному запросу могут колебаться в зависимости от пользователя, статистика доказывает, что верхние позиции опять выигрывают.

Западные компании достаточно часто проводят подобные исследования и вывод всегда один - большую часть трафика получает именно топ-10 и первая позиция, как и прежде, является абсолютным фаворитом.

Так, Compete.com в прошлом году на практике доказали, что 53% кликов из органического поиска приходится на первую ссылку.



Аналогичное исследование Slingshot SEO в 2011 году, подтверждает, что первый сайт в выдаче получает 18.2 % кликов, второй — 10.05%, а третий - 7.22 %.



Надеюсь, эти исследования доказали вам, что SEO для сайта это уже не роскошь и не часть дополнительных расходов, а насущная необходимость. Только подумайте, сколько потенциальных клиентов вы теряете каждый день, если не заботитесь о SEO оптимизации. А если ваш сайт оптимизирован и находится на первой странице выдачи, то вероятность успешности вашего проекта значительно повышается.

Оригинал статьи на английском языке: http://searchenginewatch.com/article/22761...h-Traffic-Study

16 страниц V  « < 6 7 8 9 10 11 12 13 14 15 16
RSS Текстовая версия Сейчас: 25.4.2024, 7:54
Дизайн