X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

История благодарностей участнику genjnat. Поблагодарили: 1167 раз(а)
Дата поста: В теме: За сообщение: Поблагодарили:
23.1.2020, 19:29 В рамках новогоднего конкурса 2019–2020 «Кейс года»
Самозанятый: инструкция на основании личного опыта
Цитата(grumdas @ 11.1.2020, 16:02) *
По нынешним реалиям: стали бы ИП или самозанятым?


Это не или/или. Это опции, которые лишними не бывают.
Я бы от такой (самозанятый) у нас в Украине не отказался. Регистрировать ИП (у нас ФОП), я не собираюсь. Вопрос пенсии волнует по стольку по скольку... У нас пенсионное законодательство за последние 30 лет, уже раз пять менялось. По текущей версии, буду я отчислять в пенсионный или нет, на пенсию я уже претендовать не смогу. Мне не хватит стажа.
А выставить счет бывает нужно. Сейчас в таких случаях приходится обращаться к тем кто может провести через себя, отчисляя им процент. Больший чем ставка налога указанная в статье. И каким-то левым дядям, хотя мог бы заплатить государству...


Спасибо сказали: (3)
19.1.2020, 15:10 Краулинговый бюджет и настройка индексации интернет-магазина.
Или как я за индексацию многостраничника воевал.
Цитата(rom_4 @ 19.1.2020, 13:59) *
А почему не сделано просто Disallow: /*?

rom_4, потому, что например и панагия начинается с /?page, и еще ряд страниц ухудшать частоту и глубину сканирования по которым не нужно. Плюс доступ ботам к файлам стилей и тому подобному.


Спасибо сказали: (2)
19.1.2020, 13:47 Конкурс на лучший мануал/кейс/инструкцию "Кейс года"


Спасибо сказали: (1)
19.1.2020, 13:36 Краулинговый бюджет и настройка индексации интернет-магазина.
Или как я за индексацию многостраничника воевал.
Для конкурса "Кейс года"

Случился мне в работу многостраничный ИМ, 150 к стр. и к нему десяток клонов на региональных поддоменах, т.е. всего около 1,5 млн. С очень плохой индексацией. По основному домену: Яндекс - 70 к в индексе, Гугл - 20, по поддоменам вообще от 1 до 10 к. Поэтому индексация стала одной из приоритетных задач.

Изначальное состояние сайта было не то чтоб совсем плохое (качество контентных страниц выше среднего), но помимо карточек товаров и категорий в индекс шло порядка 50 к страниц фильтров, более 7 к пагинации, страницы с get-параметрами… в общем не сильно меньше чем контентных.
Такая диспозиция была два месяца назад, т.е. кейс пока еще не завершенный (мало времени), поэтому уж извините, дополнил теорией. Которая надеюсь тоже будет не бесполезной. Но и результаты тоже есть. Собственно, этим и хочу поделиться.
Сначала о терминологии и инструментах.
(Букв много, но все равно нужно, чтобы понимать, что и зачем делается…)

Термины:
Сканирование и индексация
Их нужно разделять:
а) Сканирование – сбор ботами ПС URL документов и правил индексации по ним (robots.txt, ответы сервера).
б) Индексация – загрузка и сохранение содержимого документов.
Не все просканированные URL индексируются, не все из проиндексированных потом попадают в поисковую выдачу.

Краулинговый бюджет
Количество страниц которое поисковые системы берут в индекс, относительно всех страниц сайта разрешенных к индексации.
Он не выдумка и не глупость, у тех кто работает с многостраничными ИМ в этом сомнений нет. И его я тоже разделил бы на:
Краулинговый лимит – это количество страниц которые планирует проиндексировать ПС за один заход.
Краулинговая достижимость – количество страниц которые у ПС получилось проиндексировать за один заход.
И отдельно нужно выделить количество страниц которые ПС планировала проиндексировать, смогла и решила использовать в результатах поиска. Совокупность этих процессов и будет краулинговым бюджетом.

Экономия краулингового бюджета
«Краулинговый бюджет» более определяется качеством сайта, его общей оценкой. У поддоменов она, например, намного ниже, поэтому и краулинговый бюджет у них сильно меньше. Но краулинговый «лимит» и «достижимость» более зависят от настроек индексации, т.е. куда и как вы направляете ботов, и от скорости и настроек сервера.
Их можно и нужно регулировать:
а) Убирая из общего индекса бесполезные для вас и для ПС страницы. Т.е. страницы без перспективы на трафик.
б) Перекрывая или усложняя ботам доступ к страницам, которые индексировать не нужно, и наоборот, направляя на полезные.
в) Настройками работы сервера, что и с какой скоростью он отдает ботам тоже имеет значение.
В конечном итоге, через эти настройки можно не только экономить бюджет (использовать его рациональней), но и расширять. Убирая из индекса мусорные, низкокачественные страницы и замещая их контентными вы так же улучшаете общую оценку сайта.

Инструменты:
Rel="canonical"
Для обеих ПС (Яндекс и Гугл) "canonical"- рекомендация а не правило. Не канонические страницы, имеющие другой набор товаров и/или отличия в тайтле/метатегах все равно могут индексироваться, на усмотрение ПС. И не одинаково.
К примеру, Яндекс в последнее время начал массово индексировать страницы пагинации на которых прописана каноническая. Гугл canonical на страницах пагинации учитывает более или менее четко.
Для страниц фильтров или сортировки обе ПС учитывают canonical значительно лучше.
Для гугла canonical не только указывает какую страницу следует индексировать как основную, а также выполняет консолидирующую функцию для всех неканонических страниц. С консолидацией имеющихся на них факторов (ссылочных и поведенческих) на каноническую.
Работает ли консолидация для Яндекса не известно, пояснений они не дают. Есть мнение, что не работает.
Rel="canonical" краулинговый лимит не экономит. Как и любое правило индексации размещенное непосредственно на странице. Поскольку боту все равно нужно зайти на страницу, чтобы его считать.

meta name="robots" content="no/index, no/follow
Краулинговый лимит тоже не экономит. Из того, что не все знают про этот инструмент, это что столь популярная у вебмастеров комбинация noindex/follow, со временем все равно расценивается гуглом как noindex/nofollow.
На том основании, что раз страница запрещена, то и посещать ее особо не за чем. Поэтому там, где боты все-таки должны свободно проходить (например, по длинной пагинации) лучше не использовать.

robots.txt
Считывается сразу при заходе ботов на сайт. Запрещенное в robots исключается из индекса достаточно быстро. Сильно быстрее чем через правила на страницах. Для больших сайтов это важно.
Правила индексации прописанные в robots.txt обязательные для исполнения (на сколько вообще для ПС что-то может быть обязательным). Для сканирования – не обязательное, боты по ним тоже могут ходить, но еще хуже чем при meta name noindex, follow.
robots.txt ничего ни с чем не консолидирует. Но краулинговый лимит экономит.

Ответы сервера 301, 304, 404, 410
404 и 410
Для удаленных страниц традиционно используют 404 – «не найдено», т.е. временно недоступно. По которому поисковики их убирают из индекса очень долго. Но есть еще ответ 410 (удалён), по которому чистка должна проходить быстрее. В теории. Лично не проверил, пока еще в задачах у программиста.
Повторюсь, для больших сайтов скорость исполнения изменений в настройках имеет критическое значение. 100-200 к страниц переобходятся ботами месяцами, а отдельные документы даже и годами.

301
Для склейки дублей и мусора на котором и пользователю и ботам делать нечего.

304 Not Modified
Указывает ботам, что документ не менялся, и повторно его загружать не нужно. Проще говоря, это не трогай, бери следующий. Полезен и для экономии краулингового лимита, и с точки зрения уменьшения нагрузки на сервер.

Файлы Sitemap
Сами по себе на процент индексации влияют мало, но все url из них гарантированно будут просканированы. Поэтому использовать нужно. Особенно после изменений настроек.

Панели Яндекс вебмастер и Google Search Console

В Яндексе:
Загрузка Sitemap - их можно не только добавлять в роботс но и загружать непосредственно в панель. Что несколько ускоряет дело.
Обход по счётчикам – привязка счетчика метрики. Было сделано еще до меня, поэтому на сколько ускоряет индексацию сказать не могу. Однако, если бы не было, то сделал. По любому не мешает.
Удаление страниц из поиска, как списками так и по префиксу. Выполняется быстро, однако для удаления списком есть лимит 500 стр./день.
Переобход страниц - для ускорения переиндексации важных страниц. Работает, но тоже лимит, 140 стр, поэтому все туда добавить не выйдет.
Скорость обхода – Яндекс перестал поддерживать Crawl-delay, если боты кладут сайт, или наоборот ведут себя вяло, регулировать скорость загрузки страниц нужно здесь.

В Гугле:
Загрузка Sitemap
Удалить URL-адреса
Статистика сканирования
Параметры URL

Теперь о самих настройках и результатах
Пагинация.
В индексе страницы пагинации совершенно бесполезны, только занимают место контентных и добавляют проблем с релевантностью.
У меня на них изначально стоял rel="canonical", Гугл его выполнял, но Яндекс зажевал 7 к.
Просто запретить в robots.txt или через meta name и тем самым обрезать консолидирующую функцию rel="canonical" (по крайней мере для Гугла) не хотелось. Не хотелось усложнять ботам прохождение по пагинации. В некоторых категориях она свыше 100 страниц. И не хотелось ждать полгода пока будут выполнены настройки указанные на страницах.
Поддерживает ли Яндекс эту самую консолидацию, не известно, поэтому решено было так:
Добавил в robots.txt отдельный блок правил для Яндекса и в него - Disallow: /*?page
Через 4 дня все страницы выпали. После этого Disallow: /*?page убрал. А на страницах пагинации, к canonical поставил meta name noindex, follow но только Яндексу.

CODE
<link rel="canonical" href="http://site.com/osnovnoy-url"/>
<meta name="YANDEX" content="noindex, FOLLOW" />

Гуглу остался canonica

Фильтры
Сортировка товаров по характеристикам. На сайте стоит плагин который создает под них отдельные (статичные) страницы, плюс генерирует их в Sitemap. Заказчик его поставил с целью развернуть семантику по НЧ. И не сказать что он совсем плохой. Генерит собственные заголовки, метатеги, описания. Можно настраивать маски и добавлять переменные. Но как уже писал, он генерировал порядка 50 к страниц, и на все давал 30-40 поискового в день. Но это тоже трафик. Просто снести было жалко.
Проблема заключалась в том, что вычленить трафиковые (например через страницы входа в метрике) было не возможно. В URL фильтров не было идентификатора (например «Filter»), они ничем не отличались от любых других на сайте.
Поэтому добавил в тайтлы фильтров уникальный символ «➤». и через некоторое время выгрузил искомое из аналитикса в эксель.
Развернуть/Свернуть

Как оказалось, хотя бы один переход за месяц давали только 400 фильтров, их и оставил, остальные 50 к были переведены на динамические URL и запрещены к индексации.
Статичные url на которых они были раньше получили статус 404. Что меня тоже не устраивало. По опыту знаю, что некоторые еще и через год будут висеть в индексе. Запретить в robots.txt или удалить через панели ПС по префиксу нельзя (у них его нет), поэтому дал задачу программисту сделать по ним ответ 410.
Кстати, Гугл цепанул utf символ «➤» в сниппеты.
Развернуть/Свернуть

Прикольно, потом поменяю на что-то интересней

304 Not Modified
Интересная штука, опробовал впервые.
Сервер на запрос ботов отдает код 304, если дата Last-Modified (последнего обновления) старше, чем в запросе If-Modified-Since. Т.е. если документ с этого времени не менялся, сервер дает ботам ответ 304 Not Modified. Им нет необходимости загружать его повторно и они запрашивают следующий документ. Если кому-то интересно детальней
На сколько это улучшило индексацию не проиндексированных страниц или страниц на которые были внесены изменения, по факту посмотреть нельзя, но в теории должно было. Плюс уменьшил нагрузку на сервер. Что для этого сайта со всеми его поддоменами тоже было не маловажно.

Динамические страницы (get)
Это все страницы, которые содержат в URL знак «?» и не имеют собственного уникального контента.
Выискивать все их вариации на большом и многофункциональном сайте сложно и не надежно, поэтому зашел в панель я-вебмастер > страницы в поиске. Выгрузил их в ХLS. В поиск по документу «?». Собрал и по уникальным идентификаторам в url добавил в robots.txt.
Развернуть/Свернуть


Уникализация title и метатегов.
Напрямую к настройкам индексации не относится, но имеет для нее ключевое значение.
Многим владельцам больших ИМ знакома проблема групп однотипных товаров, с идентичными тайтлами, метатегами, и собственно самими карточками. Где товары отличаются только 1-2 характеристиками (цвет, размер, цена, производитель и т.п.). Индексируются они плохо, как индекс не настраивай. А в моем случае проблема умножалась на 10 региональных поддоменов.
Поэтому для каждой версии сайта были настроены «маски». В тайтлы и дескрипшены карточек и категорий, в дополнение к названию товара была выведена цена, название бренда, страна производителя. В региональные подомены, плюс к этому были выведены название региона и url поддомена, а в дескрипшены еще и региональный телефон и адрес.

Sitemap
После того как все вышеперечисленное было сделано, сгенерировал новые карты и загрузил в панели Яндекса и Гугла. Через несколько дней появились отчеты. А через пару недель и первые результаты по индексу. Яндекс:
Развернуть/Свернуть

110 к т.е. почти сколько, сколько их и есть
Гугл:
Развернуть/Свернуть

было 19 к, теперь 31

И поисковый трафик
Развернуть/Свернуть


График не особо впечатляющий, вмешался новый год. А главное, до начала работ в настройках метрики стояло «учитывать поддомены». То есть она считала общий трафик со всех версий сайта. Начиная работать изменил на «не учитывать», а на поддомены поставил отдельные счетчики. Что бы нормально отслеживать каждый.
По поддоменам он тоже подрос и сейчас на них 150 поискового. А общий (вместе с основным) подрос с 200 до 400.
Не то чтоб много, но работы идут всего третий месяц, и далеко не все из сделанного уже в индексе и дало результат.


Спасибо сказали: (8)
15.1.2020, 17:37 Комплексный прогон сайтов ru и en
Заказывал прогон, отпишусь о результатах.
Это первый АП, ссылки только появились, т.е. будут еще индексироваться.

Ахрефс (он кстати быстрее других начал показывать)
Развернуть/Свернуть


Серч консоль
Развернуть/Свернуть


Я-вебмастер
Развернуть/Свернуть


Услуга полностью соответствует описанию, и стоит своих денег.
Спасибо.


Спасибо сказали: (1)
13.1.2020, 17:55 PDF и поисковики
Если добавить один и тот же PDF к товарам, это навредит?
Вопрос решается просто Disallow: /*PDF
Если они однотипные.
Если своя инструкция (аннотация) для каждого товара, то тут уже и плюсы и минусы... В общем файлы ПДФ это такой же контент как фото или видео, запрещать к индексации не очень правильно.
Но при этом, если их много - засоряют индекс. Для многостраничных ИМ (где этих ПДФок могут быть десятки тысяч), это проблема. Трафик на них по сути бесполезный, обычно там нет выхода на сайт. Там и счетчика нет, т.е. скорее всего вы о нем и знать не будете. Только через сервер.
В таком случае лучше давать ссылку с ключом "Скачать инструкцию + название карточки", который может приносить какой-то трафик непосредственно на сайт. И все таки Disallow: /*PDF


Спасибо сказали: (2)
12.1.2020, 11:18 Как я покупаю ссылки в GGL
НГ 2020
Порталы (с форумами, досками объявлений, открытыми профилями, новостными лентами…), почти никогда не имеют более 95% индекса… При этом, среди них стоит искать трастовые живые площадки…
Большие статьи «портянки», оформленные ровно на столько, на сколько требует тематика (т.е. иногда без видео, картинок), чаще можно увидеть, как раз на сайтах для людей, чем на сателитах под биржи…
Почти все сайты под ГГЛ/миру и пр., стараются перемежать биржевые статьи статьями без ссылок… И обязательно с этой дурацкой картинкой, в левом верхнем углу. Нужна она там или нет…
Трафик от 50 – мало. Проверить накрутку такого мизера сторонними сервисами невозможно. А накручивают 100+ на ГГЛ очень многие. Симилар данные по таким показывает редко. А хоть сколько-то ключей в топе есть почти у всех.
Сайты реальных (работающих) компаний на ГГЛ ссылками не барыжат, в основном это сайты мертвых компаний или восстановленные дропы. Но и их мало, тематических – тем более.
--------------------
По итогу, вы и нарисовали средний аккуратненький статейник созданный под ГГЛ/миру. Из зоны риска для ПС, и совсем не обязательно рабочий как ссылочный донор…


Спасибо сказали: (2)
8.1.2020, 14:30 Реально ли вытеснить агрегаторы или крупные магазины из выдачи Гугла?
интересует мнение знающих)))
Агрегаторы вполне можно подвинуть. Ну или занять среди них место в ТОПе.
Но в общем да, нужен хороший тематический дроп (старый, с чистой историей, ссылками, и не очень давно отключенный). Много чего зависит от товара, как минимум он не должен быть "однодневкой". Хороший контент и готовность к расходам...


Спасибо сказали: (1)
3.1.2020, 11:40 Работают ли ссылки с профилей форумов?
devvver.ru, автор Евгений Молдовану
Цитата(devvver @ 2.1.2020, 23:11) *
Вы точно Яндекс смотрите?


Да, попутал)


Спасибо сказали: (1)
29.12.2019, 17:19 QIWI. Платеж проверяется службой безопасности.
Платеж проверяется службой безопасности. Это занимает до 48 часов.



Висит уже сутки. Если верить гуглу, не только у меня. Несколько дней назад киви поменял алгоритм, и теперь у всех или у многих. Некоторые обменники уже прекратили обмен с киви...



Классно. Российские электронные платежки от планомерного усложнения идентификации/верефикации и использования, решили наконец покончить суицидом?

ПС
У кого еще так же, долго это?


Спасибо сказали: (3)
23.12.2019, 23:11 Левые страницы в Гугл
Цитата(JOHNY @ 23.12.2019, 21:31) *
Чекни через скримин фрог, там будет всё понятно.


Или не будет...
По описанию (в индексе именно гугла что-то левое, а при переходе попадает не на то, что видит в индексе), больше всего похоже на популярный дор. Который сервак отдает только ботам гугла. Остальные (в т.ч. другие боты) получают обычный сайт. Хотя, по такому изложению вопроса, понятно одно - фрог у него вряд ли есть...


Спасибо сказали: (1)
20.12.2019, 14:54 В сниппете на странице поисковой выдачи кнопки чата больше не будет.
Цитата(regem @ 20.12.2019, 13:10) *
это серьёзно ухудшает пользовательский опыт


Серьезно ухудшают пользовательский опыт, бесполезные идеи маркетологов. Суть которых не полезность для юзера, а только удержание его на странице поиска.
Очевидно, что не не ознакомившись с товаром/услугой на сайте, нет смысла в обсуждении через чат на страницах поиска. А после перехода на сайт, нет смысла в чате на поиске...
Похоже яндексоиды признали этот незамысловатый факт. Но переложили вину на владельцев сайтов)))


Спасибо сказали: (1)
18.12.2019, 8:19 Про беки в вебмастере
Цитата(karambas @ 18.12.2019, 0:19) *
Тысячу лет не заходил в вебмастер по одному проекту. Сегодня зашел и офигел.

"Тысячу лет назад" там сколько было, вы их покупали, у вас крутой сайт на него могли поставить 649 естественные...?
Цитата(karambas @ 18.12.2019, 0:19) *
хотя Мегаидекс показывается 649 внешних ссылок....

Ссылок, ссылающихся доменов...? Вы по ним переходили, смотрели с чего и какие они, они вообще есть...?

Если не давать себе труда хоть немного вдумываться, то "офигивать" можно практически с чего угодно. И приводить в состояние "офигевания" окружающих, например такими вопросами... Когда ответ прямо перед тобой, нужно просто перейди по этим ссылкам на мегаиндексе и посмотреть. Но нет, лучше создам тему на форуме, пусть они угадают. Не глядя...


Спасибо сказали: (2)
13.12.2019, 22:15 Microsoft заставит пользователей уйти с Windows 7
Время то как летит... казалось бы, еще вчера нас выгоняли с виндовс xp.


Спасибо сказали: (4)
10.12.2019, 22:58 Конкурс на лучший мануал/кейс/инструкцию "Кейс года"
1 участник = 1 статья?


Спасибо сказали: (2)
6.12.2019, 10:43 В России предложили верифицировать авторов комментариев в СМИ
Цитата(seostock @ 6.12.2019, 9:27) *
Ассоциация профессиональных пользователей соцсетей


чего-то ржу :D
У нас (в Украине) такие тоже есть. Комитеты по свободе слова при верховной раде. Ассоциации свободы и независимости СМИ и пр. которые постоянно выступают с инициативами усилить контроль за чем-то, ответственность за что-то, а куда-то вообще закрыть доступ... видимо самим себе. Все эти клоуны очень неплохо финансируются (из бюджета разумеется), и единственное для того, чтобы легитимизировать закручивание гаек от имени общественности. А в данном случае, от имени пользователей соцсетей)))


Спасибо сказали: (1)
4.12.2019, 19:38 Как заставить Яндекс взять дескрипшен в сниппет?
Никак не заставите. Тоже как-то озадачился, пошел блогеров читать, все гонят чушь о прямом вхождении поискового ключа и т.п.
При том, что по факту даже точное совпадение поискового запроса (достаточно длинного, 4-5 слов) с этим запросом в дескрипшене ничего не дает. Если есть такое же прямое вхождение в тексте, то он почти каждый раз берет из текста.

Как вариант, играться с описанием а не с дескрипшеном. Т.е. впишите ключевую фразу (по которой страницу чаще всего находят), в самое начало текста, так, как хотите видеть этот текст в сниппете.


Спасибо сказали: (2)
3.12.2019, 22:08 Яндекс сократил количество результатов поиска до 250
Цитата(VinogradOFF @ 3.12.2019, 20:12) *
А для каких целей

Что бы:
узнать сколько страниц в индексе по факту. А по факту их почти всегда не так как показывает на первой странице.
краулеры это одно, а куда залез и что нашел бот ПС это все равно нужно проверять
сейчас настройки индекса могут быть правильные, а ранее владелец запустил туда кучу мусора. это тоже нужно знать
для ИМ с динамически обновляемыми товарными позициями, заходя/не заходят, ушли ли из индекса более не актуальные...
И еще по куче причине.


Спасибо сказали: (1)
3.12.2019, 0:42 Что делать с WMR кошельками для тех кто в Украине?
Цитата(JOHNY @ 2.12.2019, 23:22) *
разницы не заметил

Опытный пользователь найдет как заплатить. Я про среднего заказчика, который пользуется вебмани 3 раза в год.
Если у меня теперь спрашивают, что такое WMP, и зачем ему создавать и пополнять WMR, то я сразу советую оплатить через банк. Украинским заказчикам оплатить через вебмани я уже давно не предлагаю. Есть риск, что еще придется объяснять, что такое VPN...


Спасибо сказали: (2)
3.12.2019, 0:19 Яндекс сократил количество результатов поиска до 250
slaru, что правда у меня по 15 результатов на странице. Т.е. максимум для этого запроса site:мой-сайт 375



Спасибо сказали: (3)
2.12.2019, 21:27 Что делать с WMR кошельками для тех кто в Украине?
И такие темы будут появляться и появляться, еще очень долго...
Не можете вы его поменять на WMP, это могут только резиденты РФ. Ничего с ним не делайте. Пользуйтесь как раньше. С них можно менять на вмз, выводить через обменники и т.п. Минус лишь в том, что с вмп на впр оплачивать теперь не смогут. Но по прежнему могут оплачивать из РФ вам на WMR через онлайн банкинг. Т.е. многие партнерки. Или заказчики оплачивающие через банк (кажется и через терминалы), могут закидывать вам на WMR. Функционал урезаный, но они все еще нужны.


Спасибо сказали: (2)
2.12.2019, 17:19 Яндекс сократил количество результатов поиска до 250
Цитата(_fan_ @ 2.12.2019, 14:59) *
Пускай сокращают

Сократили все. В т.ч. для запросов типа site:мой-сайт. Т.е. теперь нельзя посмотреть сколько и каких именно страниц в индексе, если их более 250. Или нужно изгаляться просматривая по категориям.
ПС
Еще Яндекс обрезал поиск по точной фразе из текста. Ранее тоже выдавал далеко не все копии, но десятки. Теперь сильно меньше, или вообще "Точного совпадения не нашлось". Хотя страницы с текстом в индексе. И в сохраненках он есть.


Спасибо сказали: (1)
29.11.2019, 22:06 Google: для нас важна не скорость приобретения ссылок, а их качество
Цитата(seostock @ 23.10.2019, 15:57) *
Следовательно, скорость приобретения ссылок и период, в течение которого они были получены, не являются значимым фактором для Google.


Следовательно, из чего?
Человек трижды, в разных вариациях сказал, что в приоритете качество. При это ни разу не сказал, что скорость не имеет значения. Но все, как-то умудрились прочитать, то, что им хочется)))


Спасибо сказали: (1)
26.11.2019, 21:50 как подобрать ключ фразу для главной категории
Цитата(VinogradOFF @ 26.11.2019, 20:32) *
"Спецодежда, костюмы для охоты и рыбалки"

Для охоты, рыбалки, должно висеть на соответствующих корневых кластерах сайта. а вот "Спецодежда" вариант. Который нужно уточнять, согласно возможностям сайта.
А вообще тематика скользкая, с ней нужно аккуратно)))



Спасибо сказали: (3)
23.11.2019, 18:25 Как работать с дроп доменом?
Цитата(wtf_bro @ 23.11.2019, 17:04) *
но нет некоторых картинок и т.д. Как быть? Сделать просто редирект на главную

Если нет картинки, то должна быть просто битая картинка, которую нужно восстановить или заменить. Зачем ее куда-то редиректить?
Если вы про битые ссылки, то проверяйте ссылочный профиль, на какие страницы у сайта есть входящие. Если есть на отсутствующие страницы, то лучше заредиректить. На аналогичную по запросу. Если таковой нет - на главную.
А в остальном, проверять дроп нужно по истории. Вебархив (что там стояло), по ссылочному профилю, РДС, история посещаемости, был ли там вообще трафик… А не его запуском, со всем мусором выкачанным из архива.
Цитата(wtf_bro @ 23.11.2019, 17:04) *
Тему "Свадьба" я хочу оставить как раздел, а продвигать по теме "отношения" и т.д. Насколько это правильно?

Нормально


Спасибо сказали: (2)

29 страниц V   1 2 3 4 5 6 7 8 9 10 11 > » 
RSS Текстовая версия Сейчас: 28.1.2020, 13:25
Дизайн