X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость ( Вход | Регистрация )

Открыть тему
Тема закрыта
> Аудит своими руками, Конкурс на лучший мануал/кейс/инструкцию 2015/2016
genjnat
genjnat
Topic Starter сообщение 10.1.2016, 4:58; Ответить: genjnat
Сообщение #1


Старожил
******

Группа: Active User
Сообщений: 2276
Регистрация: 29.10.2008
Из: Одесса
Поблагодарили: 1025 раз
Репутация:   114  


Не уверен что это можно назвать кейсом или мануалом, скорее пособие по анализу собственного сайта. Но надеюсь кому-то поможет выявить проблемы на уже работающем сайте, или предотвратить ошибки при создании нового.

Домен

Начинать разумеется нужно с истории.
Для примера возьмем популярный на СЕО форумах вариант - site.ru.
Нам нужно узнать не выпадал ли из индекса, не дроп ли, что стояло... Это важно, многие санкции накладываются на домен и наследуются.
Развернуть/Свернуть
Первое что смотрим это whois

Прикрепленное изображение


created: 2005.09.15.

Второй инструмент recipdonor.com, он платный, но на 1$ можно проанализировать десятки сайтов.
Тут нам нужна вкладка "история параметров"

Прикрепленное изображение


"Портянку" истории я порезал до приемлемого размера, оставив ровно столько чтоб было видно, что история у подопечного длинная и не простая.
Это не дроп (дата регистрации 2005 а индексируется с 2008), т.е. владельца вероятно не менял, но многократно выпадал из индекса, обнулялся индекс цитирования, к нему наклеили разных зеркал...
Более чем достаточные основание задуматься, а стоит ли его регистрировать, а если уже зарегистрировали и поставили на него новый сайт - то не связаны ли возможные проблемы с историей домена. Но в любом случае, это повод более детально разобраться, теперь уже при помощи веб-архива

Прикрепленное изображение


Здесь вы сможете посмотреть, что и в какие отрезки времени стояло на сайте, возможно получится соотнести с выпадениями из индекса или обнулением ТИЦ, понять по каким причинам это происходило...

Техническое состояние сайта

Валидность, кросбраузерность, скорость, доступность из разных регионов и на мобильных устройствах… На примере maultalk.com (да простит меня администрация). Не буду объяснять для чего это нужно, думаю и так понятно, поэтому просто ссылками на сервисы:
Развернуть/Свернуть

1. Валидность по validator.w3.org
Как видите валидатор ошибок находит очень много, но валидность на СЕО не влияет (и maultalk с его позициями в ПС живое тому доказательство). Если конечно косяки в коде не препятствуют индексации, а сайт не разваливается на составные части. Но разобраться, в чем именно состоят ошибки (по крайней мере критические) будет не лишним.
А заодно, на этой же стадии можно проверить сайт на кросбраузерность. Сервис считается одним из лучших, но я все равно предпочитаю смотреть непосредственно в браузерах, что и вам рекомендую.

2. PageSpeed - 62 / 100, что примерно на среднем уровне.

3. Для мобильных устройств, Не оптимизировано.

4. Общая скорость загрузки, первичная - 6.043s, повторная - 2.819s, что выше среднего.

5. Доступность по регионам , все ОК.

6. Проверка на битые ссылки/изображения (десктопная програмка)

Настройки индексации

Тут ошибки встречаются, наверное, на 80% сайтов, поэтому подробней.

Стандартные проверки:
Развернуть/Свернуть
1. Проверьте задан ли основной домен, с www или без 301 редиректом.
2. Если URL страниц оканчиваются слешем (или без такового), пример - site.ru/slony/rozovyye-slony/ или site.ru/slony/rozovyye-slony проверьте настроен ли 301 редирект на желаемую версию. Традиционно, каталог (раздел/категория) завершают слешем, файл (конечную страницу) – без, либо с расширением .htm, .html, .php…
3. Проверьте настройки страницы 404, и какой код отдает сервер.
4. Проверьте наличие и валидность xml карты, наличие ссылки на карту в файле robots.txt. Располагается последней строкой после директивы Host. Ну и сразу проверьте правильно ли задан сам Host, соответствует ли настройкам 301.
5. Проверьте доступность для яндекс бота, для гугла - панель инструментов>посмотреть как гугл-бот.

Индивидуальные настройки
Развернуть/Свернуть
Как известно, в индекс поисковых систем не следует отдавать страницы не имеющие самостоятельного контента, татлов, заголовков, метатегов, технические дубли, пользовательский функционал...
Выявить их вам поможет Netpeak Spider, либо ее аналог с более развернутым функционалом ScreamingFrogSEOSpider. Обе бесплатные и интуитивно понятные.
Ну и конечно выдача ПС, раз и два, их боты иногда умудряются залезть, куда програмкам и в голову не придет...

Много споров относительно того стоит ли отдавать в индекс пагинацию, теги, профиля пользователей... мое мнение простое - все что не представляет пользы для поисковой выдачи и не имеет перспективы на трафик - можно и нужно закрывать.
Пагинация, это почти всегда дублирование тайтлов/заголовков/метатегов, попытки технической уникализации (добавлением к тайтлу стр 1,2,3...57), это техническая уникализация и есть, запрос все равно тот же. Закрывать лучше через rel=canonical на стартовую, альтернатива <meta name="robots" content="noindex, follow" />, если не то ни другое - Disallow: /*page, или как обозначается в URL вашего сайта.
Профиля, если вы не доросли до уровня социально значимого сайта - <meta name="robots" content="noindex, nofollow" /> или Disallow: /*user.
Теги, это всего лишь альтернативный способ сортировки контента, в большинстве случаев трафика тоже не дают, потому что почти всегда однословники, которые 99% сайтов в зону видимости не затаскивают, метатеги не прописываются или дублируют с главной, собственного уникального контента не имеют... если узнаёте, то делать им в индексе тоже нечего.

По каждому из пунктов можно дискутировать, тем более что и реализация может быть разная, но в совокупности, на 100 контентных страниц, все это (плюс стандартная рубрикация) генерирует 200-1200 балластных. А чем больше вы отдаете в индекс бесполезного, тем выше вероятность что весь сайт посчитают таковым.

Контент

Собственно это главное за чем на ваш сайт приходят люди и поисковые системы.
Развернуть/Свернуть
Он перекрывает по важности все перечисленное выше и ниже вместе взятое. И если вы его заказываете гденить на etxt по 30 руб/1000, или сами синонимизируете нечто равнозначное, переписывая статью из ТОП-10, которую уже и до вас 20 раз рерайтили... хотите обижайтесь, хотите нет, но сразу можете выбрасывать этот сайт на помойку.
Удаление всех остальных косяков, поможет уберечь его от АГС, может даже и при наличии продажных ссылок. Но трафиковый проект на таком материале вы не построите.
Что такое качественный контент, уж простите излагать не буду, это само по себе тянет на отдельную статью, которые в рамках подобных конкурсов уже не раз писали.

Для проверки на уникальность есть много разных програм/сервисов, сам пользуюсь Advego Plagiatus.
Даже если вы уверены в изначальной уникальности материала, проверять все равно периодически нужно. Выборочно, хотя бы штук 10.
Очень часто это помогает выявить сайты-клоны, или копипастеров прицепивших к вам грабер. Если таковые обнаружились, не паникуйте, проверьте по уникальным фразам из текста, взятым в кавычки

Прикрепленное изображение


Если ПС выводят на первое место вас, то вероятнее всего считают первоисточником, и на плагиаторов можно забить.
Сейчас даже набирает ход мнение, что копипаст (сам по себе без ссылки) может учитываться как фактор ранжирования первоисточника. Это всего навсего предположение, но не лишенное смысла :)
Но в любом случае, если вас идентифицируют как первоисточник, то начинать войну с плагиаторами нет смысла. Если нет, то платоны вам в помощь , Гуглу жалится здесь .

Форматирование тегами акцентирования (болды, стронги, курсивы) и подзаголовками (h2-6)
Развернуть/Свернуть
Очень многие за их счет пытаются расширить семантику, и/или поджать основной запрос...
Все это дает определенный профит в Гугле, но в Яндексе, есть риск получить обратный эффект. Поэтому, не надо фаршировать все страницы болдами/подзаголовками, лучше ограничится наиболее перспективными по трафику (но не более 20-30% от общего числа). И старайтесь не вешать перечисленные теги на ключи задействованные в тайтле/заголовке, или по крайней мере не делайте это системно.

Тошнота и оформление
Развернуть/Свернуть
Для проверки текстов на релевантность по основным ключам пользуюсь этим сервисом, под "основными" подразумеваются задействованные в тайтле.
Условно, нормальной вводностью можно считать 3-4 вхождения на 1000 знаков. Но зацикливаться на этих метриках не стоит, вообще - старайтесь избегать шаблонности, а текст так или иначе будет релевантным тому о чем вы пишите :)

Кусок текста из блока "Настройки индексации"

Прикрепленное изображение


Отслеживать тошноту нужно скорее для того что бы не перегнуть...
ПС все больше уходят от привычных критериев оптимизации (тошнота, теги акцентирования, подзаголовки) к поведению пользователя на этом тексте, поэтому, как это не банально, но пишите думая о читателе.

Отсюда же (поведение юзера на контенте), все больше значения придается оформлению текста. Не ленитесь добавлять фото, видео, таблицы, файлы (док, пдф). Помимо влияния на поведеньческие, они и сами по себе являются элементом оптимизации, потому как все это тоже контент, благодаря которому страница полнее отвечает на запрос пользователя.

Внутренняя оптимизация
Безотносительно конкретного сайта описывать оптимизацию сложно, а я к сожалению таким не запасся. Поэтому попробую перечислить наиболее типовые ошибки

1. Формирование тайтлов и метатегов
Развернуть/Свернуть
Тайтл (<title></title>), как всем известно, это основная директива для ПС, по каким запросам ранжировать документ, поэтому, он должен четко выражать суть страницы, быть предельно содержательным и лаконичным.
По длине, принято считать что тайтл должен быть не более 60-80 символов. Но это больше зависит от выбранной тактики, чем больше в тайтле ключей, тем меньше вес каждого. Поэтому, если вы "давите" конкурентный ВЧ, то лучше ограничится этим самым ВЧ, если задача "отлавливать" по НЧ, то можно расширить даже до 100+ символов (15-20 слов).
Ключи расположенные первыми имеют приоритет, избегайте повторения ключей, старайтесь делать тайтлы "читабельными", избегая прямого копирования из вордастата.
Очень важно иметь возможность прописывать тайтл и заголовок (h1) по отдельности, которая на многих CMS по дефолту не предусмотрена, для случаев когда заголовок хочется сделать более для людей, а тайтл для ПС.
Например, будь у меня сейчас такая возможность, то эту статью можно было бы озаглавить "Как сделать сайт который полюбят ПС", что бы привлечь к ней внимание, а в тайтл прописать "самостоятельный аудит сайта" (246 по вордстату) а вышло - не нашим, не вашим :censored:

Дескрипшен - <meta name="description" content="Здесь, 100-150 уникальных в рамках сайта знаков, описывающих суть страницы, с использованием ключей из тайтла" />
Не нужно делать авто дескрипшены, генерируемые из первых строк текста. Уже хотя бы потому, что таким образом их генерируют на всевозможных агрегаторах, дорвеях, сателитах.
Если нет возможности прописать руками (к примеру на многостраничных ИМ), то уж лучше настроить генерацию по принципу:
CODE
{Биржа оценщиков | Онлайн биржа | Оценочная биржа «БЛА-БЛА»} {предлагает услуги | предоставляет услуги | окажет помощь} {по оценке любого имущества или собственности | в определении стоимости любых видов собственности | в оценке бизнеса, движимого или недвижимого имущества } - ЗДЕСЬ ТЕКСТ ИЗ ТАЙТЛА, {независимая оценка | квалифицированная оценка | компетентная оценка} {от ведущих компаний | от лучших российских компаний | от лучших специалистов отрасли}, тел. +7(495)…-2444

Все переменные подставляются рандомно, чем их больше, тем выше уникальность.
Уже только за счет этого несколько раз удавалось существенно улучшить индексацию инет магазинов, с большим количеством однотипных товаров, и идентичными описаниями, или вообще без них.

Кейворды <meta name="keywords" content="" /> повторю банальное - метатег давно утратил влияние на позиции. Но несмотря на то что все это вроде знают, все равно часто фаршируют ключами по 30-50-100 шт. Видимо на всякий случай. Встречаются примеры, когда весь текст со страницы разбивается на лемы и запихивается в кейворды.
Не надо, для ранжирования он не учитывается, а для определения спамности, вполне себе может...
Если хотите прописывать, то 3-10 ключей, наиболее релевантых данной странице.

2. Нецелевое использование подзаголовков (h2-6)
Развернуть/Свернуть
Одна из самых распространенных болезней.
Верстальщики почему-то уверены, что форматировать меню, названия информеров, элементов функционала тегами h2-6, это совершенно нормально.
Примерно так:
Цитата
<h3>Автор публикации</h3>
<h4>Разделы</h4>
<h4>Сравнительные таблицы</h4>
<h4>Дельно</h4>
<h4>Полезняшки</h4>
<h4>Рубрики</h4>
<h4 class="form-title">Авторизация</h4>
<h4 class="form-title">Регистрация</h4>
<h4 class="form-title">Генерация пароля</h4>
<h2>WebMoney</h2>
<h2>Яндекс.Деньги</h2>
<h3>Похожие записи</h3>

Не, это нужно оформлять либо стилями, либо нейтральными тегами. h только для форматирования текста. Если на странице 15-25 подзаголовков, то они нивелируют значение важного тега, и он перестает работать там где должен. Кроме того, это может влиять на общий уровень спамности страницы.

3. Оптимизация разделов/категорий
Развернуть/Свернуть
Выше писал о том что пагинацию нужно закрывать от индексации. Но некоторые впадают крайность, закрывая и стартовые страницы разделов/категорий. Особенно часто встречаю на WordPress.
Напрасно, эти страницы имеют наибольший внутренний вес, а поэтому, и ранжируются лучше и продвигать легче. Их конечно нужно оптимизировать, т.е. подобрать перспективные тайтлы, прописать дескрипшены, сделать статичное описание... Средства самого ВП этого не предусматривают, вероятно поэтому и закрывают.
Хотя это не сложно, вам в помощь Yoast WordPress SEO и Rich Text Tags

4. Контекстная перелинкова
Развернуть/Свернуть
Достаточно простой, но эффективный способ подтянуть СЧ-НЧ запросы, но многие его игнорируют, полагая, что с задачей перелинковки вполне справляются стандартные средства навигации.
ПС хорошо умеют отделять основной контент от статичных элементов, это не значит что статичные вообще не учитываются, но для них работает понижающий коэффициент, в т.ч. и для ссылок. Поэтому контекстные все равно рулят.
Прописывать ссылки руками лениво, но оно того стоит. Злоупотреблять не надо, 3-5 шт на статью.
Принцип не хитрый, определяем релевантную

Прикрепленное изображение


И с последующих ссылаемся на нее

5. Забытые страницы.
Развернуть/Свернуть
Практически на каждом сайте, полно страниц, которые создавались давно (год, два...пять назад), большинство из которых не дают никакого трафика, или дают единичные переходы, просто потому что запрос висит на 20-40-140 странице.
А казалось бы, разве трудно собрать все тайтлы (тем же Netpeak Spider), снять по ним позиции ( пользуюсь этим), и все что не дотягивает до зоны видимости, перебить на менее конкурентные?

6. Пользовательский функционал
Развернуть/Свернуть
То же вещь про которую часто забывают, банальные: блок с похожими материалам, не 5-7 ссылок, а привлекательный, с использованием графики, кнопки соцсетей, можно взять здесь или здесь, первые по-богаче в настройках, вторые по-надежней, и Яндекс позволяет отслеживать через метрику (авось и учитывает для чегонить). Блок комментариев, с предмодерацией, а не с головоломной капчей, и с нормальным функционалом (лайки, оповещения на почту, рейтинг), и не от ВК или ФБ, которые ни индексируются, а свой. Кнопки рейтинга для материала...
Все это мелочи, но из них складывается сайт для людей (и для ПС в том числе), плюс имеет практическую пользу: форма для комментариев – это дополнительный контент, и сам факт их наличия положительный сигнал для ПС, раз материал обсуждают, значит кому-то интересен.
Кнопки соц сетей – естественная ссылочная масса,
Кликабельные блоки с похожими материалами– улучшение поведенческих факторов...

7. Описания к изображениям
Развернуть/Свернуть
Тоже достаточно распространенная болезнь, для тех кто добавляет по много изображений на страницу - для всех прописывают один тайтл и альт, разумеется тот что в заголовке.
В итоге получается примерно такое

Прикрепленное изображение


Это спам товарищи, бессмысленный и беспощадный :pionertrava:
Бессмысленность его в том, что нормально ранжироваться по одному и тому же запросу все равно будет только одно изображение (скорее всего первое), остальные идут лесом.
В первой фотке да, можно продублировать заголовок, в последующих - нет желания прописывать собственные альт и тайтл, тогда уж лучше ничего не прописывайте.

Пожалуй все, и так хотелось просто и лаконично, а получилось многобукв - сори. Вопросы приветствуются, потому как здесь мягко говоря не все и поверхностно, конструктивная критика а так же собственные способы решения тех или иных задач - аналогично.

Кому лень со всем этим разбираться самостоятельно, добро пожаловать сюда :pardon:


--------------------
21
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kronos
kronos
сообщение 10.1.2016, 11:43; Ответить: kronos
Сообщение #2


Белый веб-мастер
*******


Группа: Active User
Сообщений: 4703
Регистрация: 10.2.2009
Из: Харьков
Поблагодарили: 2629 раз
Репутация:   327  


Хороший мануал и хорошая подборка сервисов, видно что пишет человек в опытом.

ScreamingFrogSEOSpider - платный, в бесплатной версии анализ до 100 URL. Советую всем приобрести - незаменимая вещь.

Чем парсите страницы в индексе Я и Г?

Что значит "перебить на менее конкурентные" в разделе 5?


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
x64
x64
сообщение 10.1.2016, 12:06; Ответить: x64
Сообщение #3


F.A.L.L.O.U.T.
*******

Группа: Super Moderator
Сообщений: 3419
Регистрация: 30.6.2011
Из: Железнодорожный (Балашиха)
Поблагодарили: 2737 раз
Репутация:   289  


Цитата(genjnat @ 10.1.2016, 3:58) *
Для мобильных устройств, Не оптимизировано

При ширине 1086px или меньше появляется возможность перейти на мобильную версию. Понятно, это не то, что ожидают ПС, но пользователи мобильных не ущемлены в этом плане.

Цитата(genjnat @ 10.1.2016, 3:58) *
4. Общая скорость загрузки, первичная - 6.043s, повторная - 2.819s, что выше среднего.

Зависит от скорости интернета, браузера и дополнительных элементов (стилей, скриптов, картинок, шрифтов). У меня первичная (на данный момент) — 1,5 секунды, повторная — 0,9 секунды. Но это для главной, в разделах по 0,5 сек, в темах 1,0+ сек.

Цитата(genjnat @ 10.1.2016, 3:58) *
все что не представляет пользы для поисковой выдачи и не имеет перспективы на трафик - можно и нужно закрывать

Нужно что-то на замену, иначе как ПС найдут статьи на прочих страницах?
Например, линковка в стиле wiki подойдёт? (:


Спасибо за статью! (:


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
kronos
kronos
сообщение 10.1.2016, 12:18; Ответить: kronos
Сообщение #4


Белый веб-мастер
*******


Группа: Active User
Сообщений: 4703
Регистрация: 10.2.2009
Из: Харьков
Поблагодарили: 2629 раз
Репутация:   327  


Цитата(x64 @ 10.1.2016, 11:06) *
Нужно что-то на замену, иначе как ПС найдут статьи на прочих страницах?

Судя по всему ПС загружают страницы закрытые в роботсе и даже ходят по их ссылкам, просто не включают в индекс.


--------------------


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
genjnat
genjnat
Topic Starter сообщение 10.1.2016, 12:40; Ответить: genjnat
Сообщение #5


Старожил
******

Группа: Active User
Сообщений: 2276
Регистрация: 29.10.2008
Из: Одесса
Поблагодарили: 1025 раз
Репутация:   114  


Так и есть, запреты на индексацию на практике никак не мешают ботам ползать по этим страницам и переходить по найденным ссылкам. Кроме того, для пагинации я дал <meta name="robots" content="noindex, follow" /> или rel=canonical который по своей сущности не является запретом. Запрет через робот последний в очереди, на тот случай если первые два варианта технически не возможны.
Цитата(kronos @ 10.1.2016, 10:43) *
ScreamingFrogSEOSpider - платный, в бесплатной версии анализ до 100 URL. Советую всем приобрести - незаменимая вещь

Да, ошибся

Цитата(kronos @ 10.1.2016, 10:43) *
Чем парсите страницы в индексе Я и Г?

Да ничем, как-то не озадачивался данным вопросом - все равно там ограничение до 1000, а по факту и того нет. Но если покажете какую софтину, из которой и в эксель можно, был бы благодарен :)
Цитата(kronos @ 10.1.2016, 10:43) *
Что значит "перебить на менее конкурентные" в разделе 5?

Просто подобрать для них менее конкурентные запросы.

Цитата(x64 @ 10.1.2016, 11:06) *
Зависит от скорости интернета, браузера и дополнительных элементов (стилей, скриптов, картинок, шрифтов).

Конечно, для определения общей скорости дал эту ссылку, потому как есть детализация. Там просто нужно кликнуть по скрину.

Прикрепленное изображение


Прикрепленное изображение


А среднюю (с большей выборкой) лучше здесь

Сообщение отредактировал genjnat - 10.1.2016, 12:40


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Корсар
Корсар
сообщение 11.2.2016, 23:17; Ответить: Корсар
Сообщение #6


Бывалый
****

Группа: User
Сообщений: 425
Регистрация: 25.9.2011
Из: Минск
Поблагодарили: 188 раз
Репутация:   29  


Цитата(genjnat @ 10.1.2016, 11:40) *
Но если покажете какую софтину, из которой и в эксель можно, был бы благодарен

От себя рекомендую попробовать ComparseR - http://parser.alaev.info/
Раньше регулярно пользовался нетпиком/лягушкой, теперь чаще всего этим парсером пользуюсь.
Много параметров http://clip2net.com/clip/m342496/1d249-clip-69kb.png + парсинг результатов выдачи.


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
LuckerMan
LuckerMan
сообщение 26.3.2016, 10:41; Ответить: LuckerMan
Сообщение #7


Частый гость
**

Группа: User
Сообщений: 99
Регистрация: 5.2.2016
Из: Украина
Поблагодарили: 24 раза
Репутация:   9  


Замечательный кейс! Огромное спасибо! Вот только я одного момента не уловил, если на старом домене Вы будете ставить новый сайт, то каким образом играет роль то, что на нем стояло когда-то (смотрим веб-архив)? Насколько я понимаю, главное, что б тематика ресурса совпадала со старым сайтом, или я ошибаюсь?


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Открыть тему
Тема закрыта
1 чел. читают эту тему (гостей: 1, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) Комплексный (SEO) аудит сайтов, нахождение и устранение всех ошибок сайта. Вывод в ТОП
29 Taylor 9925 8.12.2017, 13:40
автор: kukla
Открытая тема (нет новых ответов) Аудит коммерческих сайтов и стратегия продвижения
в том числе интернет-магазинов
8 GlazAlmaz 3282 3.12.2017, 17:54
автор: GlazAlmaz
Открытая тема (нет новых ответов) Бесплатный SEO мини-аудит вашего сайта
8 BurlaiA 1235 30.11.2017, 20:53
автор: Dima_
Горячая тема (нет новых ответов) Аудит сайтов
Предлагаю комплексный СЕО аудит
54 genjnat 15849 23.11.2017, 17:09
автор: genjnat
Горячая тема (нет новых ответов) SEO услуги: аудит, СЯ, оптимизация, микроразметка, продвижение
работа на портфолио за небольшой donate
93 Nell 60662 15.11.2017, 20:51
автор: Nell


 



RSS Текстовая версия Сейчас: 11.12.2017, 10:11
Дизайн