X   Сообщение сайта
(Сообщение закроется через 3 секунды)



 

Здравствуйте, гость (

| Вход | Регистрация )

6 страниц V   1 2 3 4 5 6 >
Открыть тему
Тема закрыта
> WebArchive Extractor - многопоточный парсер WebArchive
oxgen
oxgen
Topic Starter сообщение 5.4.2015, 21:01; Ответить: oxgen
Сообщение #1


Программа для автоматической многопточной выкачки\восстановления сайтов из WebArchive .



Дополнительные скриншоты
Развернуть/Свернуть






Ссылка на загрузку программы: СКАЧАТЬ

Возможности:
- многопоточный парсинг;
- поддержка прокси (с realtime проверкой);
- поддержка замены блоков текста (как обычная замена, так и регулярные выражения);
- возможность автоматически подключать код SAPE;
- удобная обработка внешних ссылок (превращение во внутренние, удаление);
и прочие полезные мелочи. Функционал дополняется по мере появления идей.

Для использования программы необходимо пополнить баланс на нужное количество дней.

Приятной особенностью нашей программы является то, что вы платите только за те дни когда пользуетесь программой. В остальные дни остаток для вашего аккаунта уменьшаться не будет. Днем активности считается период времени с 00:01 до 24:00.

Стоимость ключей:
3 дня - 150р
5 дней - 200р
10 дней - 300р
30 дней - 600р

В данный момент ключи продаются в ручном режиме (в дальнейшем для удобства пользователей будет включена онлайн оплата), для покупки обращайтесь по контактам ниже.

icq: 585006481, 665786
email: virtbay@yandex.ru, info@theprogrammer.ru
skype: virtbay, girsam1

Первым 10ти пользователям будут выданы суточные ключи за отзыв, за ключами обращайтесь в личку или же по указаным контактам.


--------------------
Нет времени на рутинную работу? Нужен скрипт или программа? Закажи автоматизацию!
-7
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
zilonitiz
zilonitiz
сообщение 6.4.2015, 1:15; Ответить: zilonitiz
Сообщение #2


Дожили, скоро софт по минутам оплачивать будем.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
oxgen
oxgen
Topic Starter сообщение 6.4.2015, 1:58; Ответить: oxgen
Сообщение #3


zilonitiz, судя по вашему посту Вы крайне далеки от тематики вебархива и того как его используют. Самый простой пример - человеку которому разово нужно выкачать пару сайтов с архива нет смысла покупать не дешевую программу которая потом будет лежать у него без дела (зато бессрочно).

P.S. А бессмысленный постинг у нас на форуме не приветствуется :prilichno:


--------------------
Нет времени на рутинную работу? Нужен скрипт или программа? Закажи автоматизацию!


Поблагодарили: (4)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
x64
x64
сообщение 6.4.2015, 12:47; Ответить: x64
Сообщение #4


Цитата(zilonitiz @ 6.4.2015, 10:08) *
Почему не по часам или не делям?

Напишите свой софт и реализуйте, как сочтёте нужным, хоть посекундно тарифицируйте.

Цену более в теме не обсуждать. Если есть желание, пишите по контактам ТС и узнавайте, почему именно так, планируются ли скидки или вечные ключи и прочее.
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
redroot
redroot
сообщение 7.4.2015, 10:20; Ответить: redroot
Сообщение #5


В данный момент активно тестирую софт (на сёрче, в рамках аналогичной раздачи получил суточный/тестовый ключик).
Баги не наблюдаются, функционал соответствует описанию - сайты парсятся...
Склоняюсь к приобретению месячного ключа :)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Palundra
Palundra
сообщение 7.4.2015, 11:03; Ответить: Palundra
Сообщение #6


oxgen, импорт сразу в WP возможен?


--------------------
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
oxgen
oxgen
Topic Starter сообщение 7.4.2015, 15:47; Ответить: oxgen
Сообщение #7


Palundra, покольку все сайты имеют абсолютно разную структуру расположения самого контента - то автоматический парсинг в WP мне не представляется возможным. Разве что разрешить пользователю самому задавать регулярное выражение по которому будет определяться тело статьи и ее заголовок с категорией. Если эта функция будет востребована - она будет добавлена (с поддержкой остальных популярных CMS).
В TODO листе на данный момент стоит автоматический импорт на заданный фтп.


--------------------
Нет времени на рутинную работу? Нужен скрипт или программа? Закажи автоматизацию!


Поблагодарили: (2)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
oxgen
oxgen
Topic Starter сообщение 11.4.2015, 20:38; Ответить: oxgen
Сообщение #8


Программа обновлена. Исправлено неверно определение типа контента на картинках без расширения.

Добавлена онлайн оплата ключей через плати.ру:
http://www.plati.ru/asp/pay.asp?idd=1915921 - 1 день
http://www.plati.ru/asp/pay.asp?idd=1915927 - 3 дня
http://www.plati.ru/asp/pay.asp?idd=1915932 - 5 дней
http://www.plati.ru/asp/pay.asp?idd=1915934 - 10 дней
http://www.plati.ru/asp/pay.asp?idd=1915935 - 30 дней

По всем вопросам - обращайтесь в ЛС или контакты из профиля.


--------------------
Нет времени на рутинную работу? Нужен скрипт или программа? Закажи автоматизацию!
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
Илюха
Илюха
сообщение 13.4.2015, 8:38; Ответить: Илюха
Сообщение #9


Взял программу на один день, интерфейс понятен и там разберется даже ребенок, нужно зайти на сайт взять дату сайта и вставить ссылку в софт. Программа автоматически находит страницы и можно начать их парсить. А вот дальше я вообще ничего не понял, программа загрузила все в папку, и там куча всяких файлов. На выходе мне вообще нужно было получить контент со страниц, но там и файлы плагинов и картинки, которых собственно в папке нет и ещё всякий хлам. Ну это лично мое мнение, мб там и все нужное если правильно куда-то залить, но мне нужен был именно контент со страниц. Просто я в папке спарсиной вообще нигде контента не нашел.

Было бы хорошо реализовать парсинг по заданным тегам, как реализовано в Content Downloader, начало и конец нужного материала и каждая страница в отдельный файл например. Что-бы можно было и уникальность проверить и другие действия, а не сразу заливать то что было на сайте.

А так софт хороший, думаю пригодиться тем кто постоянно достает сайты из вебархива, правда помесячная или дневная оплата не совсем комфортно, было бы хорошо наверное ввести тариф, по которому покупается сам софт полностью без ограничения по времени. С другой стороны можно набрать кучи сайтов и потом взяв софт на 1 день собрать все страницы, что выйдет дешевле всяких сервисов с оплатой за кол-во страниц.


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
oxgen
oxgen
Topic Starter сообщение 13.4.2015, 10:18; Ответить: oxgen
Сообщение #10


Цитата(Илюха @ 13.4.2015, 7:38) *
Взял программу на один день, интерфейс понятен и там разберется даже ребенок, нужно зайти на сайт взять дату сайта и вставить ссылку в софт. Программа автоматически находит страницы и можно начать их парсить. А вот дальше я вообще ничего не понял, программа загрузила все в папку, и там куча всяких файлов. На выходе мне вообще нужно было получить контент со страниц, но там и файлы плагинов и картинки, которых собственно в папке нет и ещё всякий хлам. Ну это лично мое мнение, мб там и все нужное если правильно куда-то залить, но мне нужен был именно контент со страниц. Просто я в папке спарсиной вообще нигде контента не нашел.


Если скопировать всю папку которую подготовила программа на сервер - получится готовый Html сайт. А куча лишних файлов может быть остатками плагинов, слайдеров и прочей ереси, которая тем не менее нужно для валидного отображения сайта :)
В данный момент парсинг контента (тайтл, теги, сам контент) с помощью ручного ввода регулярок рассматривается (вернее рассматривается парсинг контента напрямую в популярные CMS и XML файлы). Если этот функционал будет актуален и для остальных - функция будет добавлена в 1м из следующих обновлений.


--------------------
Нет времени на рутинную работу? Нужен скрипт или программа? Закажи автоматизацию!


Поблагодарили: (1)
Вернуться в начало страницы
 
Ответить с цитированием данного сообщения
6 страниц V   1 2 3 4 5 6 >
Открыть тему
Тема закрыта
2 чел. читают эту тему (гостей: 2, скрытых пользователей: 0)
Пользователей: 0


Свернуть

> Похожие темы

  Тема Ответов Автор Просмотров Последний ответ
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыLinken Sphere - многопоточный браузер / антидетект / арбитраж трафика / мультиаккаунтинг
40 Gor510 18619 23.3.2024, 13:01
автор: Gor510
Горячая тема (нет новых ответов) Тема имеет прикрепленные файлыA-Parser 1.1 - продвинутый парсер ПС, кейвордов, контента, показателей, 70+ парсеров.
352 Forbidden 278206 21.3.2024, 14:38
автор: AParser_Support
Открытая тема (нет новых ответов) Бесплатный парсер бот в Телеграм - [Parser Pro]
5 Parser_Pro 3310 27.1.2024, 16:12
автор: Parser_Pro
Открытая тема (нет новых ответов) WebArchiveMaster - парсер Вебархива
Добыча контента из ВебАрхива
16 footashes 12241 23.11.2022, 16:36
автор: kuz999
Открытая тема (нет новых ответов) Тема имеет прикрепленные файлы⚡ AvitoSmart - быстрый парсер новых объявлений на Авито на запросах
Представляю парсер для [b]Zennoposter[/b]'a или [b]Zennobox[/b]
0 akcium 1250 19.11.2022, 13:05
автор: akcium


 



RSS Текстовая версия Сейчас: 28.3.2024, 21:32
Дизайн