Помощник
|
WebArchive Extractor - многопоточный парсер WebArchive |
oxgen
|
Сообщение
#1
|
||
|
|
||
|
|||
zilonitiz |
6.4.2015, 1:15;
Ответить: zilonitiz
Сообщение
#2
|
|
Дожили, скоро софт по минутам оплачивать будем.
|
|
|
oxgen
|
Сообщение
#3
|
|
zilonitiz, судя по вашему посту Вы крайне далеки от тематики вебархива и того как его используют. Самый простой пример - человеку которому разово нужно выкачать пару сайтов с архива нет смысла покупать не дешевую программу которая потом будет лежать у него без дела (зато бессрочно).
P.S. А бессмысленный постинг у нас на форуме не приветствуется -------------------- |
|
|
x64 |
6.4.2015, 12:47;
Ответить: x64
Сообщение
#4
|
|
Почему не по часам или не делям? Напишите свой софт и реализуйте, как сочтёте нужным, хоть посекундно тарифицируйте. Цену более в теме не обсуждать. Если есть желание, пишите по контактам ТС и узнавайте, почему именно так, планируются ли скидки или вечные ключи и прочее. |
|
|
redroot |
7.4.2015, 10:20;
Ответить: redroot
Сообщение
#5
|
|
В данный момент активно тестирую софт (на сёрче, в рамках аналогичной раздачи получил суточный/тестовый ключик).
Баги не наблюдаются, функционал соответствует описанию - сайты парсятся... Склоняюсь к приобретению месячного ключа |
|
|
Palundra |
7.4.2015, 11:03;
Ответить: Palundra
Сообщение
#6
|
|
oxgen, импорт сразу в WP возможен?
-------------------- |
|
|
oxgen
|
Сообщение
#7
|
|
Palundra, покольку все сайты имеют абсолютно разную структуру расположения самого контента - то автоматический парсинг в WP мне не представляется возможным. Разве что разрешить пользователю самому задавать регулярное выражение по которому будет определяться тело статьи и ее заголовок с категорией. Если эта функция будет востребована - она будет добавлена (с поддержкой остальных популярных CMS).
В TODO листе на данный момент стоит автоматический импорт на заданный фтп. -------------------- |
|
|
oxgen
|
Сообщение
#8
|
|
Программа обновлена. Исправлено неверно определение типа контента на картинках без расширения.
Добавлена онлайн оплата ключей через плати.ру: http://www.plati.ru/asp/pay.asp?idd=1915921 - 1 день http://www.plati.ru/asp/pay.asp?idd=1915927 - 3 дня http://www.plati.ru/asp/pay.asp?idd=1915932 - 5 дней http://www.plati.ru/asp/pay.asp?idd=1915934 - 10 дней http://www.plati.ru/asp/pay.asp?idd=1915935 - 30 дней По всем вопросам - обращайтесь в ЛС или контакты из профиля. -------------------- |
|
|
Илюха |
13.4.2015, 8:38;
Ответить: Илюха
Сообщение
#9
|
|
Взял программу на один день, интерфейс понятен и там разберется даже ребенок, нужно зайти на сайт взять дату сайта и вставить ссылку в софт. Программа автоматически находит страницы и можно начать их парсить. А вот дальше я вообще ничего не понял, программа загрузила все в папку, и там куча всяких файлов. На выходе мне вообще нужно было получить контент со страниц, но там и файлы плагинов и картинки, которых собственно в папке нет и ещё всякий хлам. Ну это лично мое мнение, мб там и все нужное если правильно куда-то залить, но мне нужен был именно контент со страниц. Просто я в папке спарсиной вообще нигде контента не нашел.
Было бы хорошо реализовать парсинг по заданным тегам, как реализовано в Content Downloader, начало и конец нужного материала и каждая страница в отдельный файл например. Что-бы можно было и уникальность проверить и другие действия, а не сразу заливать то что было на сайте. А так софт хороший, думаю пригодиться тем кто постоянно достает сайты из вебархива, правда помесячная или дневная оплата не совсем комфортно, было бы хорошо наверное ввести тариф, по которому покупается сам софт полностью без ограничения по времени. С другой стороны можно набрать кучи сайтов и потом взяв софт на 1 день собрать все страницы, что выйдет дешевле всяких сервисов с оплатой за кол-во страниц. |
|
|
oxgen
|
Сообщение
#10
|
|
Взял программу на один день, интерфейс понятен и там разберется даже ребенок, нужно зайти на сайт взять дату сайта и вставить ссылку в софт. Программа автоматически находит страницы и можно начать их парсить. А вот дальше я вообще ничего не понял, программа загрузила все в папку, и там куча всяких файлов. На выходе мне вообще нужно было получить контент со страниц, но там и файлы плагинов и картинки, которых собственно в папке нет и ещё всякий хлам. Ну это лично мое мнение, мб там и все нужное если правильно куда-то залить, но мне нужен был именно контент со страниц. Просто я в папке спарсиной вообще нигде контента не нашел. Если скопировать всю папку которую подготовила программа на сервер - получится готовый Html сайт. А куча лишних файлов может быть остатками плагинов, слайдеров и прочей ереси, которая тем не менее нужно для валидного отображения сайта В данный момент парсинг контента (тайтл, теги, сам контент) с помощью ручного ввода регулярок рассматривается (вернее рассматривается парсинг контента напрямую в популярные CMS и XML файлы). Если этот функционал будет актуален и для остальных - функция будет добавлена в 1м из следующих обновлений. -------------------- |
|
|
|
Похожие темы
Тема | Ответов | Автор | Просмотров | Последний ответ | |
---|---|---|---|---|---|
Linken Sphere - многопоточный браузер / антидетект / арбитраж трафика / мультиаккаунтинг | 40 | Gor510 | 18619 | 23.3.2024, 13:01 автор: Gor510 |
|
A-Parser 1.1 - продвинутый парсер ПС, кейвордов, контента, показателей, 70+ парсеров. | 352 | Forbidden | 278206 | 21.3.2024, 14:38 автор: AParser_Support |
|
Бесплатный парсер бот в Телеграм - [Parser Pro] | 5 | Parser_Pro | 3310 | 27.1.2024, 16:12 автор: Parser_Pro |
|
WebArchiveMaster - парсер Вебархива Добыча контента из ВебАрхива |
16 | footashes | 12241 | 23.11.2022, 16:36 автор: kuz999 |
|
⚡ AvitoSmart - быстрый парсер новых объявлений на Авито на запросах Представляю парсер для [b]Zennoposter[/b]'a или [b]Zennobox[/b] |
0 | akcium | 1250 | 19.11.2022, 13:05 автор: akcium |
Текстовая версия | Сейчас: 28.3.2024, 21:32 |