Доброго времени суток!
Как обычно:
Если было на форуме - удалите
Не тот раздел - перенесите
Краткое описание:
Создан для сбора статей, текстов, любого контента со сторонних сайтов, источников.
Встроенный уникализатор текста, повышает индексность поисковыми системами.
Для работы скрипта требуется только адрес(url) cайта, желаемый раздел или разделы и все, остальное делает скрипт, автоматически определяет контент и вытаскивает его, отделяя его от мусора.
Результат работы скрипта - готовые статьи для ваших сайтов, также возможен экспорт полученных статей в форматы: TXT, HTML, PHP
Не тратьте время на ручной сбор контента!
Скачать:
[HIDE-REPLY-THANKS]http://yadi.sk/d/kqMolGfjQCn9B[/HIDE-REPLY-THANKS]
Продажник:
[HIDE-REPLY-THANKS]
http://skladchik.com/threads/webparser-%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9-%D0%BF%D0%B0%D1%80%D1%81%D0%B5%D1%80-%D0%BA%D0%BE%D0%BD%D1%82%D0%B5%D0%BD%D1%82%D0%B0-%D1%81%D1%82%D0%B0%D1%82%D0%B5%D0%B9.14208/
[/HIDE-REPLY-THANKS]
Основной принцип:1. Вводите в скрипт url сайта со статьями.
2. Скрипт заходит на все страницы сайта и грузит оттуда статьи.
3. Скрипт сам отбрасывает мусор со страницы, оставляя только статью.
Вы можете: 1. Указать с каких разделов сайта нужно парсить статьи.
2. Указать какие слова текст должен содержать (например, окна).
3. Указать минимальную длину текста.
4. Использовать автоопределение статьи (скрипт сам определит статью на странице), либо можете указать шаблон для парсинга (указываете между какими кусками кода страницы, должна находиться статья).
редактировать полученные статьи, как вручную, так и автоматически.
5. Использовать синонимайзер (база 308 000).
6. Исользовать экспорт полученных статей в txt, html, php.
7. Указывать максимальное количество статей
Настройка:
В конфиг прописывается доступ к базе данных, а доступ в админку по умолчанию такой:
логин - admin
пароль - admin
Как обычно:
Если было на форуме - удалите
Не тот раздел - перенесите
Краткое описание:
Создан для сбора статей, текстов, любого контента со сторонних сайтов, источников.
Встроенный уникализатор текста, повышает индексность поисковыми системами.
Для работы скрипта требуется только адрес(url) cайта, желаемый раздел или разделы и все, остальное делает скрипт, автоматически определяет контент и вытаскивает его, отделяя его от мусора.
Результат работы скрипта - готовые статьи для ваших сайтов, также возможен экспорт полученных статей в форматы: TXT, HTML, PHP
Не тратьте время на ручной сбор контента!
Скачать:
[HIDE-REPLY-THANKS]http://yadi.sk/d/kqMolGfjQCn9B[/HIDE-REPLY-THANKS]
Продажник:
[HIDE-REPLY-THANKS]
http://skladchik.com/threads/webparser-%D0%B0%D0%B2%D1%82%D0%BE%D0%BC%D0%B0%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B8%D0%B9-%D0%BF%D0%B0%D1%80%D1%81%D0%B5%D1%80-%D0%BA%D0%BE%D0%BD%D1%82%D0%B5%D0%BD%D1%82%D0%B0-%D1%81%D1%82%D0%B0%D1%82%D0%B5%D0%B9.14208/
[/HIDE-REPLY-THANKS]
Основной принцип:1. Вводите в скрипт url сайта со статьями.
2. Скрипт заходит на все страницы сайта и грузит оттуда статьи.
3. Скрипт сам отбрасывает мусор со страницы, оставляя только статью.
Вы можете: 1. Указать с каких разделов сайта нужно парсить статьи.
2. Указать какие слова текст должен содержать (например, окна).
3. Указать минимальную длину текста.
4. Использовать автоопределение статьи (скрипт сам определит статью на странице), либо можете указать шаблон для парсинга (указываете между какими кусками кода страницы, должна находиться статья).
редактировать полученные статьи, как вручную, так и автоматически.
5. Использовать синонимайзер (база 308 000).
6. Исользовать экспорт полученных статей в txt, html, php.
7. Указывать максимальное количество статей
Настройка:
В конфиг прописывается доступ к базе данных, а доступ в админку по умолчанию такой:
логин - admin
пароль - admin