diff --git a/README.md b/README.md index 69ef92e..13782ad 100644 --- a/README.md +++ b/README.md @@ -39,7 +39,18 @@ area = '113' # вся Россия # Как он работает -Для работы с парсером необходимо сначала определить запрос и регион (про коды регионов написано ниже): +Для работы с парсером необходимо сначала определить запрос и регион (про коды регионов написано ниже) и указать их при +запуске команды парсера: +```ssh +python hh_web_scraper.py --query "python+junior" --area 2 +``` + +Можно использовать и сокращённые ключи параметров: +```ssh +python hh_web_scraper.py -q "python+junior" -a 2 +``` + +Если хотите подключить парсер в своей программе, нужно задать запрос и регион в переменную: ```python query = 'python+junior' area = '1' diff --git a/hh_web_scraper.py b/hh_web_scraper.py index 310e95d..7a04d10 100644 --- a/hh_web_scraper.py +++ b/hh_web_scraper.py @@ -3,6 +3,7 @@ import requests from bs4 import BeautifulSoup import time +import argparse # достает html код по указанной ссылке def get_html(url): @@ -145,10 +146,14 @@ def parse_offers(links): if __name__ == '__main__': - query = 'python' - area = '113' + parser = argparse.ArgumentParser() + parser.add_argument("--query", "-q", help="set query", required=True) + parser.add_argument("--area", "-a", help="set area", required=True) + args = parser.parse_args() + # сначала вытащим все ссылки на вакансии по данному запросу и региону - links = get_all_offers_links(query, area) + print('Поиск по запросу', args.query, 'в области', args.area) + links = get_all_offers_links(args.query, args.area) # теперь распарсим информацию по каждой ссылке, полученной выше parse_offers(links)