Consulta de processos dos Tribunais de Justiça de Alagoas (TJAL) e Ceará (TJCE).
API que consulta e retorna dados de um processo em todos os graus dos Tribunais de Justiça de Alagoas (TJAL) e do Ceará (TJCE).
Os dados são coletados por um crawler utilizando web scraping e o resultado é consultado pela API.
A aplicação possui dois endpoints: "/processo" e "/dadosProcessuais";
O endpoint /processo é usado para receber um json via método HTTP POST;
O endpoint /dadosProcessuais é usado para retornar dados coletados pelo crawler.
O crawler acessa os sites TJAL e TJCE para consultar processos de 1ª e 2ª instância.
É necessário fornecer um número de processo - é retornado pela API;
O crawler verifica a qual tribunal o número de processo pertence de acordo com o padrão cnj de numeração de processos jurídicos;
Realiza a busca nos sites correspondentes de 1ª e 2ª instância;
Ao final do processo é retornado um json com as informações coletadas.
- classe
- área
- assunto
- data de distribuição
- juiz
- valor da ação
- partes do processo
- lista das movimentações (data e movimento)
- clone the repository
- install required packages
- run app
git clone https://github.com/luanascardua/crawler-consulta-processos.git
pip install -r requiriments.txt
na raiz do projeto executar o comando:
python app.py
na raiz do projeto executar o comando:
python app.py
Ao executar o comando, o método app.run() é chamado para iniciar o app Flask num servidor local. A partir daí será possível acessar a aplicação pelo navegador ou alguma
ferramenta que permite interagir com APIs, como Postman e Insomnia.
Endereço local: http://localhost:5000/.
É necessário fazer uma requisição via método HTTP POST para o endpoint */processo para receber um json contendo o número do processo.
O json deve seguir a estrutura:
{
"numero":"0710802-55.2018.8.02.0001"
}
O status da requisição dever retornar 200: "POST /processo HTTP/1.1" 200;
Poderá ser feita uma nova requisção via método HTTP GET para o endpoint */dadosProcessuais;
Feita a requisição o crawler irá iniciar e fazer a consulta nos sites de Tribunais de 1ª e 2ª instância;
Será retornado um json com os dados do processo.
No arquivo webcrawler.py basta chamar a função start_crawler passando como argumento uma string contendo o número do processo.
Executar na raiz do projeto:
python webcrawler.py
python -i webcrawler.py
Ao executar o crawler com interpretador do python o objeto driver irá retornar como saída da função, possibilitando interagir com a página web pelo prompt de comandos, sendo útil para testes ou debug. O objeto driver será retornado em caso de erro e ao finalizar a execução da aplicação.
Para sair do modo interativo python basta executar o comando:
exit()
Exemplos de processos:
{"numero":"0710802-55.2018.8.02.0001"},
{"numero":"0727328-63.2019.8.02.0001"},
{"numero":"0213467-51.2022.8.06.0001"},
{"numero":"0008002-09.2016.8.06.0081"}