Skip to content

luanascardua/crawler-consulta-processos

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

18 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Consulta de Processos Jurídicos

Consulta de processos dos Tribunais de Justiça de Alagoas (TJAL) e Ceará (TJCE).

OVERVIEW

API que consulta e retorna dados de um processo em todos os graus dos Tribunais de Justiça de Alagoas (TJAL) e do Ceará (TJCE).
Os dados são coletados por um crawler utilizando web scraping e o resultado é consultado pela API.

API

A aplicação possui dois endpoints: "/processo" e "/dadosProcessuais";
O endpoint /processo é usado para receber um json via método HTTP POST;
O endpoint /dadosProcessuais é usado para retornar dados coletados pelo crawler.

CRAWLER

O crawler acessa os sites TJAL e TJCE para consultar processos de 1ª e 2ª instância. É necessário fornecer um número de processo - é retornado pela API;
O crawler verifica a qual tribunal o número de processo pertence de acordo com o padrão cnj de numeração de processos jurídicos;
Realiza a busca nos sites correspondentes de 1ª e 2ª instância;
Ao final do processo é retornado um json com as informações coletadas.

dados coletados pelo crawler:

  • classe
  • área
  • assunto
  • data de distribuição
  • juiz
  • valor da ação
  • partes do processo
  • lista das movimentações (data e movimento)

Stack

Installation

  1. clone the repository
  2. install required packages
  3. run app
git clone https://github.com/luanascardua/crawler-consulta-processos.git
pip install -r requiriments.txt

na raiz do projeto executar o comando:

python app.py

Execute

na raiz do projeto executar o comando:

python app.py

Ao executar o comando, o método app.run() é chamado para iniciar o app Flask num servidor local. A partir daí será possível acessar a aplicação pelo navegador ou alguma ferramenta que permite interagir com APIs, como Postman e Insomnia.
Endereço local: http://localhost:5000/.

É necessário fazer uma requisição via método HTTP POST para o endpoint */processo para receber um json contendo o número do processo.
O json deve seguir a estrutura:

{
	"numero":"0710802-55.2018.8.02.0001"
}

O status da requisição dever retornar 200: "POST /processo HTTP/1.1" 200;
Poderá ser feita uma nova requisção via método HTTP GET para o endpoint */dadosProcessuais;
Feita a requisição o crawler irá iniciar e fazer a consulta nos sites de Tribunais de 1ª e 2ª instância;
Será retornado um json com os dados do processo.

Executar apenas o crawler

No arquivo webcrawler.py basta chamar a função start_crawler passando como argumento uma string contendo o número do processo.
Executar na raiz do projeto:

python webcrawler.py

executar no modo interativo Python

python -i webcrawler.py

Ao executar o crawler com interpretador do python o objeto driver irá retornar como saída da função, possibilitando interagir com a página web pelo prompt de comandos, sendo útil para testes ou debug. O objeto driver será retornado em caso de erro e ao finalizar a execução da aplicação.

Para sair do modo interativo python basta executar o comando:

exit()

Exemplos de processos:

{"numero":"0710802-55.2018.8.02.0001"},
{"numero":"0727328-63.2019.8.02.0001"},
{"numero":"0213467-51.2022.8.06.0001"},
{"numero":"0008002-09.2016.8.06.0081"}

About

consulta de processo jurídicos - crawler

Topics

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages