O Crawler tem a função de periodicamente baixar o banco de dados CSV da Transparência de João Pessoa e armazenar seu conteúdo no banco de dados MongoDB.
A configuração do crawler é enviada através das seguintes variáveis de ambiente:
-
CRAWLER_MONGO_CONNECTION_STRING(default:"mongodb://localhost")Endereço do banco de dados MongoDB seguindo o formato Connection String.
-
CRAWLER_MONGO_DATABASE(default:"despesas")Nome do banco de dados usado pelo MongoDB.
-
CRAWLER_MONGO_COLLECTION(default:"gastometro")Nome da collection usada pelo MongoDB.
-
CRAWLER_SINGLE_RUN(default:"false")Executa o crawler apenas uma vez, sem iniciar o scheduler.
Na pasta do repositório, execute o seguinte comando para criar uma imagem docker com o Crawler:
$ docker build -t crawler .
Depois de criado a imagem, execute o seguinte comando para executar a aplicação de forma interativa:
$ docker run -it --name crawler