Este script Python exemplifica a utilização do serviço Azure Vision para analisar, rotular e identificar elementos visuais nas imagens em uma pasta de entrada e salvar os resultados em uma pasta de saída.
🧹Não sabe como apagar? 👉 Veja aqui
😺 Repositorio GIT azure-sdk-for-python com exemplos
- Python 3.x
- Conta no Azure com o serviço Vision habilitado Não tem? 👉 Crie aqui sua conta Gratuita
- Chave de API (chave primária ou secundária)Não tem? 👉 Veja aqui
- Endpoint do serviço Azure Vision Não tem? 👉 Veja aqui
-
Configure as variáveis de ambiente com o endpoint e a chave da API do Azure Vision:
Para usuários do Linux:
export VISION_ENDPOINT=<seu_endpoint> export VISION_KEY=<sua_chave>
Para usuários do Windows:
- Abra o menu Iniciar e pesquise por "Variáveis de ambiente".
- Clique em "Editar variáveis de ambiente do sistema".
- Na janela de Propriedades do sistema, clique no botão "Variáveis de ambiente".
- Na seção "Variáveis do sistema", clique em "Novo..." para adicionar uma nova variável.
- Em "Nome da variável", insira
VISION_ENDPOINT. - Em "Valor da variável", insira o endpoint do Azure Vision.
- Repita as etapas anteriores para adicionar a chave da API, utilizando
VISION_KEYcomo nome da variável e sua chave como valor. - Clique em "OK" para fechar todas as janelas de configuração.
-
Clone este repositório para o seu ambiente local:
git clone https://github.com/megarj/Microsoft-Azure-Vision-Image-Analysis.git
-
Navegue até o diretório do projeto:
cd Microsoft-Azure-Vision-Image-Analysis -
Crie e ative um ambiente virtual Python:
python -m venv escolha-nome-ambiente escolha-nome-ambiente\Scripts\activate
python -m venv escolha-nome-ambiente source escolha-nome-ambiente/bin/activate
Essas instruções criam e ativam um ambiente virtual Python no respectivo sistema operacional. Certifique-se de substituir escolha-nome-ambiente pelo nome desejado para o seu ambiente virtual.
-
Instale as dependências necessárias:
pip install -r requirements.txt
Para usar o script, basta colocar as imagens que deseja analisar na pasta inputs. O script irá processar automaticamente as imagens e salvar os resultados em formato JSON na pasta output. Certifique-se de que as imagens tenham nomes que correspondam aos prefixos necessários para ativar as diferentes funcionalidades de análise.
Execute o script com o seguinte comando:
python azure_vision_image_analysis.pyO script analisa as imagens com base nos prefixos dos nomes dos arquivos. Os prefixos e suas funcionalidades correspondentes são:
features_map = {
"analysis": [VisualFeatures.DENSE_CAPTIONS],
"ocr": [VisualFeatures.READ],
"people": [VisualFeatures.PEOPLE]
}Segue a lista completa abaixo para auxiliar no uso das demais funcionalidades
| Recurso Visual | Descrição |
|---|---|
| Caption | Gera uma frase de legenda legível por humanos que descreva o conteúdo da imagem. |
| DenseCaptions | Gera frases de legenda legíveis por humanos para até 10 regiões diferentes na imagem, incluindo uma para a imagem inteira. |
| None | Nenhum recurso visual é selecionado. |
| Objects | Detecção de objetos. Isso é semelhante às tags, mas focado em detectar objetos físicos na imagem e retornar sua localização. |
| People | Detecte as pessoas na imagem e retorne sua localização. |
| Read | Extraia texto impresso ou manuscrito da imagem. Também conhecido como Reconhecimento Óptico de Caracteres (OCR). |
| SmartCrops | Encontre sub-regiões representativas da imagem para geração de miniaturas, nas proporções desejadas, com prioridade para as faces detectadas. |
| Tags | Extraia tags de conteúdo para milhares de objetos reconhecíveis, seres vivos, cenários e ações que aparecem na imagem. |
Dados tirados da documentação da API de Análise de Imagens 4.0
Certifique-se de que as imagens na pasta
inputstenham nomes que correspondam aos prefixos mencionados acima para ativar as funcionalidades desejadas de análise.
| analysis_store-camera-1.jpg | ocr_advert.jpg | people_store-camera-2.jpg |
|---|---|---|
![]() |
![]() |
![]() |
![]() |
![]() |
![]() |
Este projeto está licenciado sob a Licença MIT.
Gostou, achou útil? Considere dar uma estrela 😉






