-
Notifications
You must be signed in to change notification settings - Fork 3
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
edge 장비에서 cnn, nlp 모델 추론 가능성 test #63
Comments
1번, 2번, 3번 사항에 대해 완료하여 코드 정리 후 PR 진행 예정이며, 그리고 bert, distilbert 모델의 경우 모델을 로드하는 과정에서 아래와 같이 이슈가 발생하여 해결하고 있습니다.
|
"batch size 1 기준으로 추론을 진행할 경우 1시간 이상의 시간이 걸렸습니다." batch size 1 기준으로 한개를 처리하는데 그정도의 시간이 걸리는건 아니지 않아? 우리가 가정하는 시나리오가 batch size 1 에 처리하는 데이터 개수도 1이니 크게 상관이 없지 않을까 싶은데.. |
네 테스트 데이터 모두를 추론할때가 3000초 이상 걸렸던 것이고, 하나만 추론 하는 경우에는 0.12초 정도 걸려서 데이터 셋을 바꿀 필요없이 기존코드에서 데이터 하나만 추론하도록 변경하겠습니다. |
ValueError: Input 0 of layer simple_rnn is incompatible with the layer: expected ndim=3, found ndim=2. Full shape received: (130, 32) 모델에 맞게 전처리가 잘 된 것인지 다시 확인해보고있습니다.
|
rnn, lstm 모델에서 하나의 imdb test dataset 추론을 하도록 구성하였습니다. 기존 처음에는 batch 단위로 데이터를 가져오는 전처리 방법에서 batch 단위 없이 하나의 데이터를 가져와서 모델에 맞게 tensor 형식으로 변환하여 전처리하는 과정에서 위의 댓글의 에러 이슈가 있었습니다. 그래서 batch 1로 데이터를 가져오면서 하나의 데이터만 사용할 수 있도록 다시 확인하여 추론이 가능하도록 하였습니다. # rnn
accuracy 1.0
load_model_time 1.9536924362182617
load_dataset_time 0.02190232276916504
total_inference_time 0.861821174621582
raw_inference_time 0.860095739364624
ips 0.3524333490043051
ips(inf) 1.1603335232962813
# lstm
accuracy 1.0
load_model_time 2.121065855026245
load_dataset_time 0.019814729690551758
total_inference_time 1.2942748069763184
raw_inference_time 1.292433500289917
ips 0.29110764608151285
ips(inf) 0.7726334427664535 |
어제 이야기한 내용과 잘 매치가 되지 않는것 같아. 해결은 어떻게 한거야? 지금 봐서는 https://github.com/ddps-lab/edge-inference/blob/nlp/NLP/nlp_raw_inference.py#L10 여기에 있는 load_test_batch 를 사용하지 않다가, 해당 함수의 인자를 1로 설정해서 데이터를 만들면서 추론이 진행되는건가? 뒤쪽의 정확도 측정하는 모듈을 봐서는 어떤 걸 예측하고, 정확도는 어떻게 측정하는지 잘 감이 안오는데 이건 따로 이야기해주면 좋겠다. |
edge 장비에서 여러 모델 추론 가능성을 확인합니다.
The text was updated successfully, but these errors were encountered: