New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
infer time benchmark #24
Comments
방법이 생각보다 꽤 간단한거 같다. import cProfile
cProfile.run('main()') |
cProfile result
|
필요이상의 정보가 너무 많고 함수 call이 어떤게 뭔지 모르겠다. |
|
해당 타임 측정 위치는 푸시된 코드 참고 |
위 time 측정 결과를 보면 코드 최초 실행보터 wisdomifier 로드까지 5.56초, "왜 하필이면 오늘이야"를 infer후 출력까지 5.664초이다. → 문장을 2~3개정도 더 넣고 테스트 해보자. |
Readme.md에 제시되어 있는 예시, 발표자료에 제시되어 있는 예시를 바탕으로 여러번 실행했을 때의 결과를 측정했다.
|
아, 그러면 모델을 로드해놓고 계속 유지하는 방법만 찾으면, inference는 빠르게 할 수 있을 듯! |
예스예스 아마 alpha service정도 deploy하는 단계가 되면 도커내에 데몬처럼 띄워놓고 request가 오면 처리하는 식으로 될듯. 저 리포 한번 뒤적거리면서 사용해보고 괜찮으면 디플로이 단계에서 사용하면 될거 같음! :) |
ainize 플랫폼에 bert-as-a-service를 활용해서 version_0를 deploy하는 것이 가능할까? |
문제는 로드하는 부분에 있음을 확인, 이슈는 여기에서 클로징 |
현재 main.infer 실행에 대략적으로 측정되는 시간에는 모델 로드 시간이 포함되어 있다.
실제로 디플로이시에는 모델로드는 데몬이 최초 실행될때에만 실행되기 때문에 실질적인 infer시간에는 모델로드가 빠져야 맞을 듯하다.
벤치마킹 툴이 여러개 있는 거 같다. 찾아보고 실험해보자.
The text was updated successfully, but these errors were encountered: