-
Notifications
You must be signed in to change notification settings - Fork 1
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Large volume of In-Memory data test with/SYSGEAR #1
Comments
질문) 약 100GB의 메모리 옵션으로 실험할때 실제 입력되는 테스트 데이터 row 건수가 몇건이나 될까요? |
질문) 약 100GB의 메모리 옵션으로 실험할때 실제 입력되는 테스트 데이터 row 건수가 몇건이나 될까요?
여러가지 방법으로 확인 가능합니다.
|
질문) 'insert 시나리오에서 64의 클라이언트 쓰레드로 수행하였을때 TPS 결과는 148,702 즉 초당 약 15만건의 데이터 입력이 수행되었다' 라고 이해하면 되나요? 답변) 네 맞습니다. |
질문) 100gb의 메모리 옵션으로 실험 시 메시지 출력 후 result 로그가 남지 않습니다. |
100gb의 경우 외 간헐적으로 해당 에러가 발생되면서 result의 sql 결과물이 생성되지 않습니다. |
질문) 지난 메일로 주신 정보 중 감사합니다. |
우선 script상의 문제가 일부 있을 수 있는데, 그 부분은 이후에 확인해보겠습니다.
|
Memory Tablespace의 최대 크기를 지정해 주셨는지 확인 부탁합니다.
|
Memory DBMS이지만, 데이타가 손실되지 않기 위해서 Memory Tablespace와 동일한 디스크 용량이 필요합니다.
|
MEM_MAX_DB_SIZE 는 저희가 수행하는 시나리오 범위 내로 지정 해두었습니다. 가이드 주신 내용은 다시 한번 확인 해보겠습니다. |
해당 스크립터는 연구소에서 Daily performance test 목적으로 만들었기 때문에 일부 스크립터 오류가 있습니다. 하나는 수행 결과물 이고 수행 결과물이 우선 중요하며, 그 결과값은 log/manual_yyyymmdd-hhmmss.log 형식으로 저장됩니다. result/*sql 값이 정상작동 되지 않는 부분은 다시 확인 해보겠습니다. |
오류가 발생하시면 log/manual_yyyymmdd-hhmmss.log 파일을 보내주시면 좋겠습니다. |
본 게시판은 시스기어와 ETRI의 빅메모리 테스트를 공동으로 진행하는 목적입니다.
The text was updated successfully, but these errors were encountered: