PostgreSQL 에 대한 질문인데요.
공개용 디비로 대단히 훌륭한 SQL지원이 참 맘에 듭니다..
제가 이 DB로 말이죠 주문시스템을 만들어 볼라는데요 과연 성능이 어떨지 궁금합니다.
주문된 자료가 약 2000개 를 기본으로 가지고 있고
주문자료를 토대로 매일 2000 건의 매출을 기록하고,
그럼 한달의 매출기록한 테이블이 60,000건의 데이터가 남고
2달이면 120,000건.. 물론 크기는 일자(4), 수량(2), 주문번호(4 byte), 영업사원(4 byte) 정도의 작은 테이블 이지만요.
1년이면 720,000건정도의 매출기록이 생기겠죠...
매출기록에 드는 Byte는
1일 14Byte(1개의 매출) * 2000(건) = 28kb
1달 : 28kb * 30(일) = 840kb
1년 : 840Kb * 12개월 = 10080kb 니까 10Mb 약간 넘네요
물론매출기록만 계산한거지만요. 가장 중요한 거니까..
문제는 이 매출기록 테이블을 사용하는 Transaction이 720,000 건의 데이터를 달별로 보고싶을때마다 Grouping 도 했다가 Join도 했다가 하는 연산을 했을때 과연.. 속도가 얼만큼 따를까.. 고민중입니다. 안정성도 그렇고요.. Server 사양도 그렇고..
(산넘어 산이네..)
1달치 60,000건의 데이터를 셈플로 Join없이 제품별로, 영업사원별로 그루핑해보았는데 거의 바로 나오더라고요. top 실행하고 cpu점유율을 보니까 질의에 따라 달랐지만 25% 이하로 나오고요.
(컴사양 celerlon 700Mhzm, 256 RAM, 하드: 꼬진거.. 테스트 PC라.. 히..)
혹 이런 트랜잭션 규모의 Transaction을 PostgreSQL로 쓰시는 분 있으시다면 조언부탁드립니다 . 감사합니다. 여까지 읽어 주셔서
|