현재 이곳 DSN 에서 PostgreSQL 을 사용중입니다. 사용자의 로그를 포함하여 모든 자료가 이곳 DB 에 저장 하고 있는데 총용량이 약 300 MB 가 넘어갑니다. 하지만 그렇게 많이 느리다던지 하는 느낌은 전혀 들지 않습니다. 그리고 자료를 연도별로 테이블로 나누어 저장하던지 하시면 보다 좋은 효율을 보장 받을수 있다고 생각됩니다.
-- 김대성 님이 쓰신 글:
>> PostgreSQL 에 대한 질문인데요.
>> 공개용 디비로 대단히 훌륭한 SQL지원이 참 맘에 듭니다..
>>
>> 제가 이 DB로 말이죠 주문시스템을 만들어 볼라는데요 과연 성능이 어떨지 궁금합니다.
>>
>> 주문된 자료가 약 2000개 를 기본으로 가지고 있고
>> 주문자료를 토대로 매일 2000 건의 매출을 기록하고,
>>
>> 그럼 한달의 매출기록한 테이블이 60,000건의 데이터가 남고
>> 2달이면 120,000건.. 물론 크기는 일자(4), 수량(2), 주문번호(4 byte), 영업사원(4 byte) 정도의 작은 테이블 이지만요.
>> 1년이면 720,000건정도의 매출기록이 생기겠죠...
>>
>>
>> 매출기록에 드는 Byte는
>>
>> 1일 14Byte(1개의 매출) * 2000(건) = 28kb
>> 1달 : 28kb * 30(일) = 840kb
>> 1년 : 840Kb * 12개월 = 10080kb 니까 10Mb 약간 넘네요
>>
>> 물론매출기록만 계산한거지만요. 가장 중요한 거니까..
>>
>> 문제는 이 매출기록 테이블을 사용하는 Transaction이 720,000 건의 데이터를 달별로 보고싶을때마다 Grouping 도 했다가 Join도 했다가 하는 연산을 했을때 과연.. 속도가 얼만큼 따를까.. 고민중입니다. 안정성도 그렇고요.. Server 사양도 그렇고..
>> (산넘어 산이네..)
>>
>> 1달치 60,000건의 데이터를 셈플로 Join없이 제품별로, 영업사원별로 그루핑해보았는데 거의 바로 나오더라고요. top 실행하고 cpu점유율을 보니까 질의에 따라 달랐지만 25% 이하로 나오고요.
>>
>> (컴사양 celerlon 700Mhzm, 256 RAM, 하드: 꼬진거.. 테스트 PC라.. 히..)
>>
>> 혹 이런 트랜잭션 규모의 Transaction을 PostgreSQL로 쓰시는 분 있으시다면 조언부탁드립니다 . 감사합니다. 여까지 읽어 주셔서
|