빅데이터급의 데이터는 아니지만 커져버린 테이블의 검색속도를 향상시키기 위해 어떠한
방법들을 쓰고 계신지 의견을 듣고 싶어 ^ ^ 이렇게 글을 올립니다.
뭐 여러가지 사례들의 대해서 어떻게 처리하시고 계시는지 여러의견, 조언 부탁드립니다.
1. 로그성 테이블 조인이 없는 대신 엄청 커져버린 테이블
( 현재 postgresql만 사용하고 있는데 조금이라도 빠르게 읽을수 있다면 mysql이나
monogo db 쪽으로 데이터를 옮겨서 insert, select 해야 하는건지 어떻게들 하고 계신가요? )
2. 꼭 필요한 테이블인데 데이터가 시간이 지나면 지날수록 커져버리는 테이블인데요
물론 insert가 하루에 계속 일어나며 다른 테이블과의 조인이 필요합니다.
데이터가 커진 만큼 다른 DB와 분리할수밖에 없는데 그러다 보니 해당 같은 서버의 DB table이
아니면 조인도 안된다는 단점이 있어요
( 선택한건 파티셔닝인데 날짜별로 파티셔닝을해서 검색일의 범위가 적을때 효율을
보고 있습니다. 다들 어떻게들 하고 계신가요? 조인문제 해결하신분도 의견 부탁드려요)
새로운 기법 이라든지 어떠한 방향성이든 의견을 듣고 싶습니다 ^ ^
|