로그 데이타를 하루에 INSERT를 250만건 정도합니다.
이렇게 싸이면 한달이면 정말로 대단하죠.
검색도 날짜/시간별로 검색을하고, 몇몇 조건별로 검색을합니다.
데이블 정보는 아래와 같습니다.
물론 몇몇 조건에따라 인덱싱을 7개정도 더 걸어주었구요.
검색이 너무 느려서 MySQL로 바꾸면 어쩔런가..하고
생각도하고요.
INSERT는 괜찮은데 검색이 너무 느려서 고민입니다.
무슨 여러가지 좋은 방법이있을까요?
사용 버전은 8.0.1과 8.0.3입니다.
검색을 좀더 상세하게적으면 아래와 같습니다.
시간 + test4
date + test5
하나더...vacuumdb -f 로 로그 최적화를 시키면 로그 저장을 못하고
멈추어버리는군요.
해결방법이 있을까요?
test=# \d logs;
"public.logs" 테이블
필드명 | 형태 | 기타 조건
-------------+------------------------+-----------
date | character varying(10) |
hour | character varying(4) |
time | character varying(10) |
status | character varying(12) |
test1 | character varying(16) |
test2 | character varying(100) |
test3 | character varying(100) |
test4 | character varying(600) |
test5 | character varying(2) |
test6 | character varying(50) |
test7 | character varying(100) |
test8 | character varying(50) |
test9 | character varying(100) |
test10 | character varying(32) |
test11 | character varying(50) |
test12 | numeric(10,1) |
test13 | character(1) |
test14 | character varying(10) |
test15 | character varying(100) |
인덱스들:
"logs_idx" btree (date, "hour")
test=#
|