by 훈훈후니 [SQL Query] Token [2016.08.28 15:28:55]
안녕하세요.
다음과 비슷한 형태로 만들어진 Table 이 있는데.. 이걸 공백을 기준으로 한단어씩 Tokenizing 해야 합니다.
문제는 한 컬럼에 거의 100개 이상의 단어가 들어가있는데..
이걸 단순히 아래 쿼리처럼 자르니까 속도가 어마어마하게 느리더라구요..
(Row 수는 2만개쯤 되고 잘려진 단어가 특정 단어인지 비교해야 하는 구문이 필요합니다.)
혹시 좋은 방법이 없을까요???
1 2 3 4 5 6 7 8 9 10 | WITH t AS ( SELECT ' 1A 2AB 3ABC 4A 5ABCDE 6A 7AB' AS a FROM dual ) SELECT REGEXP_SUBSTR(A, '[^[:space:]]+' , 1, 1), REGEXP_SUBSTR(A, '[^[:space:]]+' , 1, 2), REGEXP_SUBSTR(A, '[^[:space:]]+' , 1, 3), REGEXP_SUBSTR(A, '[^[:space:]]+' , 1, 4) FROM t |
감사합니다~~