by 훈훈후니 [SQL Query] Token [2016.08.28 15:28:55]
안녕하세요.
다음과 비슷한 형태로 만들어진 Table 이 있는데.. 이걸 공백을 기준으로 한단어씩 Tokenizing 해야 합니다.
문제는 한 컬럼에 거의 100개 이상의 단어가 들어가있는데..
이걸 단순히 아래 쿼리처럼 자르니까 속도가 어마어마하게 느리더라구요..
(Row 수는 2만개쯤 되고 잘려진 단어가 특정 단어인지 비교해야 하는 구문이 필요합니다.)
혹시 좋은 방법이 없을까요???
WITH t AS ( SELECT ' 1A 2AB 3ABC 4A 5ABCDE 6A 7AB' AS a FROM dual ) SELECT REGEXP_SUBSTR(A, '[^[:space:]]+', 1, 1), REGEXP_SUBSTR(A, '[^[:space:]]+', 1, 2), REGEXP_SUBSTR(A, '[^[:space:]]+', 1, 3), REGEXP_SUBSTR(A, '[^[:space:]]+', 1, 4) FROM t
감사합니다~~