Machine learning

의사 결정 트리 (Decision Tree)

Data Engineer 2015. 6. 22. 16:59

의사 결정 트리(Decision tree)


  의사 결정 트리[1]는 분류(Classification ) 기술 중 가장 일반적으로 사용되는 방법이다. 의사 결정 트리의 개념이 익숙하진 않겠지만 대표적으로 예를 들을 수 있는 것이 바로 스무고개라는 게임이다. 스무고개는 총 20개의 질문만 허락되며, 그에 대한 답변으로 ‘예’ 혹은 ‘아니오’로만 대답하여서 추측하여 답에 도달하는 게임이다.
의사 결정 트리를 표현하는 방법은 Figure 1과 같다.

  Figure 1에서 사각형을 decision block이라고 하고 타원형을 terminating block이라고 한다. 그림에서의 질문에 대답으로 어떤 결론에 도달하게 되는데 결론에 도달하기 전에 뻗어나가는 화살표를 branches라고 한다.

1. 트리 구조

  의사 결정 트리를 구성하기 위해서는 decision을 만들어야 하는데 decision은 데이터 분할에 영향을 주는 attribute로 결정된다. 의사 결정 트리를 만드는 순서는 아래와 같다.

  • 최초의 decision 생성한다.
  • 하위 집합은 최초의 decision 노드의 branches가 된다.
  • 만약 branch에 있는 데이터가 모두 같은 분류 항목에 속하면 제대로 분류가 된 것이며 생성을 종료한다.
  • 그렇지 않다면, 이 하위 집합에서는 다시 분할 절차를 반복한다.
  • 모든 데이터가 분류될 때까지 이 절차를 반복한다.

  위의 내용을 의사코드로 표현하면 아래와 같다.

createBranch function()
Check if every item in the dataset is in the same class:
    If so return the class label
    Else
        find the best feature to split the data
        split the dataset
        create a branch node
            for each split
                call createBranch and add the result to the branch node
        return branch node

2. 데이터 분할 방법 (의사 결정 트리 알고리즘)

  • ID3 [2]
  • C4.5
  • CART

이 포스팅에서는 가장 기초가 되는 ID3으로 설명할 예정이다.

2.1 Information gain

  데이터를 분할하기 전과 후의 변화를 Information gain이라고 한다. 데이터 집합에 대한 정보 측정 방법을 Shannon entropy 또는 엔트로피라고 한다.

  • 엔트로피 : 정보에 대한 기대 값

  다양한 값을 가질 수 있는 어떤 데이터를 분류하고자 한다면, 정보 xi로 표시하고 다음과 같이 정의할 수 있다. 엔트로피를 계산하기 위해서는 분류 항목의 가능한 모든 값에 대해 모든 정보의 기대 값이 필요한데 엔트로피는 아래의 식에 의해서 계산 된다.

  위에서 Information gain은 데이터를 분할하기 전과 후의 변화라고 이야기 했는데, 즉 이말은 어떤 속성을 선택함으로 인해서 데이터를 더 잘 구분하게 되는 것을 의미한다. 예를 들어 학생 데이터에서 수능 등급을 분류하는데 있어 수학 점수가 체육 점수보다 변별력이 높다고 하자. 그러면 수학 점수 속성이 체육 점수 속성보다 Information gain이 높다고 할 수 있다. 정보이득의 계산 식은 아래와 같다.

  여기서 앞의 H(s)는 상위 노드의 엔트로피를 의미한다. 그러면 Information gain의 계산 식은 상위 노드의 엔트로피에서 하위 노드의 엔트로피를 뺀 것이다. 뒤의 식은 하위 각 노드의 엔트로피를 계산한 후 노드의 속한 레코드 수를 가중치로 하여 엔트로피를 평균한 값이다. 즉 IG(A)는 속성 A를 선택했을 때 Information Gain을 계산하는 식으로, 원래 노드의 엔트로피를 구한 값을 I라고 하면, 속성 A를 선택한 후의 x개의 하위 노드로 나누어 진 것에 대한 전체 엔트로피를 구한 후 그것을 J라고 할 때 I-J를 의미하는 것이다. 이때 이 결과의 갑이 클 수록 Information gain이 큰 것이고 속성 A가 분류하기 가장 좋다는 것을 의미한다.[3]

3. 정리

Decision Tree의 장, 단점

  • 장점
    • 계산 비용이 적다.
    • 학습된 결과를 사람이 이해하기 쉬우며 누락된 값이 있어도 처리할 수 있다.
    • 분류와 관련이 없는 속성이 있어도 처리할 수 있다.
  • 단점
    • overfitting되기 쉽다
  • 적용 : 수치형 값, 명목형 값만 적용 가능하다.

  이 포스팅에서는 ID3를 사용한 Decision tree에 대해 알아보았다. ID3는 수치형 값을 다룰 수 없는 단점이 있기 때문에 연속형 값은 양자화(Quantization)를 통해 이산 방식으로 변형해야 한다. 그러나 너무 많은 분할이 이루어질 경우 또 다른 문제가 발생할 수 있다. 후에는 CART라고 불리는 다른 Decision tree 알고리즘을 포스팅 하도록 하겠다.


References

[1] Machine learning in action
[2] ID3 Algorithm, wikipedia 
[3] ID3 Argorithm, at-times님의 블로그

'Machine learning' 카테고리의 다른 글

로지스틱 회귀(Logistic Regression) #1  (0) 2015.06.26