1. 결정 트리는 데이터의 누락 값을 처리하기위해 대체값을 사용하거나 샘플을 분류하는데 사용한 다른 특성들을 사용할 수 있다. (X) 해설1: 결정 트리는 누락된 데이터를 처리하기 위해 대체값을 사용하거나 해당 샘플을 분류하는 데 사용되지 않는 다른 특성들을 아용하여 분류 결정을 내린다.

  2. 결정 트리는 선형 관계를 가진 데이터를 처리하는 데 능숙하다. (X) 해설2: 결정 트리는 계층적 구조로 비선형 관계를 포착할 수 있어 복잡한 데이터 세트에 대한 문제를 해결하는 데 적합하다.

  3. 랜덤 포레스트에서 모든 결정 트리는 동일한 훈련 데이터를 사용하여 학습한다. (X) 해설3: 랜덤 포레스트에서 각 결정 트리는 훈련 데이터의 서로 다른 부분 집합을 사용하여 학습하며 이를 부트스트랩 샘플링이라고 한다.

  4. 앙상블 기법 중 배깅(Bagging)은 약한 학습기들의 결과를 동일한 가중치를 부여하여 결합하는 앙상블 기법이다. (O) 해설4: 앙상블 기법 중 배깅(Bagging)은 약한 학습기들의 결과를 동일한 가중치를 부여하여 결합하고 각자 다른 가중치를 부여하여 결합하는 것은 부스팅 기법이다.

  5. 히스토그램 기반 그레이디언트 부스팅은 강한 학습기로 결정 트리를 사용하는 앙상블 방법이다. (x) 해설5: 히스토그램 기반 그레이디언트 부스팅은 약한 학습기로 결정 트리를 사용하는 앙상블 방법이며, 이전 트리의 오차를 보완하는 방향으로 새로운 트리를 추가하여 모델의 성능을 개선한다.


  1. 주성분 분석은 원래 데이터의 평균과 분산을 최대한 보존하면서 차원을 축소한다. (X) 해설6: 주성분 분석을 수행하기 전에 데이터를 정규화하거나 평균을 빼는 등 데이터를 중심에 맞추는(centering) 전처리 과정을 거친다. 따라서, PCA는 데이터의 원래 평균을 유지할 수 없다.

  2. 주성분 분석은 일반적으로 계산 신속도를 위해 임의의 몇 개의 주성분만 선택하여 차원 축소를 수행한다. (X) 해설7 : 주성분들은 데이터의 분산을 설명하는 순서대로 정렬되어 있으며 상위 주성분순으로 가장 많은 정보를 포함하여 상위 몇개의 주성분을 선택하여 차원 축소를 수행한다.

  3. 엘보우 방법은 클러스터의 개수를 결정할 때 사용되는 지표 중 하나로 클러스터링 알고리즘을 여러 번 실행해 결과를 비교해야하며, 클러스터 개수에 따른 왜곡의 증가 속도를 분석하여 최적의 클러스터 개수를 찾는 방법이다. (X) 해설8 : 엘보우 방법은 클러스터 개수에 따른 왜곡의 감소 속도를 분석하여 최적의 클러스터 개수를 찾는 방법이다.

  4. 인공신경망 모델은 지도학습에 모두 사용될 뿐만 아니라 일부 비지도학습에도 사용될 수 있다. (X) 해설9 : 지도학습 모델 중 대부분에 인공신경망을 사용할 수는 있지만, '모든' 모델에 사용되지는 않으며 작은 규모의 데이터셋이나 간단한 문제에는 다른 모델을 선택한다.