# O, X 문제
1. fit()함수의 첫번째 매개변수에 타깃데이터를, 두번째 매개변수에 입력 데이터를 전달한다.

2. SGD 경사하강법은 적응적 학습률을 사용하는 옵티마이저이다.

3. 인공신경망에서는 z값을 계산하는 단위를 뉴런이다. 뉴런에서는 선형계산 뿐만아니라 다른 계산도 많이 발생한다.

4. 원-핫 인코딩은 정숫값을 배열에서 해당 정수 위치의 원소만 1이고 나머지는 모두 0으로 변환한다. 

5. 모든 신경망의 은닉층에는 항상 활성화 함수가 있다.

6. 시그모이드 함수는 오른쪽과 왼쪽 끝으로 갈수록 그래프가 누워있는 모양이다. 
   이로 인해 올바른 출력을 만드는데 신속한 대응을 하지 못하는데, 
   이를 개선하기 위한 다른 종류의 활성화 함수는 헬루(Helu)함수이다.

7. SGDClassifier는 사용할때 각 샘플을 2차원 배열로 만들어 입력해야 한다.

8. 소프트맥스와 같이 뉴런의 선형 방정식 계산 결과에 적용되는 함수를 활성화 함수라고 한다.

# 주관식 문제
9. 원-핫 인코딩을 사용하는 이유는 무엇인가?

10. 신경망의 은닉층에 활성화 함수를 적용하는 이유는?
지은

# O, X 문제
1. fit()함수의 첫번째 매개변수에 타깃데이터를, 두번째 매개변수에 입력 데이터를 전달한다.
X -> 첫번째 매개변수는 입력데이터, 두번째 매개변수는 타깃데이터이다.

2. SGD 경사하강법은 적응적 학습률을 사용하는 옵티마이저이다.
X -> 고정된 학습률을 사용한다. (업데이트시 학습률이 조정되지 않는다.)

3. 인공신경망에서는 z값을 계산하는 단위를 뉴런이다. 뉴런에서는 선형계산 뿐만아니라 다른 계산도 많이 발생한다.
X -> 선형계산만 이루어진다

4. 원-핫 인코딩은 정숫값을 배열에서 해당 정수 위치의 원소만 1이고 나머지는 모두 0으로 변환한다. 
O -> 맞당

*** 5. 모든 신경망의 은닉층에는 항상 활성화 함수가 있다.
O -> 맞당

6. 시그모이드 함수는 오른쪽과 왼쪽 끝으로 갈수록 그래프가 누워있는 모양이다. 
   이로 인해 올바른 출력을 만드는데 신속한 대응을 하지 못하는데, 
   이를 개선하기 위한 다른 종류의 활성화 함수는 헬루(Helu)함수이다.
X -> Relu함수이다. 심층신경망에서 뛰어나다.

7. SGDClassifier는 사용할때 각 샘플을 2차원 배열로 만들어 입력해야 한다.
X -> 1차원 배열로 만들어서 입력해야한다.

8. 소프트맥스와 같이 뉴런의 선형 방정식 계산 결과에 적용되는 함수를 활성화 함수라고 한다.
O -> 맞당

# 주관식 문제
9. 원-핫 인코딩을 사용하는 이유는 무엇인가?
-> 신경망은 샘플에서 손실을 낮추려면 뉴런의 활성화된 출력을 최대한 1에 가깝게 만들어야하는데, 원 핫 인코딩을 통해 출력값만 1로 만들어줄 수 있기때문에...?
-> 범주형 데이터의 잘못된 관계를 학습하지 않기 위해서, 범주형 데이터를 처리하기 위해서
-> 

10. 신경망의 은닉층에 활성화 함수를 적용하는 이유는?
->은닉층에서 선형산술만 진행한다면 수행역할이 없다.그러므로 선형계산을 적당하게 비선형적으로 만들어주기 위해서 활성화 함수를 적용해주어야한다.

Untitled

Untitled