- multi classification에서 각 확률이 독립 인지? → (X)
- Overfitting → Regularization에서 Gradient Descent? … (O)
- NN에서 예측 모델을 만들 수 있는지? (NN은 classification 모델 아닌가?) → (O)
⇒ 지금까지 배운 것 분류
예측 모델
DNN으로 시계열 데이터 예측을 할 수 있음 → NN으로도 가능하지 않을까?
⇒ activation function을 바꿔가며 바꿀 수 있는 것인가? → 여러 방법으로.. 가능하다. ex. [0,1000] scale을 [0,1]로 바꿔서 예측을 하는 방식으로…. 이 방법은 시계열 to 분류로 바꾸는 방법인 듯 ⇒ 이거 질문에 적기
- Activation Func의 종류
- NN과 Logistic의 비슷한 점에 대해서 ‘자세히’ 살펴 보기
- DNN과 NN의 근본적인 차이
- 활성화 함수→비선형을 피하기 위한 함수(NN부터 에서만 사용), 손실 함수, 가설 함수(reg에서는 무조건 h(x) = ax+b/ clssification에서는 무조건 h(x) = 시그모이드 사용?⇒Nope: 다른 함수도 사용 가능하다…!의 차이
⇒ 손실 함수가 바뀌면 종류가 바뀐다.. → ex. logistic, SVM → 주로 손실 함수를 새로 만드는 방향으로 모델 연구를 하는 것인가?
⇒ 큰 그림: 가설→Cost→GD→Activation
- ML: 메모리 베이스, 모델 기반
- → 질문: 비선형 함수를 써도 비슷한 문제가 발생하지 않나?
- 질문: Backpropergation 용어 정리 맞는지 + loss func MSE되면 얘는 activation func 의미 있나? → 마지막 linear 여도 상관은 없다.,,
- 질문: C와 입실론(slack var) 파라미터의 차이 (SVM에서) → C fit 강도 정하는 것, 입실론 error 받아들이는 정도 → 둘이 싸우는 지점? (ex. fit 조금, error 적게 받아들인다) → 하나만 고정하고 조절한다.
- C가 logistic에도 있는 파라미터인지? (아님 둘이 다른 건가) → 그럼 C를 썼을 때 SVM에서의 장점 → C가 같았을 때 SVM에서 이득이 있다 → 이 정도만 이해하자.
C와 regulization term의 차이 → C는 regularization의 강도를 결정하는 파라미터/ C와 ramda의 차이 → 왜 반비례?→ 그냥 그렇다 하기 → 람다랑 약간 독립 개념? SVM 6page 참고

C는 약간 SVM 외의(?) term을 얼마나 받아드릴 지에 대한 개념