- 일자 : 2019년 11월 6일 수요일
- attendee : 이지연, 이세호, 이호권, 윤준기, 김예본, 이준용, 이민구
-
머신러닝 이론
- 회귀와 분류의 공통점과 차이점
- 선형 회귀란?
- 손실에 대하여 (L2손실, L1손실 등)
- L2 와 L1의 정규화. 그리고 이 둘의 비교
- 손실을 줄이는 방법 - 경사하강법과 학습률에 대하여
- 과적합이란?
- 데이터셋을 분할하는 방법 (학습, 검증, 테스트)
- 특성 벡터, 특성 추출이란
- OOV(Out Of Vocabulary)
- 원 핫 인코딩, 멀티 핫 인코딩
- 선형 문제와 비선형 문제
- 시그모이드 함수, ReLU 함수의 특징과 적용
- 로지스틱 회귀란? 로지스틱 회귀 모델에서의 정규화, 손실, 임계값
-
NN
- 신경망이란?
- NN의 구조 (어떻게 구성되는가?)
- 전향 전파법 (forward propagation)
- 시그모이드 함수를 어디에 적용하는가?
- 역전파법 (Backpropagation)
- 짧은 코드를 체크하고 코드 분석
- 일자 : 2019년 11월 13일 수요일
- 발표자 : 윤준기
- Keyword : Extended ML