오늘 할 일 (계획)
1. 머신러닝 4주 차까지 수강
2. 기존 수강 완료한 강의 개발일지 작성
오늘 한 일 (회고)
1. 머신러닝 4주 차까지 완강
* 강의 내용 요약
딥러닝은 머신러닝의 한 부분이며 자연계의 문제들이 선형 회귀로만 해결하지 못하는 부분들이 있기에 선형 회귀로 해결하는 중간중간에 비선형적인 장치를 하나씩 넣어서 결괏값을 풀어가는 과정을 보면 사이사이에 층을 깊게 쌓는 다 고하여 딥러닝이라고 불리게 됨
딥러닝의 주요 개념과 기법
- 배치 사이즈와 에폭 - batch를 설명을 하게 될 때 iteration이라는 개념을 같이 설명을 해야 하는데 우리가 가지고 있는 엄청나게 큰 데이터셋을 학습을 시킬 때 방대한 자료를 한 번에 메모리에 올리기 힘들기 때문에 데이터를 쪼개서 학습을 시키게 되고 이때 쪼개는 단위를 배치라고 한다. 이때 배치로 쪼개서 반복하게 되는 횟수를 Iteration이라고 한다.
epoch은 머신러닝에서 똑같은 데이터셋을 가지고 학습을 하게 되는데 이렇게 한 번의 학습을 하게 되는 단위를 epoch이라고 한다.
- 활성화 함수 - 뇌의 뉴런이 다음 뉴런으로 전달할 때 보내는 전기신호의 특성에서 영감을 받아서 만들어진 함수로 전기신호의 임계치를 넘어야 다음 뉴런이 활성화된다고 하여 활성화 함수라고 명명한다. 실습을 진행할 때 Relu를 적용시키는 것을 많이 보았는데 해당 그래프가 어디서 활성화되는지는 밑의 그래프를 확 이하면 간단하게 확인할 수 있다. 여러 활성화 함수를 교체를 하면서 최종적으로 정확도를 놓이는 작업을 동반하게 되는데 이런 테스트의 과정을 모델 튜닝이라고 부른다.
- 과적합과 과소적합 - Overfitting, Underfitting이라고 하며 두 개다 간단하게 학습의 복잡도가 원하는 문제의 난이도와 맞지 않았을 때 나타나는 현상이라고 생각하면 된다. 과적합이 일어날 때는 정해진 데이터 안에서는 아주 잘 학습하였지만 실제 테스트할 때는 결과를 틀리는 가능성도 있고 학습한 데이터의 사례가 오류를 일으킬 수도 있는 민감한 부분까지 건드려서 데이터를 조금 줄이고 학습을 시키는 방법이 필요할 수도 있다.
- 데이터 증강 - 과적합을 해결하기 위한 가장 좋은 방법 중 하나로 말 그대로 데이터를 늘리는 것이다. 하지만 실무에서는 데이터를 더 늘리기에는 부족할 경우가 많아서 이미지를 확대 축소 로테이션 색변화 등의 과정을 거쳐서 한 개의 이미지에서 수개 또는 수십 개의 이미지를 만들어서 증강하는 방법으로 사용합니다.
- 드롭아웃 - 사공이 많으면 배가 산으로 간다 쓸데없는 데이터가 많으면 결과에 더욱 혼란만 줄 수 있어서 일정 데이터를 빼는 것을 뜻함
- 앙상블 - 여러 개의 딥러닝 모델을 만들어서 투표로 결정을 합니다. 해당 내용을 보면서 마이너리티 리포트가 생각났었습니다.
- 학습률 조정 - Learning rate를 고정시키는 것이 아니고 학습하는 구간에 따라서 변화를 주어 Local minimum을 효과적으로 찾도록 도와주는 것을 의미함
그리고 강의를 들으면서 흥미로웠던 것은 딥러닝의 개념이 사람의 뇌구조를 컴퓨터로, 프로그래밍 적으로 모방하여 해결책을 내게 하는 것인데 원래 내가 문제 해결을 모색할 때 내가 생각하는 방식을 코드로 어떻게 구현하면 좋을지를 많이 생각하는 버릇이 있기에 참 흥미로운 분야라고 생각했다.
이렇게 사람의 뇌구조중 신경망의 구조를 모방한 방식이 있는데 이런 신경망 구조중 대표적인 것에 대해서 알아보면
합성곱 신경망(CNN), 순환 신경망(RNN), 생성적 적대 신경망(GAN) 이 있다.
내일 할 일
1. 머신러닝 강의 복습
2. 기존 수강 완료한 강의 개발일지 작성
3. 알고리즘 3주 차 강의 학습
'TIL' 카테고리의 다른 글
1-11[Machine learning] 2, 3, 4주차 개발일지 (0) | 2022.01.11 |
---|---|
1-10[Machine learning] 1주차 개발일지 (0) | 2022.01.10 |
1-8[Machine learning] 머신 러닝 기초 정리 #2 (0) | 2022.01.08 |
1-7[Machine learning] 머신 러닝 기초 정리 #1 (0) | 2022.01.07 |
1-6[PROFILE] GITHUB 프로필, LinkedIn (0) | 2022.01.06 |