일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 임베디드 딥러닝
- dfs
- 삼성코테
- 삼성역량테스트
- 코테
- 자료구조
- 삼성역테
- 영상처리
- 초소형머신러닝
- 코테 문제
- 포스코 ai 교육
- 다이나믹프로그래밍
- 컴퓨팅사고
- TensorFlow Lite
- DP
- tinyml
- bfs문제
- BFS
- 그리디
- 포스코 AI교육
- DP문제
- sort
- 딥러닝
- dfs문제
- 알고리즘
- 삼성코딩테스트
- 포스코 교육
- MCU 딥러닝
- 코딩테스트
- tflite
- Today
- Total
목록sigmoid (2)
코딩뚠뚠
과적합을 줄이는 방법 중 하나로 알고 이 글을 읽는 분들이 많을것이다. Batch Normalization에 대해 알아보도록 하자. 먼저 Batch Normalization 은 아래 논문에서 나온 개념이다. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift Training Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows do..
활성화 함수(Activation Function) 은 어디에서 쓸까? 딥러닝 네트워크를 쪼개보면 시작은 하나의 퍼셉트론 구조임을 알 수 있다. 여기서 출력 f를 바로 다음 레이어로 전달하지 않고 활성화함수를 통과시킨 후 전달한다. 왜 활성화 함수를 통과시키나? 단층 신경망인 퍼셉트론은 XOR연산을 할 수 없었다. 이를 풀기 위해서는 출력을 비선형으로 분리해야 했다. 1. 직선 하나만으로는 여러 입력을 제대로 구분할 수 없기 때문에 히든레이어가 필요했다. (여러 직선 필요) 2. 비선형으로 된 활성화 함수로 신경망의 출력을 변환해야 한다. (단순히 중간층 연결한다고 비선형이 되지는 않음) 출력을 활성화함수를 거치지 않고 그대로 출력해준다면 layer 가 아무리 깊어져도 하나의 linear 연산으로 나타낼 ..