Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- dfs
- 알고리즘
- 삼성역테
- 임베디드 딥러닝
- DP
- 삼성코테
- tinyml
- 영상처리
- 그리디
- 포스코 ai 교육
- 포스코 AI교육
- bfs문제
- 딥러닝
- 포스코 교육
- MCU 딥러닝
- 코테
- 삼성역량테스트
- 다이나믹프로그래밍
- 컴퓨팅사고
- 코딩테스트
- TensorFlow Lite
- sort
- 자료구조
- 초소형머신러닝
- tflite
- DP문제
- 코테 문제
- 삼성코딩테스트
- dfs문제
- BFS
Archives
- Today
- Total
목록배치정규화 (1)
코딩뚠뚠
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/b59OLM/btrMjQ467AC/RmPAeBYwQRX5N6ZocbXeP0/img.png)
과적합을 줄이는 방법 중 하나로 알고 이 글을 읽는 분들이 많을것이다. Batch Normalization에 대해 알아보도록 하자. 먼저 Batch Normalization 은 아래 논문에서 나온 개념이다. Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift Training Deep Neural Networks is complicated by the fact that the distribution of each layer's inputs changes during training, as the parameters of the previous layers change. This slows do..
공부/ML&DL
2022. 9. 16. 23:41