Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- TensorFlow Lite
- tflite
- 그리디
- 코딩테스트
- MCU 딥러닝
- 삼성역량테스트
- 포스코 교육
- 자료구조
- tinyml
- 딥러닝
- DP문제
- 삼성코딩테스트
- dfs문제
- 코테
- 알고리즘
- 코테 문제
- 컴퓨팅사고
- sort
- 삼성역테
- dfs
- 포스코 AI교육
- 다이나믹프로그래밍
- 초소형머신러닝
- 삼성코테
- 포스코 ai 교육
- BFS
- DP
- bfs문제
- 임베디드 딥러닝
- 영상처리
Archives
- Today
- Total
목록activation function (1)
코딩뚠뚠
[머신러닝 공부] 딥러닝/Activation Function종류
활성화 함수(Activation Function) 은 어디에서 쓸까? 딥러닝 네트워크를 쪼개보면 시작은 하나의 퍼셉트론 구조임을 알 수 있다. 여기서 출력 f를 바로 다음 레이어로 전달하지 않고 활성화함수를 통과시킨 후 전달한다. 왜 활성화 함수를 통과시키나? 단층 신경망인 퍼셉트론은 XOR연산을 할 수 없었다. 이를 풀기 위해서는 출력을 비선형으로 분리해야 했다. 1. 직선 하나만으로는 여러 입력을 제대로 구분할 수 없기 때문에 히든레이어가 필요했다. (여러 직선 필요) 2. 비선형으로 된 활성화 함수로 신경망의 출력을 변환해야 한다. (단순히 중간층 연결한다고 비선형이 되지는 않음) 출력을 활성화함수를 거치지 않고 그대로 출력해준다면 layer 가 아무리 깊어져도 하나의 linear 연산으로 나타낼 ..
공부/ML&DL
2021. 7. 11. 14:35