Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- JSON
- mysql
- Linux
- paramiko
- 핑거스타일
- 채보
- YOLO
- pip
- pandas
- SSH
- Docker
- ubuntu
- 명령어
- Selenium
- windows forms
- VS Code
- C
- label
- LIST
- OpenCV
- Numpy
- C++
- Visual Studio
- C#
- pytorch
- 오류
- Python
- 기타 연주
- error
- 프로그래머스
Archives
- Today
- Total
목록Activation Function (1)
기계는 거짓말하지 않는다
활성화 함수(Activation Function)
입력 신호의 합을 출력 신호로 변환하는 함수를 활성화 함수(Activation Function)라 한다. 임곗값을 경계로 출력 신호가 바뀐다. 신경망에서는 선형 함수일 경우 신경망의 층을 깊게 하는 의미가 없어진다. 미분하였을 때 항상 동일한 gradient가 나오게 된다. 따라서 비선형 함수를 사용한다. Step Function 입력이 0 초과일 경우 1, 그 외 0 import numpy as np import matplotlib.pyplot as plt def step_function(x : np): return (x > 0).astype(np.int64) x = np.arange(-5.0, 5.0, 0.1) y = step_function(x) plt.plot(x, y) plt.plot([0, 0..
AI
2021. 10. 20. 17:06