Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- JSON
- C
- OpenCV
- pytorch
- error
- Selenium
- YOLO
- C++
- pip
- Visual Studio
- 채보
- C#
- Linux
- Numpy
- 명령어
- VS Code
- LIST
- 기타 연주
- Docker
- 핑거스타일
- SSH
- Python
- 프로그래머스
- ubuntu
- pandas
- paramiko
- 오류
- windows forms
- mysql
- label
Archives
- Today
- Total
목록비선형 함수 (1)
기계는 거짓말하지 않는다
활성화 함수(Activation Function)
입력 신호의 합을 출력 신호로 변환하는 함수를 활성화 함수(Activation Function)라 한다. 임곗값을 경계로 출력 신호가 바뀐다. 신경망에서는 선형 함수일 경우 신경망의 층을 깊게 하는 의미가 없어진다. 미분하였을 때 항상 동일한 gradient가 나오게 된다. 따라서 비선형 함수를 사용한다. Step Function 입력이 0 초과일 경우 1, 그 외 0 import numpy as np import matplotlib.pyplot as plt def step_function(x : np): return (x > 0).astype(np.int64) x = np.arange(-5.0, 5.0, 0.1) y = step_function(x) plt.plot(x, y) plt.plot([0, 0..
AI
2021. 10. 20. 17:06