일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
- pandas
- 오류
- Linux
- pip
- Visual Studio
- 핑거스타일
- VS Code
- YOLO
- Docker
- OpenCV
- Python
- 컨테이너
- JSON
- label
- windows forms
- Numpy
- Selenium
- 기타 연주
- ubuntu
- C++
- SSH
- C#
- pytorch
- nvidia-smi
- error
- paramiko
- mysql
- 프로그래머스
- C
- 채보
- Today
- Total
목록AI (35)
기계는 거짓말하지 않는다
PyTorch는 torch.utils.data.Dataset과 torch.utils.data.DataLoader의 두 가지 데이터셋 라이브러리를 제공하며미리 준비된(pre-loaded) 데이터셋 뿐 아니라 가지고 있는 데이터를 사용할 수 있다.Dataset은 data와 label을 저장한다.DataLoader는 Dataset에 쉽게 접근할 수 있도록 iterable 객체로 만들어 주고sampler, shuffle, batch_size 등 다양한 매개변수를 설정 할 수 있다.from torch.utils.data import Datasetfrom torch.utils.data import DataLoaderclass CustomDataset(Dataset): def __init__(self, data..
PyTorch에서 model을 선언 후 validation 혹은 test를 진행할 때 model.eval()과 with torch.no_grad():혹은 함수에 @torch.no_grad를 선언한다. 이 의미는 다음과 같다.no_gradPyTorch의 autograd engine을 사용하지 않는다. 신경망 학습을 지원하는 PyTorch의 자동 미분 엔진이다.이것은 gradient 계산을 하지 않는다는 의미이다. 역전파(backpropagation)를 진행하지 않고 이렇게 함으로써계산에 대한 메모리 소비를 줄인다. test 시에는 이 과정을 활용하지 않기 때문에 명시한다.model.eval()선언한 모델을 평가 모드로 전환한다. training 시에 model.train()을 선언하는 것과 다르다.infe..
단층 퍼셉트론은 값을 보내는 Input Layer와 출력하는 Output Layer 두 단계로 나뉨 활성화 함수가 사용되지 않으며 입출력 레이어 중간에 Hidden Layer가 추가되면 다층 퍼셉트론(Multi-Layer Perceptron)이 된다. 입력 신호는 각각 고유한 가중치가 곱해지고 각 신호는 출력에 영향을 준다. 단층 퍼셉트론은 직선 하나로 두 영역을 나눌 수 있는 문제만 구현이 가능하므로 XOR 구현은 불가능하다. def AND_gate(x1, x2): w1 = 0.5 w2 = 0.5 b = -0.7 result = x1 * w1 + x2 * w2 + b if result

얼마나 분류를 정확하게 했는가에 대한 성능평가 방법으로 Accuracy, Precision, Recall, F1 Score을 사용할 수 있다. Accuracy (TP + TN) / (TP + FP + FN + TN) 실제 맞은 개수 Precision TP / All True Predictions TP / (TP + FP) True라고 예측 한 것 중 실제 값이 True인 것. TP FP 개수 중에 TP가 몇 개인가 실제 True를 얼마나 잘 예측 했는가 Recall TP / All Truths TP / (TP + FN) 실측값 True 중 진짜 True라고 예측 한 것. F1 Score 2 × (Precision × Recall) / (Precision + Recall) Precision, Recall의..
import torch# torch version, gpu 사용 여부, 이름 체크print("torch version>>", torch.__version__)print("GPU 사용 유무>>", torch.cuda.is_available())print("GPU 이름>> ", torch.cuda.get_device_name(0))'''torch version>> 1.7.1+cu101GPU 사용 유무>> TrueGPU 이름>> GeForce GTX 1650'''# device 설정. GPU 사용 가능 여부에 따라 device 정보 저장device = "cuda:0" if torch.cuda.is_available() else "cpu"print(device)# cuda:0
torchvision.datasets.VOCDetection를 상속받아 클래스를 만든 후 생성 시 download 매개변수를 True를 주면 VOC 데이터셋을 자동으로 다운로드 받을 수 있다. 상세한 매개변수는 voc.py의 class _VOCBase를 참조하면 된다. 기본값은 아래와 같다. class _VOCBase(VisionDataset): _SPLITS_DIR: str _TARGET_DIR: str _TARGET_FILE_EXT: str def __init__( self, root: str, year: str = "2012", image_set: str = "train", download: bool = False, transform: Optional[Callable] = None, target_t..
Scikit Learn 라이브러리에서 제공하는 데이터 셋 중 Iris 꽃의 데이터이다. from sklearn.datasets import load_iris iris_dataset = load_iris() print(type(iris_dataset) # sklearn.utils.Bunch print(iris_dataset.keys()) # dict_keys(['data', 'target', 'frame', 'target_names', 'DESCR', 'feature_names', 'filename']) print(iris_dataset['DESCR'][:193]) ''' .. _iris_dataset: Iris plants dataset -------------------- **Data Set Chara..
숫자 값으로 떨어지는, 어떤 특정한 숫자 값을 예측하는 문제 종류 Ordinal Regression: 데이터 내 상대적 순서나 랭킹 예측, 음수 x, 소수점 x ex) 강연 참석자의 선호도, URL 즐겨찾기 순서 Poisson Regression: 어떤 이벤트가 발생할 횟수 예측, 이산분포를 따르며 음의 정수값 x, 소수점 x ex) 비행기 탑승에 따른 병원 방문 횟수 Fast Forest Quantile Regression: 값의 분산/분포 예측, 정확한 값을 알고 싶은게 아님 ex) 성적 예측을 통한 학생들의 발달 단계 평가 정확한 값, 판매량, 사이즈 등 예측은 아래 다섯 가지 사용 용이 Linear Regression: 가장 일반적인 선형 회귀 알고리즘, 어떤 알고리즘을 써야할지 잘 모를 때도 사..