일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- Python
- CS231n
- 전산기초
- 머신러닝
- MySQL
- docker
- pytorch
- C++
- AWS
- 모두를 위한 딥러닝 강좌 시즌1
- cs
- 실전알고리즘
- 3단계
- ssd
- 파이썬
- 구현
- SWEA
- ubuntu
- 프로그래머스
- 1단계
- 그리디
- 백준
- 이것이 코딩테스트다 with 파이썬
- STL
- 코드수행
- 자료구조 및 실습
- Object detection
- 2단계
- test-helper
- 딥러닝
- Today
- Total
목록pytorch (34)
곰퓨타의 SW 이야기

이 강의를 참고하였다!! www.boostcourse.org/ai214/lecture/43759/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Problem of Sigmoid input -> network -> output ( w ) ( loss 구하기) 별도의 activation을 설정하지 않았다. model = torch.nn.Sequential(linear1, relu, linear2, relu, linear3).to(device) # define cost/loss & optimizer criterion = torch.nn.CrossEntropyLoss().to(device) # Softmax is internally computed. optimizer..

이번에도 부스트코스의 강의를 참고하였다!! www.boostcourse.org/ai214/lecture/43758/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Multi layer Perceptron 1969년 Marvin Minsky는 XOR를 해결하기 위해 하나의 layer로는 해결할 수 없다고 하며 multilayer 개념을 설명하였다. 이는 여러 개의 층을 갖는 것으로, 선을 더 그어서 문제를 해결할 수 있도록 한다. =-> XOR 가능 하지만 그 당시에는 MLP를 학습시킬 수 있는 방법이 없었다. 이는 현재 backpropogation방법으로 해결할 수 있게 되었다. Backpropogation 어떤 입력 X가 들어왔을 때 Y와 output의 차이를..

이 강의를 참고하였다!!⭐️ www.boostcourse.org/ai214/lecture/43757/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Perceptron 인공 신경망의 한 종류이다. Neuron : 인간의 뇌에서 신호를 전달하는 역할을 수행한다. 이는 동작방법이 아주 단순하다. 입력 신호가 들어왔을 때, 활성화가 되어 특정 임계치를 넘어가면 다음 뉴런에게 전파가 된다. 이런 인공신경망의 예 중 하나가 Perceptron이다. 가중치들의합 + bias를 합하여 activation function(ex. sigmoid)를 통해 output을 만든다. 이 예는 linear classification의 예이다. 2개의 클래스가 있을 때 linear하게 분..

이 강의를 참고하며 작성하였다!! www.boostcourse.org/ai214/lecture/42292 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org What is MNIST ? MNIST : 손으로 쓰여진 0-9의 숫자 dataset 우체국에서 편지를 받으면 921-13과 같은 숫자가 적혀있다. 이러한 숫자를 자동으로 인식하기 위하여 만든 것이다. 28 x 28 로 이루어진 image이고, 1 channel로 된 gray image(흑백)이다. 이는 0에서 9까지의 digits로 이루어져있다. for X,Y in data_loader : # reshape input image into [batch_size by 784] # Label is not one-ho..

이번 역시 모두의 딥러닝 시즌2인 부스트코스 강의를 참고했다.💪 www.boostcourse.org/ai214/lecture/42291/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Reminder : Maximum Likelihood Estimation (MLE) 압정을 떨어뜨릴 때, class 1 : 납짝한 면이 바닥으로 떨어지는 경우 class 2: 그 외의 경우 라고 가정하자. 예측해야 하는 값이 두 가지이므로 베르누이 distribution (이항 분포)이다. (0과 1) n= 100 k= 27 100번을 던졌을 때 class1이 나온 횟수가 27번이라 하자. MSE? -> 우리가 관찰한 데이터를 가장 잘 설명하는 확률 분포 함수의 파라미터를 찾아내는..

이번 역시 부스트코스를 보며 정리를 하였다. www.boostcourse.org/ai214/lecture/42290 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org softmax logistic regression의 연장선상에 있는 것이다. Discrete Probability Distribution (ex) 주사위를 던졌을 때 1,2,3,4,5,6 중에 하나가 값으로 나온다. 가위바위보를 할 때 가위,바위,보 중에 하나가 결과로 나온다. 따라서 이를 그래프로 작성한다면 다음과 같다. 연속적이지 않은 그래프 모양을 가진다. P(X=6 ) =1/6 P(X=5) = 1/6 즉 softmax는 입력 받은 값을 출력으로 0~1 사이의 값으로 정규화를 하였을 때, 출력값들..

이번 강의도 역시 파이토치로 시작하는 딥러닝 기초 강의를 수강하였다. www.boostcourse.org/ai214/lecture/42289/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Reminder : Logistic Regression [문제 정의 Hypothesis] logistic regression은 binary classification이다. m개의 sample로 이루어지고 d의 차원을 가진 x data (mxd) 가 있고, 이것을 가지고 m개의 0과 1로 이루어진 정답을 도출해야한다. 0과 1 중 더 가까운 곳으로 예측이 된다. P(x=1 ) = 1 - P(x=0) |X| = (m,d) |W| = (d ,1 ) |X*W| = (m,d) x (d..

이번 강의 역시 부스트코스에서 제공하는 pytorch 관련 강좌를 들었다. 💪 www.boostcourse.org/ai214/lecture/42288/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Multivariable linear regression 복습 여러 개의 정보로부터 하나의 결론을 도출한다. gradient descent를 통해 모델을 학습시키면 cost가 점점 작아지고 실제값 y에 예측값이 가까워진다는 것을 알 수 있다. "Minibatch" Gradient Descent 이론 Problem 복잡한 머신러닝의 모델을 학습하려면 엄청난 양의 데이터가 필요하다. - 엄청난 양의 데이터는 한 번에 학습시킬 수 없다. --> 너무 느리고, 하드웨어적으로..

이 또한 아래 강의를 들었다!! www.boostcourse.org/ai214/lecture/42286/ 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Simple Linear Regression 복습 하나의 정보로부터 하나의 결론을 짓는 모델 ex. '# 시간을 공부한 경우 -> 시험성적은 x점정도 나올 것이다.' 라고 예측하는 경우 Multivariable Linear Regression 이론 복수의 정보가 존재할 때 하나의 추측값을 계산해낸다. ex.'쪽지 시험의 성적이 여러 개 인 경우 -> 기말고사 성적은 x점 정도 나올 것이다.' 라고 예측하는 경우 1. 데이터 정의 예를 들어 데이터가 다음과 같이 주어졌다고 하자. 이 데이터 셋은 파이썬 코드로 다음..

역시 이번에도 부스트코스에서 제공되는 '파이토치로 시작하는 딥러닝 기초' 강의를 따라했다. www.boostcourse.org/ai214/lecture/42285 파이토치로 시작하는 딥러닝 기초 부스트코스 무료 강의 www.boostcourse.org Hypothesis function 복습 Hypothesis : 인공신경망의 구조를 나타낸다. H(x) = Wx + b (W : weight, b : bias) W와 b는 torch.zeros로 0의 값으로 초기화하다! W = torch.zeros(1,require_grad=True) b = torch.zeros(1,requires_grad=True) hypothesis = x_train * W + b Simpler Hypothesis Function H(..