분류 전체보기 (64) 썸네일형 리스트형 [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 15회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 19. 쉽게 배우는 경사하강 학습법 - 07. (STEP 3) 경사하강법을 이용한 얕은 신경망 학습 - 2 import tensorflow as tf import numpy as np ## 하이퍼 파라미터 설정 EPOCHS = 1000 ## 네트워크 구조 정의 ### 얕은 신경망 #### 입력 계층 : 2, 은닉 계층 : 128 (Sigmoid activation), 출력 계층 : 10 (Softmax activation) class MyModel(tf.keras.Model): def __init__(self): super(MyModel, self).__init__() self.d1 = tf.keras.layers.Dense(128, inpu.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 14회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 17. 쉽게 배우는 경사하강 학습법 - 05. (STEP 2) 심화 경사 하강법 비볼록 함수 (Non-convex Function) 우리가 마주칠 대부분의 문제는 비볼록 함수이므로, 단순한 경사 하강법으로는 한계가 있다. 지역 최솟값 (Local Minimum) 경사 하강법을 사용할 경우, 초기값에 따라 Local minimum에 빠질 위험이 있다. 안장점 Saddle Point 안장점(Saddle Point)은 기울기가 0이 되지만 극값이 아닌 지점을 말한다. 경사 하강법은 안장점에서 벗어나지 못한다. 관성 Momentum 돌이 굴러 떨어지듯, 이동 벡터를 이용해 이전 기울기에 영향을 받도록 하는 방법 관성을 이용하면 Local minimu.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 13회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 15. 쉽게 배우는 경사하강 학습법 - 03. (STEP 2) 최적화 이론과 수학적 표현 최적화 이론 (Optimization Theory) : . 가능한 모든 해 중 최적의 해를 찾는 문제를 해결하는 이론 . 연속 변수와 불연속 변수에 따라 크게 둘로 나누어짐 (여기에선 연속 변수만 다룸) . 부등식 및 등식 제약 조건을 지키면서, 목적 함수가 최소가 되게 하는 x를 찾는 문제 . 최소화 문제 (minimization problem) 최대화 문제 (maximization problem) . f(x)의 형태에 따라 다양한 문제 해결 알고리즘이 있으나, 여기서는 다루지 않음 . 딥러닝에서는 대부분 제약 조건은 사용하지 않음. 전역 vs 지역 솔.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 12회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 12. 가장 단순한 신경망을 통한 작동원리 - 07. (STEP 3) 얕은 신경망 구현 import numpy as np import matplotlib.pyplot as plt ## 함수 구현 ### Sigmoid 함수 $sigmoid(x) = 1/(1+e^{-x})$ def sigmoid(x): return 1 / (1 + np.exp(-x)) ### Softmax 함수 $softmax(x)_i = e^{x_i}/\sum{e^{x_j}}$ def softmax(x): e_x = np.exp(x) return e_x / np.sum(e_x) ## 네트워크 구조 정의 # Define network architecture class Shallo.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 11회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 10. 가장 단순한 신경망을 통한 작동원리 - 05. (STEP 2) 이진 분류 문제 분류 (Classification) 입력의 범주를 추정하는 분류(Classification). 로지스틱 회귀 (Logistic Regression) 범주형 데이터를 대상으로 하는 회귀. 분류 기법으로도 볼 수 있다. 로지스틱 회귀는 선형 회귀와 비슷하나, 범주형 데이터를 분류하는 방향으로 선을 긋는다. Sigmoid Function . 값이 작아질 수록 0, 커질 수록 1에 수렴. . 모든 실수 입력 값에 대해 출력이 정의됨. . 출력이 0~1 사이로, '확률'을 표현할 수 있음 . 입력 값이 0에 가까울 수록 출력이 빠르게 변함 . 모든 점에서 미분 가능 .. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 10회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 08. 가장 단순한 신경망을 통한 작동원리 - 03. (STEP 2) 얕은 신경망의 수식적 이해 뉴런은 수학적으로 두 벡터의 내적으로 쉽게 표현할 수 있다. FC 계층은 여러 개의 뉴런을 한 곳에 모아둔 것으로, Matrix 곱셈 연산으로 표현된다. 입력 계층(Input Layer) . 입력 계층은 아무런 연산도 일어나지 않는다. . 신경망의 입력을 받아서 다음 계층으로 넘기는 역할 . 무엇을 입력으로 주어야 하는가? -> 특징 추출 문제 . 계층의 크기 = Node의 개수 = 입력 Scalar의 수 = 입력 Vector의 길이 은닉 계층(Hidden Layer) . 은닉 계층은 입력 계층과 연결된 전결합 계층이다. . 입출력 관점에서 볼 때.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 9회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 06. 가장 단순한 신경망을 통한 작동원리 - 01. (STEP 1) 얕은 신경망의 구조 : .신경세포 : 생물학적인 신경 세포를 단순화하여 모델링한 Neuron. 여러 신호를 받아, 하나의 신호를 만들어 전달하는 역할을 한다. 출력을 내기 전에 활성 함수(activation function)을 통해 비선형 특성을 가할 수 있다. .Neuron의 그래프 표현 : 보통 신경망을 표현할 때, Graph의 Node와 Edge를 이용해 표현한다. 여기서 Node는 단일 뉴련 연산을, Edge는 뉴련의 연결성을 의미한다. 인공신경망 : 뉴련이 모여 서로 연결된 형태를 인공신경망이라고 부른다. 모든 딥러닝 네트워크는 인공신경망을 기반으로 하고 있다. 전.. [패스트캠퍼스 수강 후기] 인공지능강의 100% 환급 챌린지 8회차 미션 인공지능강의 05. PART 4) 딥러닝의 3 STEP의 기초 04. Ch 01. 딥러닝이 무엇인가요 - 04. 딥러닝의 현재 딥러닝의 대중화 - Framework . Caffe2 . MatConvNet . TensorFlow . PyTorch 현재는 Tensorflow 와 PyTorch의 양강 구도가 이루어지고 있다. 집입 장벽이 낮고 속도가 빠른 PyTorch, 다양한 플랫폼으로 확장되고 있는 Tensorflow 딥러닝의 대중화 - Cloud Platform . aws . Google CloudPlatform . Microsoft Azure 딥러닝의 대중화 - Hardware . GTX 1080ti . Titan . TESLA 딥러닝의 대중화 - Cloud Platform IaaS(Infrastruc.. 이전 1 ··· 4 5 6 7 8 다음