일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 키워드시각화
- 리뷰분석
- 아셈듀오 선정
- 제네바경영대학교
- 데이터 시각화 포트폴리오
- 교환학생
- 데이터 분석 포트폴리오
- 교환학생 장학금
- 무신사 데이터분석
- 미래에셋 공모전
- 패스트캠퍼스 #자료구조 #코딩테스트 #배열
- 제네바주거
- 데이터 포트폴리오
- 텍스트분석 시각화
- 테이블계산
- 아셈듀오 후기
- tableau
- 파이썬
- 제네바기숙사
- 아셈듀오
- 데이터공모전
- 태블로
- HEG
- 공모전후기
- MairaDB
- 태블로 포트폴리오
- CRM
- 제네바
- 두잇알고리즘코딩테스트
- 교환학생주거
- Today
- Total
목록Data Science/한번에 끝내는 딥러닝&인공지능 (8)
민듀키티
1. List 와 비교 (1) list와 numpy 만들기 L = [1, 2, 3] A = np.array([1, 2, 3]) print(L) print(A) >>> [1, 2, 3] [1 2 3] (2) 더하기 # 리스트 L = L + [5] print(L) >>> [1, 2, 3, 5] # 넘파이 A = A + np.array([5]) print(A) >>> [6 7 8] (3) 곱하기 # list의 모든 원소를 2배로 만들기 L = [1, 2, 3] L2 = [] for item in L: L2.append(item*2) print(L2) >>> [2, 4, 6] # ndarray의 모든 원소 2배로 만들기 A = np.array(L) A2 = A*2 print(A2) >>> [1, 2, 3, 1,..
지금까지 배운 내용을 다 정리하는 부분 1. Modules of Classifier 사람의 손글씨 모델을 만든다라고 했을 때, 사람의 손글씨를 그대로 사용한다면 모델의 성능이 떨어진다. 그래서 중요한 정보를 담은 Feature vector가 필요하게 된다. 그래서 만들어진 Feature vector를 classifier 모델에 넣는다. Feture Extraction을 하고, 이것을 flatten 시켜줘서 classifier 모델에 넣어주게 된다. classifier 는 앞에서 배운 것과 같이 Dense layer로 구성이 된다. 2. LeNet 향후 보고서를 작성할 때, 아래와 같이 표를 명시해서 다른 사람들에게 모델을 설명할 수 있어야 한다.
1. Max / Average Pooling Pooling을 사용하는 이유 ? Feature map 들의 특징을 가지면서, 차원을 감소시키기 위해 풀링을 사용함 사진에서도 알 수 있드시, Max Pooling : 가져온 윈도우에서 가장 큰 값을 선택하는 것 Average Pooling : 가져온 윈도우의 값들을 평균내는 것 (1) Max Pooling Layers 윈도우를 뽑고, 최대값을 뽑는 방식으로 Max Pooling 과정이 진행된다. (2) Average Pooling Layers 윈도우를 뽑고, 윈도우 평균을 계산하는 방식으로 Average Pooling 과정이 진행된다. 2. Padding padding은 여백의 정보를 채우는 것을 의미한다. 이미지를 분석하는 경우, 모서리의 정보가 중요한 이..
1. Image Tensors Conv Layers는 Image 처리시 많이 사용되는 것으로, 위와 같이 사진을 픽셀로 나누어 image tensor를 만들게 된다. 컴퓨터 상에서 이미지는 R, G, B로 표현이 된다. 그래서 위의 그림과 같이 3개의 RGB 채널이 모여 3차원의 텐서가 만들어지게 된다. 그리고 이를 이용해 컬러 이미지 N개를 만들면, 4차원의 텐서가 만들어지게 된다. 2. Correlation correlation은 두 신호 사이에 유사성을 측정해주는 도구이다. 사진과 필터의 크기가 같은 사이즈라고 가정할 때의 그림으로, 딥러닝에서 correlation 계산공식은 그림과 같다. x,f는 앞에서 배운 weight의 역할과 같다. 3*3 크기의 사진과 필터를 flatten을 시켜주면 위와 ..
0. Loss Function의 종류 Mean Squared Error 값이 실수 형태 Binary Cross Entropy Error 값이 0,1 과 같은 이진분류 형태 Categorical Cross Entropy Error 값이 여러개 클래스와 같은 다중분류 형태 1. Mean Squared Error v[0] layer에서 activation 함수를 사용하지 않고, 다음 layer로 보내주게 됨 그래서 실제값(실수)와 예측값(실수)의 차를 구하게 되고, 이것을 평균을 내어 Mean Squared Error을 구하게 된다. 이렇게 Mean Squared Error(MSE)를 정의할 수 있고, 아래로 볼록한 2차 함수의 형태를 가진다. 2. Binary Cross Entropy Binary Cross..
1. Odds (오즈) 오즈는 확률을 표현하는 또 다른 방법으로 p / (1 - p) 로 정의할 수 있다. 예를 들어 망치로 꼬부러진 동전이 있다고 할 때, 앞면이 나올 확률이 0.3, 뒷면이 나올 확률이 0.7 이라고 가정하면, 오즈 > 0 : 앞면이 나올 확률 > 뒷면이 나올 확률 오즈 앞면이 나올 확률 이렇듯, 그냥 확률을 표현하는 또 다른 방법이다. 2. Logit 로짓은 앞선 오즈에 log를 취한 식으로 대칭적인 구조를 가진다. log ( p / (1 - p) ) Logit의 대표적인 특징 2가지 1) 확률의 범위는 [0,1][0,1] 이나, 로짓의 범위는 [−∞,∞] 2) 대칭적인 구조를 가짐 3. Logit and Sigmoid 로짓과 시그모이드의 관계는 다음..
1. Neuron Vectors and Layers v1, v2 ... vn을 neuron 이라고 부르고, 이 neuron 들의 집합을 "Layer"라고 한다. 이때, 뉴런마다 input 들이 다 들어갈 경우 Dense Layer 라고 부른다. Connection들이 조밀조밀하게 다 연결되어 있음 이렇듯 Layer 들이 여러 개 쌓여 딥러닝이 구현됨 또한 Layer 마다 뉴런의 갯수는 달라질 수 있다. 2. Params of Dense Layer 위의 사진처럼 input이 l1개 있기 때문에, weight도 l1 개가 생성되며, 레이어에는 뉴런이 l1개 있기 때문에, bias도 l1개가 만들어지게 된다. 3. FP of Dense Layer Second Layer 도 위와 같은 방식으로 표현됨 4. Mi..
1. Parametric Functions x 는 입력 값이며, f 함수 속에 들어가게 됨 ; 뒤에 있는 θ는 파라미터 -> 이러한 형태로 구성되어 있는 함수를 Parametric Function 이라고 함 모델에는 수많은 파라미터가 존재한다 ! 2. Hierarchy of Tensor Computations Zeroth-order Tensor Operations 0차원의 텐서 scalar First-order Tensor Operations 1차원의 텐서 vector Second-order Tensor Operations 2차원의 텐서 metrics Third-order Tensor Operations 3차원의 텐서 ex) mnist 데이터 3. Dataset 학생의 점수를 예측한다고 할 때, x1, ..