Google ML Bootcamp/Neural Networks and DL
-
Deep Neural NetworkGoogle ML Bootcamp/Neural Networks and DL 2023. 9. 10. 14:26
1. Deep L-Layer Neural Network - 숨겨진 층의 수를 다양한 값을 시도할 수 있는 하이퍼파라미터로 표시하고 유효성 검증 데이터 또는 개발 세트에서 평가하는 것이 합리적이다. - 4 Layer N(3 hidden Layer) 2. Forward Propagation in a Deep Network - 명시적인 for loop를 사용하는 것이 좋다. 3. Getting your Matrix Dimensions Right - Vectorization 한 상태와 아닌 일반적인 상태 각각의 차원을 위와 같이 표현할 수 있다. 4. Why Deep Representations? - 복잡한 부분을 탐지하기 위해 단순한 가장자리들을 탐지하는 것이 중요하다. 깊이를 늘리면서 점점 복잡한 것들까지 ..
-
Shallow Neural NetworkGoogle ML Bootcamp/Neural Networks and DL 2023. 9. 6. 21:22
2. Nerual Network Representation Input layer - Hidden layer - Output layer 각각 a[0], a[1], a[2]로 표현되는데 a노드 속에 w와 b가 포함되어 있다. 3. Computing a Neural Network's Output z = w.T*x + b yhat = a = sigmoid(z) 이 식을 기본으로 각 노드의 값을 지정할 수 있다. 4. Vectorizing Across Multiple Examples A[1]의 수평 조사 : 훈련 예제 전체를 인덱싱 한다. 훈련 셀 스캔 -> 수평 스캔 시 첫 번째 부터 숨겨진 단위부터 움직임. 숨겨진 단위의 활성화까지 조사. A[1]의 수직 조사 : 다른 신경망의 노드 -> 수직 스캔 시 숨겨진..
-
Logistic Regression as Neural NetworkGoogle ML Bootcamp/Neural Networks and DL 2023. 9. 3. 16:53
1. Binary Classification 64*64 이미지에서 cat이 맞다면 1, 아니라면 0을 y의 값으로 가지는 이진 분류법 RGB 총 3개의 이미지로 나타내므로 64*64*3의 값을 가져서 nx = 12288의 값을 가지게 됨. - x는 x 차원을 가진 특징 벡터. y는 0 or 1의 값을 가지는 레이블, 훈련 셋은 m training example임. - 각각 X와 Y의 shape을 위와 같이 정의할 수 있음. 2. Logitstic Regression - y(hat) 은 y의 추정치. x가 input 사진이라면 y(hat)이 1과 같을 확률이 되기를 원함. - 로지스틱 회귀에서는 y(hat) = w_T * x + b가 되기를 기대하기 어렵기 때문에 sigmoid function을 사용하여 ..