728x90

전체 글 41

혼공 머신러닝 딥러닝 CH)08-1

합성곱 신경망의 구성 요소 합성곱 신경망을 구성하는 기본 개념과 동작 원리를 배우고 간단한 합성곱,풀링 계산 방법을 익힌다. 합성곱 합성곱은 마치 입력 데이터에 마법의 도장을 찍어서 유용한 특성만 드러나게 하는 것으로 비유할 수 있다. 7장에서 사용한 밀집층에는 뉴런마다 입력 개수만큼의 가중치가 있다. 즉 모든 입력에 가중치를 곱한다. 이 과정을 그림으로 표현하면 다음과 같다 인공 신경망은 처음에 가중치 w1~w10과 절편 b를 랜덤하게 초기화한 다음 에포크를 반복하면서 경사 하강법 알고리즘을 사용하여 손실이 낮아지도록 최적의 가중치와 절편을 찾아간다. 이것이 바로 모델 훈련이다. 결국 뉴런의 개수만큼 출력하게 된다. 합성곱은 밀집층의 계산과 조금 다르다. 입력 데이터 전체에 가중치를 적용하는 것이 아니..

혼공 머신러닝 딥러닝 CH)07-3

신경망 모델 훈련 인공 신경망 모델을 훈련하는 모범 사례와 필요한 도구들을 살펴보겠다. 이런 도구들을 다뤄 보면서 텐서플로와 케라스 API에 더 익숙해 질 것이다. BEFRORE: 7장에서 인공 신경망에 대해 배우고 텐서플로의 케라스 API를 사용해 직접 만들어 보았다. 1개 이상의 층을 추가하여 심층 신경망을 구성하고 다양한 고급 옵티마이저를 적용하는 방법도 알아보았다. 머신러닝 알고리즘은 좋은 성능을 내기 위해 매개변수를 조정하고 훈련하는 과정을 반복한다. 이런 알고리즘들은 모델의 구조가 어느 정도 고정되어 있다고 느낄 수 있다. 반면 딥러닝에서는 모델의 구조를 직접 만든다는 느낌이 훨씬 강하다. 층을 추가하고 층에 있는 뉴런의 개수와 활성화 함수를 결정하는 일들이 그렇다. 이번 챕터에서는 케라스 A..

카테고리 없음 2023.06.13

혼공 머신러닝 딥러닝 CH)07-2

심층 신경망 인공 신경망에 층을 여러 개 추가하여 패션 MNIST 데이터 셋을 분류하면서 케라스로 심층 신경망을 만드는 방법을 자세히 배운다. 1절에서 만들었던 인공 신경망의 성능을 더 높여 보자 2개의 층 다시 케라스 API를 사용해서 패션 MNIST 데이터 셋을 불러오겠다. from tensorflow import keras (train_input,train_target),(test_input,test_target) = keras.datasets.fashion_mnist.load_data() >>Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/train-labels-idx1-ubyte.gz 29515/2..

혼공 머신러닝 딥러닝 CH)07-1

인공 신경망 딥러닝과 인공 신경망 알고리즘을 이해하고 텐서플로를 사용해 간단한 인공 신경망 모델을 만들어 보자. 패션 MINIST 7장과 8장에서는 패션 MNIST 데이터 셋을 사용한다. 이 데이터셋은 10종류의 패션 아이템으로 구성되어 있다. ** 머신러닝과 딥러닝을 처음 배울 때 많이 사용하는 데이터셋이 있다. 머신러닝에서는 붓꽃 데이터셋이 유명하다. 딥러닝에서는 MNIST 데이터셋이 유명하다. 이 데이터는 손으로 쓴 0~9까지의 숫자로 이루어져 있다. MNIST와 크기,개수가 동일하지만 숫자 대신 패션 아이템으로 이루어진 데이터가 바로 패션 MNIST이다.** 딥러닝 라이브러리에서 이 데이터를 가져올 수 있는 도구를 제공한다. 여기서는 텐서플로를 사용해 이 데이터를 불러오겠다. 텐서플로의 케라스 패..

혼공 머신러닝 딥러닝 CH)06-3

주성분 분석 차원 축소에 대해 이해하고 대표적인 차원 축소 알고리즘 중 하나인 PCA(주성분 분석) 모델을 만들어 보자. 너무 많은 사진업로드로 인해 저장 공간이 부족해졌다. 나중에 군집이나 분류에 영향을 끼치지 않으면서 업로드된 사진의 용량을 줄일 수 있을까? 차원과 차원 축소 데이터가 가진 속성은 특성이다라고 배웠고. 그래서 과일 사진의 경우 10,000개의 픽셀이 있기 때문에 10,000개의 특성이 있는 셈이다. 머신러닝에서는 이런 특성을 차원이라고도 부른다. 10,000개의 특성은 결국 10,000개의 차원을 의미하고 이 차원을 줄일 수 있다면 저장 공간을 크게 절약할 수 있다. ** 2차원 배열과 1차원 배열에서 차원이란 용어는 좀 다르게 쓰인다. 2차원 배열일 때는 행과 열이 차원이 되고, 1..

혼공 머신러닝 딥러닝 CH)06-2

k-평균 k-평균 알고리즘의 작동 방식을 이해하고 과일 사진을 자동으로 모으는 비지도 학습 모델을 만들어 보자. 6-1절에서는 사과,파인애플,바나나에 있는 각 픽셀의 평균값을 구해서 가장 가까운 사진을 골랐다. 이 경우에는 사과,파인애플,바나나 사진임을 미리 알고 있었기 때문에 각 과일의 평균을 구할 수 있었다 하지만 진짜 비지도 학습에서는 사진에 어떤 과일이 들어 있는지 알지 못한다... 이런 경우에는 어떻게 평균값을 구할 수 있을까?? 바로 *k-평균 군집 알고리즘이 평균값을 자동으로 찾아준다. 이 평균값이 클러스터의 중심에 위치하기 때문에 클러스터 중심* 또는 *센트로이드*라고 부른다. k-평균 알고리즘 소개 k-평균 알고리즘의 작동 방식은 다음과 같다 무작위로 k개의 클러스터 중심을 정한다. 각 ..

카테고리 없음 2023.06.06
728x90