모두의 딥러닝 - 자연어 처리, GAN, 오토인코더, 전이 학습 등으로 나만의 모델을 만든다 with 텐서플로2.0 & 케라스, 개정2판
조태호 지음 / 길벗 / 2020년 1월
평점 :
구판절판


영상의학과 연구 조교수가 집필한 서적이라 책에서 제공되는 코드가 잘 정리되어 있다. 여러 형태의 코드를 제공하고 있어 Python, Jupyter notebook, Google CoLab과 같은 환경에서 실행해 볼 수 있다. 책에서 수행해보는 예제 코드의 구성이 잘 되어있다. 딥러닝에 대해 사전지식이 없더라고 이 책에서 설명하고 있는 코드를 직접 실행해 볼 수 있다. 코드에 대한 내용을 친절히 설명하고는 있지만 아쉬운 부분은 이 책을 한 번 읽고 코드를 직접 실행해 본다고 해도 직접 응용하여 코딩으로 연결하기에는 단계별 설명이 부족하다. 그냥 딥러닝에는 이런 것들도 있고 상황에 따라 어떻게 코딩해야하는지에 대한 개념은 얻을 수 있지만 다른 기술서적과 달리 딥러닝에 대한 코딩 실력을 향상시키기에는 어려운 점이 있다.


다음은 딥러닝과 관해 챕터마다 나온 용어를 정리해 보았다. 이 책을 통해 아래의 용어에 대한 개념만 얻어가도 좋겠다.


머신러닝(Machine Learning)

딥러닝(Deep Learning)

아나콘다(Anaconda)

선형 회귀(Linear Regression)

독립변수(Independent variable)

종속변수(Dependent variable)

단순 선형 회귀(Simple Linear Regression)

다중 선형 회귀(Multiple Linear Regression)

최소 제곱법(Method of least squares)

평균 제곱 오차(Mean Square Erroe, MSE)

경사 하강법(Gradient Descent)

학습률(Learning Rate)

로지스틱 회귀(Logistic Regression)

시그모이드(Sigmoid)

소프트맥스(Softmax)

퍼셉트론(Perceptron)

신경망(Neural Network)

가중치(Weight)

편향(Bias)

활성화 함수(Activation Function)

다층 퍼셉트론(Multi-layer Perceptron)

은닉층(Hidden Layer)

오차 역전파(Back Propagation)

기울기 소실(Vanishing Gradient)

렐루(ReLU)

소프트플러스(Softplus)

확률적 경사 하강법(Stochastic Gradient Descent)

모멘텀(Momentum)

과적합(Overfitting)

합성곱 신경망(Convolutional Neural Network)

맥스 풀링(Max Pooling)

평균 풀링(Average Pooling)

단어 임베딩(Word Embedding)

순환 신경망(Recurrent Neural Network)

생성적 적대 신경망(Generative Adversarial Networks)

생성자(Generator)

판별자(Discriminator)

오토인코더(Auto-Encoder)

전이 학습(Transfer Learning)

지도 학습(Supervised Learning)

비지도 학습(Unsupervised Learning)


댓글(0) 먼댓글(0) 좋아요(9)
좋아요
북마크하기찜하기 thankstoThanksTo