"독서가 정신에 미치는 효과는 운동이 신체에 미치는 효과와 같다."-리처드 스틸


꿈을 이루고자 한다면 그 꿈을 응원하는 사람을 만나야 한다.


인생을 살면서 시간이 흐를수록 잃는 것이 있고, 반대로 새로이 얻는 것들이 있다. 


"행복한 가정은 모두 모습이 비슷하고, 불행한 가정은 모두 제각각의 불행을 안고 있다."-<안나 카레니나>, 톨스토이


삶이 하나의 놀이라면 - 체리카터 스코트


삶이 하나의 놀이라면 이것이 놀이의 규칙이다.

너에게 육체가 주어질 것이다.

좋든 싫든 너는 그 육체를

이번 생 내내 가지고 다닐 것이다.

...

그리고 태어나는 순간

너는 이 모든 규칙을 잊을 것이다.


'어떤 말을 만 번 이상 반복하면 말한 대로 된다'는 인디언 속담이 있다.


"우리의 뇌는 우리가 하는 상상이 실제인지 상상인지 구분하지 못한다."-<생각의 비밀>,김승호


"부모는 수단과 방법을 가리지 않고 사건을 조사, 취조하는 사람도, 형벌을 내리는 사람이 아니라 아이의 편에서 교육을 위해 도움이 되는 방식을 고르고 해야 할 의무가 있는 사람입니다."-<왜 거짓말하면 안 되나요?>조지혜


"월 매출 1억원의 식당을 만들고 싶은 사람이라면 지금 당장 뭘 해야 할까? 서점으로 달려가 트렌드, 마케팅, 요리, 경제, 경영, 철학책을 사서 읽어야 한다. 그다음에 뭘 해야 하는 지는 책이 알려준다. 그때부턴 책이 시키는 대로 하면 된다. 아니, 가만히 있으려고 해도 저절로 움직이게 된다. 책의 마술 같은 힘이다." -<책 읽고 매출의 신이 되다> 고명환


"감사하는 마음은 태도에 영향을 미치고 태도는 생각에, 생각은 말에, 말은 행동에, 그리고 행동은 습관으로 이어져 인격에 영향을 미치고 결국은 사람의 인생을 바꾼다."<100감사로 행복해진 지미이야기>,유지미


"사실이란 것은 없다. 오직 해석만 있을 뿐이다."-니체


출근길을 바꾸고, 안 먹던 것을 먹어보고, 안 하던 일을 하다 보면 무뎌졌던 감수성이 예민해지고 평소 놓치고 있던 것들을 보게 된다. 


"다른 사람들은 누구나 똑같이 생각은 다 하는데 실천은 못하잖아요. 저는 그냥 해요. 일단 인생이란 것은 지금이 더 중요하다고 생각하기 때문에 저지를 수 있는 것 같아요." 이 말에 그녀(김수영)의 신간 <드림 레서피>의 핵심이 담겨 있다.


개권유익이란 말이 있다. 책은 펼치기만 해도 유익하다는 말이다.


"당신이 지금 달린다면 패배할 가능성이 있다. 하지만 당신이 달리지 않는다면 당신은 이미 진 것이다."-버락 오바마


서로 불편한 채로 오래 있으면 좋을 게 없다. 그렇게 되지 않도록 노력해야겠지만 사람 사는 게 말처럼 쉽지 않다. 대신 불편한 상황은 빨리 바꿀 수 있어야 한다. 방법은 간단하다. 어느 한쪽이 한발만 물러서면 된다. 


"도전의 결과는 둘 중 하나입니다. 성공하거나 성장하는 것"-<마음스파> 김수영


"선택과 집중이라는 말이 있다. 어떤 일을 하든지 자신이 할 수 있는 일을 선택한 후에는 집중해서 전력투구하라는 것이다. 흥미도 없고, 잘하지도 못할 일에 어설프게 매달려 낭비할 만큼 우리가 가진 시간이 무궁무진한 건 아니지 않는가."-이세돌 


"블랙홀에는 다른 세계로 빠져나올 수 있는 출구가 있다. 만약 당신이 블랙홀에 갇혀 있다고 느낀다면 포기할 필요가 없다. 분명 출구가 있다. - 스티븐 호킹


사람은 평면이 아니라 입체다.





댓글(0) 먼댓글(0) 좋아요(1)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 









영웅은 자기가 할 수 있는 일을 한 사람이다. 다른 사람들은 그걸 하지 않는다. - 로맹 롤랑


몸이 바뀌면 행동이 달라지고, 달라진 행동이 생각에 영향을 끼친다. 그래서 인생의 나침반까지 돌려놓고 만다. 


"삶의 차이는 어떤 일이 일어났는가가 아니라 일어난 상황에 어떻게 대처하는가에 달려 있습니다. 똑같은 상황이라도 어떻게 대처하느냐에 따라 결과는 상반되게 나타납니다. 그리고 그 선택은 늘 자신에게 달려있습니다."- <서른과 마흔 사이, 어떻게 일할 것인가> 김준희


"갈 길을 아는 것과, 그 길을 걷는 것은 다르다."-<매트릭스> 모피어스 대사


처음 물속에 들어갈 때 느끼는 차가움만 극복한다면, 수영은 재밌는 운동이다. 초보자는 물에 뜨는 킥판을 들고 25미터를 왔다 갔다 하면서 발차기부터 배운다. 점차 발차기에 익숙해지면, 어깨를 돌려 양팔을 앞으로 번갈아 뻗으면서 물잡기를 한다. 그리고 동시에 머리를 오른쪽으로 돌리면서 '음파음파'호흡법을 배운다. 물에 몸을 맡기는 게 겁이 나서 처음에는 힘이 많이 드들어간다. 앞으로 나아간다기보다, 하체가 가라앉은 채 물에 빠진 사람처럼 푸드덕댄다. 일주일에 세 번, 한 달 정도만 강습을 받으면 제법 흉내는 낼 수 있다. 그러나 조금만 물이 깊어져도 공포감이 확 몰려온다. 적어도 6개월 이상 계속 강습을 받아야 자유형과 배영, 평영, 접영까지 대충 섭렵한다. 그쯤 되면 몸에 힘이 빠지면서 물에 대한 두려움을 떨칠 수 있다. 그 시간을 견디지 못하고 중간에 그만두면, 내 경험으론 말짱 도루묵이다. 미처 재미를 느낄 만한 단계에 오르지 못한 것이다. 그래서 수영을 못 한다거나, 본인과 잘 안 맞는다고 고개를 젓곤 한다.


새벽 여섯 시부터 일곱 시까지 한 시간 동안 물속을 허우적대다가 회사에 출근하면 힘이 쫙 빠져나갔다. 시도 때도 없이 잠이 쏟아져 죽을 지경이었다. 그런데 두 달, 세 달쯤 시간이 흐르자 몸이 먼저 적응하는 거였다. 그 시간이면 눈이 번쩍 뜨였다. 이른 아침부터 움직이기 시작한 날이 오히려 기분이며, 몸 상태가 좋았다. 


수영을 배우면서 깨달은 바가 하나 있다. 내가 해낸 운동량을 내 몸이 정확히 기억한다는 사실이다. ... 쉬지 않고 50미터를 수영해 내면? 처음엔 힘들겠지만 몸은 곧 50미터에 맞는 폐활량을 기억한다. 그리고 거기에 맞는 체력이 생긴다. 즉 내 몸이 잘 기억하고 익숙해지도록 조금씩 운동량을 늘려 나가면서 꾸준히 강도를 유지하는 것. 그것이야말로 내가 깨달은 모든 운동의 기본이었다.


걱정했던 게 무색할 만큼 5킬로미터는 뛸 만했다. 원래 해 보지도 않고 머릿속으로만 걱정할 때가 훨씬 더 두려운 법이다. 


달리기를 하는 사람들은 다 아는 이상한 '두 배의 법칙'이라고 했다. 나는 한 바퀴, 두 바퀴 살살 늘려갔지만, 일정한 궤도에 오르고 나면 거리를 두 배로 확 늘릴 수 있다는 거였다. 


하버드 의과대학 교수가 연구한 <두려움, 행복을 방해하는 뇌의 나쁜 습과>이라는 책에선, 왜 인간의 뇌가 그런 희망을 품는 것이 중요한지 강조한다. "로저 배니스터는 1마일을 4분 안에 주파한 최초의 인물이었다. ... 이 위업들이 이루어지기 전에, 수 많은 사람이 그것을 시도했지만 그 사람들은 다 실패했다. 그런데 한 번 성공의 일어나자, 많은 사람들이 그것을 똑같이 해냈다. 왜일까? 뇌는 어떤 것이 가능하다고 생각하면, 그곳으로 가는 대략의 지도를 그린다. 배니스터, ... 상식을 거슬러 희망을 품어야 했다. 그들의 뇌에 목표에 이르는 지도를 그리라고 요구해야 했다. 그들의 뒤를 따른 사람들은 앞서 달성된 위업을 지도로 이용했다."


뭔가 잘 못해서 겁이 나고 두려운 사람은 익숙해질 때까지 연습하는 것만이 벗어나는 것이다.


두려움과 공포 못지않게 자만심도 큰 적.. 바다에서 하는 수영은 한시도 마음을 놓아서는 안 된다. 자전거를 타다가 긴장이 풀어져 주의력이 떨어지면, 아무리 베테랑이라 해도 넘어져서 부상을 당하기 쉽다.


서울대 심리학과 최인철 교수가 쓴 <프레임>에는 '조명효과'라는 심리 현상이 나온다. 우리는 연극 무대의 주인공이 아닌데도 마치 스타들처럼 머리 위에 조명을 받고 있다고 착각한다. 다른 사람들 시선에 필요 이상으로 신경을 쓴다는 말이다. "우리는 다른 사람들이 나를 주시하고 있다고 생각하지만 정작 우리를 보고 있는 것은 남이 아닌 바로 자기 자신이다. 마음속에 CCTV를 설치해 놓고 자신을 감시하고 있으면서도, 다른 사람들이 자신을 주목하고 있다고 착각한다. 이제 그 CCTV 스위치를 꺼 버려야 한다. 세상의 중심에서 자신을 조용히 내려놓는다면, 사소한 것에 목숨을 거는 어리석은 일은 지금보다 훨씬 줄어들 것이다." 


"우리는 실패 앞에서 부끄러워해서는 안 된다. 정작 부끄러워해야 할 일이 있다면, 그런 실패 때문에 더 나은 사람으로 성장하지 못하는 것이다."-알랭 드 보통


"1만 시간은 대략 하루 세 시간, 일주일에 스무 시간씩 10년간 연습한 것과 같다."<아웃라이어>말콤 글래드웰


물속에서 '음'하고 충분히 내쉰 다음 고개를 돌려 '파!'하고 짧게 들이마시는 거예요. 호흡법만 터득하고 나면 열 바퀴를 돌아도 끄덕없답니다. 익숙해질 때까지 세수대야에 물 떠놓고 연습하세요. 


수영장에서 나와 바깥 공기를 마시는 순간이 가장 상쾌하다. 하지만 머리가 젖어 있을 때는 감기게 걸리기 딱 좋은 순간이기도 하다. 나는 항상 모자를 착용한다.




댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 








인공지능의 큰 범주 안에 머신러닝이 속하고, 머신러닝의 일부분이 딥러닝인 것이지요. 만일 인공지능이 먹을 수 있는 모든 음식이라고 한다면, 머신러닝은 그 중에 영양가 많은 고기 음식이라 할 수 있고, 딥러닝은 그중에서도 최고급 스테이크 요리쯤 된다고 할 수 있습니다.


머신러닝은 기존 데이터를 이용해 아직 일어나지 않은 미지의 일을 예측하기 위해 만들어진 기법입니다.


자신이 그동안 집도한 수술 환자의 수술 전 상태와 수술 후의 생존율을 정리해 놓은 데이터를 머신러닝 알고리즘에 넣는 것입니다. 기존 환자의 데이터는 머신러닝에 입력되는 순간, 그 패턴과 규칙이 분석됩니다. 그리고 분석 결과를 새로운 환자의 데이터와 비교하여 생존 가능성이 몇 퍼센트인지 알려줍니다. 이것이 바로 머신러닝이 하는 일입니다. 여기서 데이터가 입력되고 패턴이 분석되는 과정을 학습(training)이라고 부릅니다.


랜덤 포레스트, 서포트 벡터 머신 등 많은 방법들이 세상에 소개되었습니다. 딥러닝은 이러한 수많은 머신러닝 방법 가운데 가장 효과적인 방법입니다.


파이썬은 숫자를 1부터 세지 않고 0부터 셉니다. 범위는 콜론(:)앞의 숫자는 범위의 맨 처음을 뜻하고, 콜론 뒤의 숫자는 이 숫자 '바로 앞'이 범위의 마지막이라는 뜻입니다.


딥러닝 프로젝트를 '여행'으로 비유해 본다면 텐서플로는 목적지까지 빠르게 이동시켜주는 '비행기'에 해당하고, 케라스는 비행기의 이륙 및 정확한 지점까지의 도착을 책임지는 '파일럿'에 비유할 수 있습니다.


딥러닝은 여러 층이 쌓여 결과를 만들어 냅니다. Sequential 함수는 딥러닝의 구조를 한 층 한 층 쉽게 쌓아 올릴 수 있게 해 줍니다. 


딥러닝 구조와 층별 옵션을 정하고 나면 compile() 함수를 이용해 이를 실행시킵니다.


딥러닝의 가장 말단에서 이루어지는 가장 기본적인 두 가지 계산 원리를 알아야 합니다. 바로 선형 회귀와 로지스틱 회귀입니다.


가장 훌륭한 예측선 긋기란 통계학 용어인 선형 회귀(linear regression)를 쉽게 풀어서 쓴 것입니다. 


딥러닝을 포함한 머신러닝의 예측은 결국 이러한 기본 접근 방식과 크게 다르지 않습니다. 기존 데이터(정보)를 가지고 어떤 선이 그려질지를 예측한 뒤, 아직 답이 나오지 않은 그 무언가를 그 선에 대입해 보는 것이지요.


def는 함수를 만들 때 사용하는 예약어입니다. 


모든 딥러닝 프로젝트는 이처럼 여러 개의 입력 변수를 다룹니다. 따라서 기울기와 y절편 b를 찾아내는 다른 방법이 필요합니다. 가장 많이 사용하는 방법은 '일단 그리고 조금씩 수정해 나가기'방식입니다. 가설을 하나 세운 뒤 이 값이 주어진 요건을 충족하는지 판단하여 조금씩 변화를 주고, 이 변화가 긍정적이면 오차가 최소가 될 때까지 이 과정을 계속 반복하는 방법입니다. 이는 딥러닝을 가능하게 해 주는 가장 중요한 원리 중 하나입니다. 그런데 선을 긋고 나서 수정하는 과정에서 빠지면 안되는 것이 있습니다. 나중에 그린 선이 먼저 그린 선보다 더 좋은지 나쁜지를 판단하는 방법입니다. 즉, 각 선의 오차를 계산할 수 있어야 하고, 오차가 작은 쪽으로 바꾸는 알고리즘이 필요한 것이지요. 


때로 평군 제곱 오차가 너무 커서 쓰기가 불편할 때가 있습니다. 각 오차를 제곱한 값을 사용하므로 대용량 데이터를 이용할 때는 계산 속도가 느려질 수 있습니다. 이럴 때는 여기에 다시 제곱근을 씌워 줍니다. 이를 평균 제곱근 오차(Root Mean Squared Error)라고 합니다. 


오차를 비교하여 가장 작은 방향으로 이동시키는 ... 미분 기울기를 이용하는 경사 하강법


우리는 학습률(learning rate)이라는 개념을 알 수 있습니다. 기울기의 부호를 바꿔 이동시킬 때 적절한 거리를 찾지 못해 너무 멀리 이동시키면 a값이 한 점으로 모이지 않고 치솟아버립니다. 따라서 어느 만큼 이동시킬지를 신중히 결정해야 하는데, 이때 이동 거리를 정해 주는 것이 바로 학습률입니다. 딥러닝에서 학습률의 값을 적절히 바꾸면서 최적의 학습률을 찾는 것은 중요한 최적화 과정 중 하나입니다.


참고로 케라스는 학습률을 자동으로 조절해 줍니다. 


텐서플로는 구글이 오픈 소스로 리이선스로 공개한 머신러닝 및 딥러닝 전문 라이브러리입니다. 


케라스는 ... 많은 개념을 자동으로 실행하게끔 설계되어 있습니다. 이러한 케라스의 편리성 덕분에 케라스만으로 딥러닝의 동작 원리를 배우기가 어렵습니다.


에포크(Epoch)는 입력 값에 대해 몇 번이나 반복하여 실험했는지를 나타냅니다.


더 정확한 예측을 하려면 추가 정보를 입력해야 하며, 정보를 추가해 새로운 예측값을 구하려면 변수의 개수를 늘려 '다중 선형 회귀'를 만들어 주어야 합니다. 


할 말이 많아도 예 혹은 아니오로만 대답해야 할 때가 있습니다. 그런데 실은 이와 같은 상황이 딥러닝에서도 끊임없이 일어납니다. 전달받은 정보를 놓고 참과 거짓 중에 하나를 판단해 다음 단계로 넘기는 장치들이 딥러닝 내부에서 쉬지 않고 작동하는 것이지요. 딥러닝을 수행한다는 것은 겉으로 드러나지 않는 '미니 판단 장치'들을 이용해서 복잡한 연산을 해낸 끝에 최적의 예측 값을 내놓는 작업이라고 할 수 있습니다. 이렇게 참과 거짓 중에 하나를 내놓는 과정은 로지스틱 회귀(logistic regression)의 원리를 거쳐 이루어집니다. 참인지 거짓인지를 구분하는 로지스틱 회귀의 원리를 이용해 '참, 거짓 미니 판단 장치'를 만들어 주어진 입력 값의 특징을 추출합니다. 이를 저장해서 '모델'을 만듭니다.


텐서플로에서 데이터를 담는 플레이스 홀더(placeholder)를 정해 줍니다. 플레이스 홀더는 입력 값을 저장하는 일종의 그릇입니다. 


입력 값을 통해 출력 값을 구하는 함수 y=a1x1+a2x2+b, x1 x2가 입력되고 각각 가중치 a1 a2를 만납니다. 여기에 b값을 더한 후 시그모이드 함수를 거쳐 1 또는 0의 출력 값 y를 출력합니다. ... 1957년 코넬 항공 연구소의 프랑크 로젠블라트라는 사람은 이 개념을 고안해 발표하고 여기에 '퍼셉트론(perceptron)'이라는 이름을 붙였습니다. 이 퍼셉트론은 그 후 여러 학자들의 노력을 통해 인공 신경망, 오차 역전파 등의 발전을 거쳐 지금의 딥러닝으로 이어지게 됩니다. 


뉴런과 뉴런이 서로 새로운 연결을 만들기도 하고 필요에 따라 위치를 바꾸는 것처럼 여러 층의 퍼셉트론을 연결시키고 복잡하게 조합하여 주어진 입력 값에 대한 판단을 하게 하는 것, 그것이 바로 신경망의 기본 구조입니다. 신경망을 이루는 가장 중요한 기본 단위는 퍼셉트론입니다. 퍼셉트론은 입력 값과 활성화 함수를 사용해 출력 값을 다음으로 넘기는 가장 작은 신경망 단위입니다.


기울기 a는 퍼셉트론에서는 가중치를 의미하는 w(weight)로 표기됩니다. ... y절편은 바이어스의 b ... 입력값(x)과 가중치(w)의 곱을 모두 더한 다음 바이어스를 더한 값을 가중합(weighted sum)이라고 합니다. 가중합의 결과를 놓고 1또는 0을 출력해서 다음으로 보냅니다. 여기서 0과 1을 판단하는 함수가 있는데, 이를 활성화 함수(activation function)라고 합니다. 앞서 배웠던 시그모이드 함수가 바로 대표적인 활성화 함수입니다. 


퍼셉트론의 한계를 설명할 때 등장하는 XOR 문제입니다. XOR 문제는 논리 회로에 등장하는 개념입니다. ... XOR게이트는 둘 중 하나만 1일 때 1이 출력됩니다. 


AND와 OR게이트는 직선을 그어 결과값이 1인 값을 구별할 수 있습니다. 그러나 XOR의 경우 선을 그어 구분할 수 없습니다. 인공지능 분야의 선구자였던 MIT 마빈 민스키 교수가 1969년에 발표한 퍼셉트론즈라는 논문에 나오는 내용입니다.  ... 알고보니 간단한 XOR 문제조차 해결할 수 없었던 것입니다. 이 논문 이후 인공지능 연구가 한동안 침체기를 겪게 됩니다. 10여년이 지난 후에야 이 문제가 해결되는데, 이를 해결한 개념이 바로 다층 퍼셉트론입니다. 


XOR문제를 해결하기 위해서 우리는 두 개의 퍼셉트론을 한 번에 계산할 수 있어야 합니다. 이를 가능하게 하려면 숨어있는 층, 즉 은닉층을 만들면 됩니다. ...은닉층을 만들어 공간을 왜곡하면 두 영역을 가로지르는 선이 직선으로 바뀝니다. 


AND게이트의 정반대 값을 출력하는 방식 NAND,  NAND게이트와 OR게이트 이 두가지를 내재한 각각의 퍼셉트론이 다중 레이어 안에서 각각 작동하고, 이 두 가지의 값에 대해 AND게이트를 수행한 값이 바로 우리가 구하고자 하는 Y값임을 알 수 있습니다. 


신경망 내부의 가중치는 오차 역전파 방법을 사용해 수정합니다. 오차 역전파는 ... 경사 하강법의 확장 개념입니다. 


다층 퍼셉트론 역시 결괏값의 오차를 구해 이를 토대로 하나 앞선 가중치를 차례로 거슬러 올라가며 조정해 갑니다. 그러다 보니 최적화 계산 방향이 출력충에서 시작해 앞으로 진행됩니다. 그래서 다층 퍼셉트론에서의 최적화 과정을 오차 역전파(back propagation)라고 부릅니다. 


'오차가 작아지는 방향으로 업데이트한다'는 의미는 미분값이 0에 가까워지는 방향으로 나아간다는 말입니다. 즉 '기울기가 0이 되는 방향'으로 나아가야 하는데, 이 말은 가중치에서 기울기를 뺐을 때 가중치의 변화가 전혀 없는 상태를 말합니다. 따라서 오차 역전파를 다른 방식으로 표현하면 가중치에서 기울기를 빼도 값의 변화가 없을 때까지 계속해서 가중치 수정 작업을 반복하는 것입니다.


오차 역전파는 출력층으로부터 하나씩 앞으로 되돌아가며 각 층의 가중치를 수정하는 방법입니다. 가중치를 수정하려면 미분 값, 즉 기울기가 필요하다고 배웠습니다. 그런데 층이 늘어나면서 기울기가 중간에 0이 되어버리는 기울기 소실 문제가 발생하기 시작했습니다. 이는 활성화 함수로 사용된 시그모이드 함수의 특성 때문입니다. 시그모이드를 미분하면 최대치가 0.3입니다. 1보다 작으므로 계속 곱하다보면 0에 가까워집니다. 따라서 층을 거쳐 갈수록 기울기가 사라져 가중치을 수정하기가 어려워지는 것입니다.


토론토대학교의 제프리 힌튼 교수가 제안한 룰루(ReLU)는 시그모이드의 대안으로 떠오르며 현재 가장 많이 사용되는 활성화 함수입니다. 렐루는 x가 0보다 작을때는 모두 0으로 처리하고 0보다 큰 값은 x를 그대로 사용하는 방법입니다. 이 방법을 쓰면 x가 0보다 크기만 하면 미분값이 1이 됩니다. 따라서 여러 은닉층을 거치며 곱해지더라도 맨 처음 층까지 사라지지 않고 남아있을 수 있습니다. ... 이후 렐루의 0이 되는 순간을 완화한 소프트플러스등 렐루를 변형한 함수도 개발중이며, 좀 더 나은 활성화 함수를 만들기 위한 노력이 이어지고 있습니다.


경사 하강법의 불필요하게 많은 계산은 속도를 느리게 할 뿐 아니라, 최적 해를 찾기 전에 최적화 과정을 멈출 수도 있습니다. 확률적 경사 하강법(Stochastic Gradient Descent,SGD)는 이러난 속도의 단점을 보완한 방법입니다. 전체 데이터를 사용하는 것이 아니라, 랜덤하게 추출한 일부 데이터를 사용합니다. 


모멘텀 SGD란 말 그대로 경사 하강법에 탄력을 더해 주는 것입니다. ... 지그재그로 일어나는 현상이 줄어들고, 이전 이동 값을 고려하여 일정 비율만큼만 다음 값을 결정하므로 관성의 효과를 낼 수 있습니다.


아담(Adam)은 현재 가장 많이 사용되는 고급 경사 하강법입니다. 


epochs=1000으로 지정한 것은 각 샘플이 처음부터 끝까지 1,000번 재사용될 때까지 실행을 반복하라는 뜻입니다. ... batch_size=10은 전체 470개의 샘플을 10개씩 끊어서 집어넣으라는 뜻이 됩니다. 


seaborn 라이브러리 중 각 항목 간의 상관관계를 나타내 주는 heapmap 함수를 통해 그래프를 표시해 봅니다. ... 결과에 미치는 영향이 큰 항목을 발견하는 것이 데이터 전처리 과정의 한 예입니다. 데이터 전처리 과정은 딥러닝을 비롯하여 모든 머신러닝의 성능 향상에 중요한 역할을 합니다.


최종 딥러닝 결과는 여러번 실행하여 평균을 구하는 것이 가장 적절합니다.


참과 거짓으로 해결하는 것이 아니라 ... 여러 개의 답 중 하나를 고르는 분류 문제를 다중 분류라고 합니다.


활성화 함수... 소프트맥스는 총합이 1인 형태로 바꿔서 계산해 주는 함수입니다.


MNIST 데이터셋은 미국 국립표준 기술원이 고등학생과 인구조사국 직원등이 쓴 손글씨를 이용해 만든 데이터로 구성되어 있습니다. 


기본 딥러닝 프레임에 이미지 인식 분야에서 강력한 성능을 보이는 컨볼루션 신경망(Convolutional Neural Network, CNN)


컨볼루션 층을 통해 이미지 특징을 도출하였습니다. 하지만 그 결과가 여전히 크고 복잡하면 이를 다시 한번 축소해야 합니다. 이 과정을 풀링(pooling)또는 서브 샘플링이라고 합니다. ... pool_size 는 풀링 창의 크기를 정하는 것으로, 2로 정하면 전체 크기가 절반으로 줄어듭니다.


노드가 많아지거나 층이 많아진다고 해서 학습이 무조건 좋아지는 것이 아니라는 점을 과적합의 의미를 공부하며 배웠습니다. 딥러닝 학습을 실행할 때 가장 중요한 것은 과적합을 얼마나 효과적으로 피해가는지에 달려 있다고 해도 과언이 아닙니다. 따라서 그동안 이러한 과정을 도와주는 기법이 연구되어 왔습니다. 그중 간단하지만 효과가 큰 기법이 바로 드롭아웃 기법입니다. 드롭아웃은 은닉층에 배치된 노드 중 일부를 임으로 꺼주는 것입니다.


문장을 학습하는 것은 우리가 지금까지 공부한 내용과는 성질이 조금 다릅니다. 문장은 여러 개의 단어로 이루어져 있는데, 그 의미를 전달하려면 각 단어가 정해진 순서대로 입력되어야 하기 때문입니다. 즉, 여러 데이터가 순서와 관계없이 입력되던 것과는 다르게, 이번에는 과거에 입력된 데이터와 나중에 입력된 데이터 사이의 관계를 고려해야하는 문제가 생기는 것입니다. 이를 해결하기 위하여 순환 신경망(Recurrent Neural Network, RNN)방법이 고안되었습니다.


텐서플로는 AMD 계열의 GPU가 아니라 NVIDIA의 GPU만을 지원합니다.




댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 









한 번의 훈련으로는 아무것도 일어나지 않는다. 자신을 채찍질하며 수백, 수천 번 훈련했을 때 신체의 여러 부분에서 발전이 일어날 것이다. 비가 온다고? 그건 문제가 안 된다. 피곤하다고? 그 또한 문제가 안 된다. 의지력이 있다면 아무 문제도 없다. - 1952년 헬싱키 올림픽 3관왕, 에밀 자토펙


프로는 다른 사람들의 이야기를 경청하는 시간을 통해 상대방으로부터 무언가를 배운다. 또한 여러 가지 정보와 지혜를 얻는다.


진정한 도공은 최고의 작품을 만들기 위해 먼저 좋은 흙을 찾아나선다. 또한 흙의 반죽과 가마의 온도가 몇 도가 되어야 가장 아름다운 빛을 내는지에 대해 끊임없이 연구한다. 하지만 아마추어는 결과에 몰두하면서 스스로 스트레스의 소용돌이 속으로 빠져 들어간다. 현대그룹의 창업자 정주영 회장은 "목표만 바라보면서 일을 하기보다는 오로지 그 과정에서 즐거운 마음으로 최선을 다해야 최고의 결과를 얻을 수 있습니다"라고 말했다. 


기초 공부를 늦게 시작한다고 해서 성공하지 못한다는 법은 없다. 늦었다고 생각했을 때라도 기본부터 다시 시작한다면 얼마든지 성공으로 가는 길을 찾을 수 있고, 앞선 사람들을 추월할 수도 있다. 


(에드워드 권)그가 보유한 각국의 요리 관련 원서만 해도 850여 권에 달한다고 한다.


"멈출 줄 아는 자만이 안정을 찾을 수 있고, 차분한 마음이 뒷받침되어야 정확한 판단을 할 수 있다"-공자


아이비 리는 중역들에게 간단하게 강연한 후에 매일 저녁에 자신이 할 일 6가지를 리스트로 작성하고, 매일 가장 중요한 것부터 시작한 뒤 끝나면 지우라고 했다. 중역들이 이를 3개월간 실천하자 회사의 매출액과 작업 능률을 향상되었고, 아이비 리는 컨설팅 비용을 받게 되었다. 


"현재의 짧은 순간을 소홀히 하는 사람은 그가 가진 전부를 내던지는 셈이다"-독일의 시인, 극작가 폰실러


어렵다고 해서 지금 이 시간을 피하려 한다면 내일도 피해야 할 불만족의 시간이 당신을 맞이할 것이다. 


"말이 입힌 상처는 칼이 입힌 상처보다 깊다"-모로코 속담


"길이 멀어야 말의 힘을 알 수 있고, 세월이 오래 되어야 사람의 마음을 알 수 있다" - <명심보감>


"불교에는 초심자의 마음이라는 말이 있다. 초심자의 마음을 갖는 것은 정말 좋은 일이다. 이런 자세를 가진다면 세상을 때 묻지 않은 모습 그대로 들여다볼 수 있다. 이런 마음을 가진 사람은 선입견과 기대감, 비난과 차별에서 자유로와진다. 어린아이처럼 초보자의 마음으로 호기심과 놀라움이 가득한 사람이 되도록 하자." - 스티브 잡스


법화경에서 부처는 이렇게 말했다. "네가 지금 하고 있는 그 현재의 일이 아주 사소하다 할지라도 그것을 소홀히 여기지 말라. 그것은 보다 큰일을 하기 위한 준비 과정에 해당한다. 그 자체는 사소해 의미가 없는 것처럼 보이지만, 반드시 다가올 미래에 보다 큰일을 하기 위한 밑거름이 되는 것이다."


습관은 의지만으로 익혀지는 것이 아니라 단순한 행동을 반복적으로 실천할 때 비로소 완성된다. 


"사람은 반복적으로 행하는 것에 따라 판명되는 존재다. 따라서 탁월함이란 단일 행동이 아니라 바로 습관에서 나온다."-아리스토텔레스


"앞으로 20년 후에 당신은 자신이 저지른 일보다 저지르지 않은 일에 더 실망할 것이다. 그러니 밧줄을 풀고 안전한 항구를 벗어나 항해를 떠나라. 돛에 무역풍을 가득 담고 탐험하고 꿈꾸며 발견하라." - 마크 트웨인


"비관론자는 온통 기회뿐이라도 불가능한 이유를 찾고, 낙관론자는 온통 어려움뿐이라도 기회를 찾아낸다."-윈스턴 처칠


어느 유명한 강사는 공식적이든 비공식적이든 상관하지 않고 자신이 만난 사람의 명함을 받으면 이틀 이내로 그 사람들에게 메이를 보낸다고 한다. 만나서 반가웠다는 내용과 함께 간단한 인사말을 전한다고 한다.


똑같은 목표를 가져도 성공하는 사람이 있는 반면에 실패하는 사람도 있다. 그 차이를 폴 마이어는 "목표를 글로서 기록하는 것과 기록하지 않는 것"이라고 했다. 


"10번 전화해서 한 번 통화했을 때 염세주의자는 겨우 10% 성공했다고 생각한다. 하지만 성공적인 세일즈맨은 하나를 판매하기 위해 9번 거절당해야 하는 것을 잘 알고 있다."-세스 고딘



댓글(0) 먼댓글(0) 좋아요(1)
좋아요
북마크하기찜하기 thankstoThanksTo
 
 
 









아이의 언어 교육에 있어 아빠의 존재는 아주 중요하다. 독일 과학 전문지 <GEO>에 따르면 미국 노스캐롤라이나 주립대학의 린 버논-피건스 박사 연구진은 "3세 미만의 아이는 엄마보다 아빠의 말을 많이 들어야 문장 구성력 등 언어 능력 발달이 빠르다"는 사실을 밝혀냈다고 한다.


사실 부모의 생각에는 사소한 행동이자 한 순간 억제하지 못한 감정일 뿐이지만 그것이 아이에게 미치는 영향력은 의외로 크다. 그리고 그것은 아이의 기억에 큰 충격으로 남는다. 


"어른도 예전에는 아이였다. 하지만 자신도 아이였다는 사실을 기억하는 어른은 없다."-<어린왕자>생텍쥐베리


나는 아이의 말이 늦어진 것이 내 잘못임을 깨닫고, 각종 육아 서적을 보기 시작했다. 그렇게 하나씩 깨우치며 행동도 바뀌어 갔다. 사실 아이에게 필요한 것은 '건강한 무관심'이었다. 아이가 필요한 것을 요구할 수 있게 하고, 위함한 것에 호기심이 생기면 왜 위험한지 설명해 줄 수 있는 부모, 또 어떤 일에 대해 시행착오를 겪을 수 있게 적당한 분위기를 만들어 줄 수 있는 건강한 무관심 말이다. 


혹여 아이의 행동을 꾸짖거나 설명을 해야 할 때는 다음과 같은 점에 주의해야 한다.

1. 단 둘이 있는 장소를 선택애서 수치심을 느끼지 않게 한다.

2. 아이를 비하하지 말고 잘못 자체에 대해서만 지적해야 한다.

3. 상황이 정리되면 아이를 가슴으로 따뜻하게 안아준다. 

4. 행동에 변화가 생기면 구체적인 칭찬을 통해 자신감을 살려준다.

5. 순간을 극복하기 위해 한 박자 쉬는 타이밍이 중요하다.


"아빠가 주사 안 맞는 병원을 찾아봤는데 그런 병원은 없더라. 대신 주사를 한 대 맞는 병원이 있고, 두 대 맞는 병원이 있었어." "...." 규환이가 고민에 빠지게 되고, 고민 끝에 울먹이며 말한다. "아빠, 주사 한 대 맞는 병원이요." 아이가 선택할 수 있는 것은 두 가지밖에 없다. 이런 상황에서 "주사 안 맞는 병원에 갈래."라고 우기는 아이는 그리 많지 않다. 그런 경우 다시 한 번 감기의 심각성을 상기시키면서 앞의 얘기를 반복하면 효과가 있다.


나는 <SBS 스페셜-밥상머리의 작은 기적>이라는 프로그램을 보며 식사시간을 이용한 쌍방향 대화가 얼마나 중요한지를 새삼 깨닫게 됐다. 이 프로그램에서는 아이의 언어 발달에 대한 연구 결과를 발표했는데, 평소 대화를 하거나 책을 읽어 줄 때 아이가 140여 개의 단어를 배우는 반면 가족 식사를 통해 1,000여 개의 단어를 익히기 된다는 것이었다. 밥상머리 대화는 대화의 주제나 소재에 대한 예측이 불가능해서 아이의 지적 발달을 자극하기 때문이란다. 


대화를 잘하는 사람은 실상은 상대방의 말을 잘 들어주는 사람이다. 상대방의 말에 짧게 맞장구를 쳐 주는 사람, 고개를 끄덕이며 이해하고 있다는 제스처를 해 주는 사람, 갑자기 생각이 나질 않아서 막힐 때 살며시 이야기를 이어주는 사람, 말하는 사람과 같은 표정을 지어주는 사람, 마주 앉아 대화하고 싶어지는 사람은 바로 이런 사람이다.


고 김대중 전 대통령은 아무리 짧은 연설이라도 글을 쓰고 수정하기를 반복했고, 원고를 읽는 연습도 실전처럼 최소 2시간을 했다고 한다. 그래서 대중 연설의 달인이라는 칭호를 얻었다. 




댓글(0) 먼댓글(0) 좋아요(2)
좋아요
북마크하기찜하기 thankstoThanksTo