#6 <대학.중용>을 읽으며..

이미지
책 정보 저자 : 주희 출판사 : 홍익 출판사 학교 고전 독서 인증제 덕분에 책 4권을 더 읽고 시험을 봐야한다. 평가 도서 목록 중 대학.중용을 골랐고 한 번 읽은 뒤 정리하고자 한다. 독서 동기가 참 별로지만 좋은 책을 골랐으니 열심히 읽었다. 그렇다고 평가 도서 목록이 별로라는 것은 아니다. 모두 걸작이고 고전이다. 하지만 책에 대한 시험을 본다는 제도가 참 아이러니하다. 좋은 책들을 읽게 하고픈 학교 입장도 고려하지 않는 것은 아니다. 조금 더 나은 차선책이 있다면 더 좋지 않을까 싶다. 책에 대한 내용 정리를 해야겠다. 크게 이 책의 전체적인 내용 및 구성, 대학, 중용으로 나뉜다. 개요 첫번째 부분인 개요는 대학,중용이라는 책에 대한 설명을 주로 한다. 어떻게 대학.중용이 세상에 널리 알려졌는가? 수당대에서 불교가 크게 번성하자 유가측에서 불교를 비판할 이론을 마련하고자 고심하면서부터라고한다. 저술된 시기는 여러 시각이 존재한다. 첫째는 진나라 말에서 한나라 초에 저술된 것으로 본다. 두번째는 공자 이후 맹자 이전의 시기에 저술되었다는 견해이다. 마지막으로 현대 중국의 사상가인 서복관은 오륜이 논어에서는 한꺼번에 거론되지 않았는데 중용과 맹자에서는 모두 한꺼번에 언급되고 있다는 점, 그리고 맹자는 오륜이 개인적인 차원에서 이루어지지만 중용에서는 정치적인 차원에서 이루어진다는 점에 의거하여 논어와 맹자 사이에 중용이 저술되었다고 본다. 저자는 누구인가? 대학은 증자가 저술하고 중용을 자사가 저술한 것으로 본다. 대학.중용이 사상사에서 부각된 배경은? 대학에서 개인의 수양으로부터 가족 국가로 확대되어 가는 도덕 실천의 체계는 유학자들에게 불교를 비판할 수 있는 논거를 제시했고 중용에서 제시하고 있는 중화의 도는 유가의 도를 지지하는 도로 판단했다. 사서체제를 완성시킨 주희는 사서를 읽을 때 대학.논어.맹자.중용의 순서로 읽으라고 권한다. 중용은 도덕의 보편성과 필연성을 보장...

#5 <신곡>을 읽으며.. (연옥 & 천국)

이제 연옥으로 들어선다. 연옥을 지키는 자유의 상징인 카토 노인이 일행을 맞이한다. 베르길리우스는 단테의 얼굴을  이슬로 씻어주고 겸손의 상징인 갈대를 단테의 허리에 메어준다. 연옥은 의지가 가장 중요한 곳이다. 의지는 산을 오르고 오르면서 죄를 씻고 마침내 빛으로 나아가고자 하는 의지이다. 연옥의 입구에는 2개의 비탈이 단테를 기다린다. 첫번째 비탈은 교회를 능멸하다가 죽을 때 회개하고 뉘우친 자들이 죄를 저지린 시간의 30배의 기간을 머무르는 곳이다. 두번째 비탈은 게으른 나머지 회개를 미루던 영혼들이 그 미룬 횟수만큼 하늘을 도는 동안 머무르는 곳이다. 열망을 담아내는 기도, 특히 남이 해주는 기도는 죄를 씻는 데 가장 중요하다. 연옥의 문에 다다른 단테에게 천사가 P자 7개를 이마에 새겨준다. 첫번째 고리에는 오만의 죄를 지은 자들이 고통받고 있다. 두번째 고리에는 시기와 질투의 죄를 지은 자들이 고통받고 있다. 세번째 고리에는 쉽게 분노한 자들이 있다. 네번째 고리에는 태만한 자들이 한순간도 쉬지 않고 달리고 있다. 다섯번째 고리에는 인색한 자들과 낭비한 자들이 울고 있다. 여섯번째 고리에는 음식을 탐한 자들이 갈증과 허기에 괴로워하고 있다. 일곱번째 고리에는 애욕의 죄를 지은 자들이 죄를 씻고 있다. 이렇게 산을 오르면서 단테의 이마에 새겨진 P가 사라진다. 죄의 기억을 지우는 힘을 지닌 레테 강과 선행의 기억을 회복시키는 에우노에 강에 몸을 적시면서 단테는 순수한 존재로 다시 살아나 천국으로 올라간다. 이곳에서 길잡이 베르길리우스의 역할을 다한다. 베아트리체가 나타나 천국으로 인도한다. 인도하는 과정에서 논다니를 만나는데 논다니의 금술잔은 현실세계의 타락한 교황을 보여준다. 연옥은 정죄와 희망의 왕국이다. 영혼들이 쉼 없이 기도하며 산을 오르며 정죄한다. 여섯번째 고리에서 거꾸로 자라는 나무가 하는 말 중 "인류의 첫 시대는 황금처럼 아름다웠어. 배고픔은 도토리를 맛있게 했고 목마름은 어느 냇물에서...

#5 <신곡>을 읽으며.. (지옥)

이미지
책 정보 저자 : 단테 알리기에리 출판사 : 서해문집  단테의 신곡은 내가 좋아하는 영화에 자주 등장하기 때문에 꼭 읽어보고 싶은 책이었다. 인페르노와 다빈치 코드에 나왔었는데 그냥 지옥에 대한 얘기구나 싶었다. 마침 학교의 고전 독서 인증제의 평가 도서에 신곡이  있는 것을 알고 읽어야겠다고 생각했다. 그리고 알라딘 중고서점에 찾아봤더니 있는 것을 보고 운명인가 싶었다. 하지만 무교인 나에겐 큰 감명을 받기 쉽지 않았다. 단지 소설로서 상세한 묘사에 놀랐다. 그리스도에 대한 얘기가 주를 이루고 지옥, 연옥, 천국으로 크게 나뉘어져 있다. 그리스도에 대한 얘기는 그 전에 읽은 책인 처음 읽는 로마사에서 짧게 읽은 적 있다. 그리스도가 신은 단지 자신들이 믿고 있는 하나의 신 밖에 존재하지 않는다 하여 다른 종교를 인정하지 않았다는 내용을 읽은 적이 있는데 여러 종교를 인정하는 나라에서 교육 받는 나로서는 이해하기 쉽지 않았다. 이 책을 읽다보면 단테가 정말 사후세계를 보고 온 것이 아닌가라는 착각을 불러일으킨다. 그만큼 묘사가 섬세하고 자세하다. 그 묘사는 그림을 통해 더욱 자세해진다. 지옥에 들어서기에 앞서 단테는 어두운 숲에서 이야기를 시작한다. 이 어두운 숲에서 표범, 사자, 암늑대를 만난다, 세 마리의 야수는 각각 인간의 야심과 탐욕, 오만을 뜻한다. 단테는 목숨을 잃는구나 싶을 때 아이네이스의 저자인 베르길리우스가 나타나 도와준다. 베르길리우스는 베아트리체가 자신을 불러 단테를 구원해달라고 청했다고 한다. 여기서 베아트리체는 현존 인물이었는데 단테가 사랑하는 인물이었다가 소설 신곡에서 사랑의 신으로 재탄생한다. 이제 지옥의 문에 들어선다. 지옥에 들어서자 망령을 배로 실어나르는 카론을 만나 스틱스 강을 건넌다. 강을 건너 첫번째 고리에 들어섰다. 이 고리에는 아무런 죄도 짓지 않았지만 세례를 받지 못한 망령들이 한숨을 쉬고 있다. 이들이 사는 곳을 림보라고 한다. 두번째 고리로 내려...

하둡 스파크 공부의 필요성

이미지
RNN 공부를 간단히 한 상태에서 kaggle 데이터셋으로 RNN을 구현하는 중이었다. 글자를 행렬로 바꾸는 과정에서 50만개의 글자를 행렬로 만드려니 메모리 오류가 나는 것은 내 노트북에서 당연한 일이었다. 그래서 생각해보니 내가 하둡 스파크를 공부한 이유가 대용량 데이터의 전처리를 보다 빠르게 하기 위함이었다. 집에 있는 그나마 나은 데스크탑으로 스파크를 통해 데이터를 가공하고 가공된 데이터를 가져와 모델링을 하는 것이 효율적일 것 같다. 파이썬 텐서플로우로는 딥러닝 연산을 하고 하둡 스파크에서 데이터의 가공을 하는 메카니즘을 공부해야겠다. 지금은 하둡2 얀 설치에서 막혀있지만 하루 빨리 설치 오류부터 고쳐나가야겠다.

딥러닝에 쓰이는 어려운 라이브러리 정리

Python 라이브러리 정리 이 게시글의 계기는 TensorFlow에 대한 github의 코드를 이해하지 못해서 입니다. 전체 코드를 보고 싶으시다면 char-rnn-tensorflow 에 있습니다. 물론 아래 코드는 해당 라이브러리 함수의 빙산의 일각에 불과합니다. 굉장히 주관적인 어려움에 의한 게시글입니다. 다행히 여기 쓰일 함수를 구글링해서 들어오신 분들이 많을거라 예상되기 때문에 저가 이미 알고 있는 함수들에 대한 언급은 하지 않겠습니다. 딥러닝에서 아래 라이브러리들이 다 꼭 쓰여야만 하는 것도 아닙니다. 단순히 나중을 위해 공부하는 것입니다. import tensorflow as tf import argparse import time import os from six.moves import cPickle from utils import TextLoader from model import Model def main(): parser = argparse.ArgumentParser() parser.add_argument('--data_dir', type=str, default='data/tinyshakespeare', help='data directory containing input.txt') '''(중략)''' parser.add_argument('--init_from', type=str, default=None, help="""continue training from saved model at this path. Path must contain files saved by previous training process: 'conf...

Recurrent Neural Network - 2

이미지
첫번째 RNN 공부는 TensorFlow 공식 홈페이지 RNN 튜토리얼에서 소개된 좋은 게시글을 공부했었습니다. 이번에는 TensorFlow 공식 홈페이지 튜토리얼 을 공부할 것입니다. Recurrent Neural Networks Introduction RNN과 LSTM을 소개하기 위해 colah's blog 게시글 을 보기 바랍니다. 이 글을 번역하여 공부한 것이 저의 첫번째 게시글이었습니다. Language Modeling 이 튜토리얼에서 언어 모델링 문제에서 RNN을 어떻게 학습시키는 지 알아 볼 것입니다. 우리의 목표는 문장에 확률을 할당하는 확률 모델을 fit시키는 것입니다. 주어진 이전 단어들의 히스토리를 이용하여 다음 단어를 예측할 것입니다. 이런 모델의 질을 측정하기 좋은 Penn Tree Bank (PTB) 데이터셋을 이용할 것입니다. 언어 모델링은 음성 인식, 기계 번역, 이미지 캡셔닝과 같은 많은 재미있는 문제에 핵심이기도 합니다. 이 곳 을 보시면 RNN이 여러 재밌는 분야에 쓰이고 있다는 것을 알 수 있습니다. Tutorial Files 아래 파일들은 TensorFlow Github 의 tensorflow/models/rnn/ptb 에 있습니다. File Purpose ptb_word_lm.py PTB 데이터 셋을 train하는 코드 reader.py 데이터셋를 읽는 코드 Download and Prepare the Data 이 튜토리얼에 필요한 데이터셋은  Tomas Mikolov's webpage :   http://www.fit.vutbr.cz/~imikolov/rnnlm/simple-examples.tgz   에 있습니다.  이 데이터셋은 전처리되어 있고 10000의 다른 단어로 이루어져 있습니다. reader.py를 이용해 위 단어들을 unique integer identifier로 만듭니다. The Model ...

Recurrent Neural Network - 1

이미지
이 글은  Understanding LSTM Networks  라는 블로그 포스트를 번역하고 공부한 내용입니다. Recurrent Neural Network 사람은 처음부터 매 순간 생각하지 않습니다. 이 에세이를 읽을 때, 이전의 단어에 대한 이해를 바탕으로 각각의 단어들을 이해합니다. 사람들은 생각을 처음부터 시작하지 않고 이전의 것들을 모두 버리고 생각하지 않습니다. 즉, 사람들의 생각은 지속성을 지닙니다. 기존의 뉴럴 네트워크는 할 수 없었고, 그것이 가장 큰 단점인 것 같았습니다. 예를 들어, 영화에서 발생하는 모든 상황들을 순간마다 분류한다고 상상해봅시다. 기존의 뉴럴 네트워크는 어떻게 자신의 추론을 이용해 이전의 사건들로 다음 사건들을 알릴 지 불명확합니다. 순환 신경망을 이 문제를 풀어냅니다. 순환 신경망은 자신에게로 돌아오는 반복 네트워크를 갖고 있으며 그것이 정보를 계속 유지시켜줍니다. 위 그림에서 뉴럴 네트워크의 덩어리 A, input으로 보이는 Xt 와 output 값인 ht를 볼 수 있습니다. 반복은 정보가 다음 네트워크를 넘어가도록 합니다. 반복들은 RNN을 미스테리하게 만듭니다. 그러나 , 좀 더 생각해본다면, 평범한 신경망과 크게 다를 게 없다고 판명납니다. RNN은 후손 노드에게 메시지를 넘기는 네트워크들의 여러 복사본들이라고 생각되어질 수 있습니다. 반복을 펼쳐보면 어떤 일이 생길 지 생각해봅시다. 연결되어 있는 노드들은 RNN이 sequence(순서) 와 lists(배열)에 직접적으로 관련되어 있다는 것을 드러냅니다. RNN은 저런 데이터를 위한 자연적인 구조입니다. 즉, RNN 구조는 이전의 데이터를 바탕으로 학습해야하는 데이터를 위한 인간 뇌 신경망의 자연적인 메카니즘이라는 말입니다. 몇 년전부터 RNN은 음성인식, 언어 모델링, 번역, 이미지 캡셔닝 등 많은 문제에 적용되어 엄청난 성과를 냈습니다.  The Unreasonable Effectiveness of...