20180730

오늘의 일기
* Keras에서 저장하고 불러온 뉴럴 넷의 정확도가 다름을 확인했다. 같은 문제를 겪고 있는 stackoverflow 질문을 발견함. Well-known bug라고 함. 이를 해결하려다보니 예전에 만났던 버그에 다시 부딪힘. model과 weight를 따로 저장하는 방식으로 문제를 해결했었는데, 여기 나오는 것처럼 그냥 input_shape를 지정해주는 것이 더 정확한 방법인 듯 하다. 이 버그를 발견하기까지는 교수님께서 항상 이야기하셨던 ‘안 될 때에는 무엇이 잘못되었는지 확인하라’는 말씀이 도움이 되었음. 내 가정과 결과 사이에 mismatch를 발견하고, 이를 바탕으로 버그가 있다는 것을 추정할 수 있었음.
* Swap 관련 링크
Do we really need swap on modern systems?
The next steps for swap
Making swapping scalable
Reconsidering swapping
* J는 좋은 사람이지만, J의 충고나 지시 중에는 모순적인 것들이 꽤나 있다. 그런 모순이 이해가 안 되는 것은 아니다. 사람은 누구나 모순점을 갖고 있으므로… 대표적인 예가 논리 중심의 문제 접근 방식이다. 내가 이야기할 때면 제대로 듣지 않고 “그건 논리적으로 말이 안 됨.”이라며 말을 끊고는 한다. 그런 J가 문제 P에 대해 뉴럴 넷 적용을 주장해서 내가 “문제 P는 뉴럴 넷에 적합하지 않은데 동작한다는게 논리적으로 말이 되는지?” 물으니 “논리 없이 동작하는 그게 뉴럴 넷이지!”하고 대답했다. 현재 아키텍쳐 설계도 논리에 따라서만 진행된 것은 아니다. 이유를 물으면 insight에 따라서 설계했다고 함… 이 부분은 연구 방향 확정 뒤에 insight만 남기고 재설계할 생각이다.

Advertisements
Posted in 1) Memo
2 comments on “20180730
  1. junghan says:

    SWAP 관련하여 어떤 문제를 보시나요? NVM에서 SWAP 이슈가 종종 있는데 메모리 Footprint를 줄이기 위해서 대체 공간으로 사용한다는 이야기가 대부분이 였던 것 같습니다만… 좀 관련 자료를 읽어보긴 해야하는데 😦

    • gumdaeng says:

      예전엔 swap쪽으로 생각했었는데, 지금은 다른 방향으로 보고 있습니다. 예전에 생각했던 것은 ‘swap device가 아주 빨라진다면 어떤 문제가 생기는가?’에 대한 방향이었습니다.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google+ photo

You are commenting using your Google+ account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

Recent Posts
누적 방문자 수
  • 135,418 hits
%d bloggers like this: