Protected: 20171017 – Research

This content is password protected. To view it please enter your password below:

Advertisements
Posted in 1) Memo

Protected: 20171016 – Research

This content is password protected. To view it please enter your password below:

Posted in 1) Memo

Protected: 20171015 – Research

This content is password protected. To view it please enter your password below:

Posted in 1) Memo

Protected: 20171013 – Research

This content is password protected. To view it please enter your password below:

Posted in 1) Memo

20171010

병렬처리
Google TPU. ISCA 2017년에 발표된 내용임. 실제로는 개발해 사용하기 시작한지는 꽤 되었음. 회사에 필요한 것을 개발했다고 볼 수 있음. Inference는 response time이 중요한 작업이다. Inference 작업에 K80 GPU를 사용하면 underutilize된다. CNN은 전체 구글 워크로드의 5%밖에 되지 않음. Batch size를 늘리면 utilization은 높아지지만 response time이 느려진다. 256개의 입력값이 들어가면 256×256개의 weight과 곱해진 다음에 256개의 출력을 내보낸다. 하드웨어는 간단한 연산 장치를 제공하는 것이고, 이에 맞추어 원하는 연산을 수행하면 된다. 적절히 데이터 레이아웃을 잡고 데이터의 공급과 생산을 제어해야 한다.

Posted in 1) Memo

Protected: 20170928 – Research

This content is password protected. To view it please enter your password below:

Posted in 1) Memo

20170928

병렬처리
DianNao에서 핵심이 되는 것은 NFU. DaDianNao는 DianNao에 eDRAM을 사용해 확장한 것. Weight와 feature map을 eDRAM에 저장함. 완전한 형태의 학습은 어렵지 않나 하고 추정됨. eDRAM은 embedded DRAM. logic 공정에 DRAM을 넣는 것. external DRAM보다 집적도가 낮지만 SRAM보다는 집적도가 높다. SRAM은 트랜지스터 6개 필요, DRAM은 1C 1T면 됨. Fat tree는 root로 갈수록 available bandwidth가 더 wide해지는 구조이다. NFU에서 SRAM으로 된 SB를 없애고 eDRAM을 사용함.

Posted in 1) Memo
누적 방문자 수
  • 98,847 hits