20150601

1. 영어 기사 읽기
1) The next political battleground: your phone, CNN
– Next year’s election presents a new opportunity for politicians to harness a slew of technologies — from video to demographic data — that will help them reach voters. (a slew of – 많은, 2014/07/24)
2) Don’t Overthink It, Less Is More When It Comes to Creativity, Scientific American


2. Cache insertion policy 관련 논문 읽기
[ISCA’07] Adaptive insertion policies for high performance caching
LRU 교체 정책은 흔히 사용되는 캐시 교체 정책이지만, 프로그램이 캐시 크기보다 큰 작업 집합을 갖고 있으면 쓰래싱을 일으킨다. 이러한 경우에 캐시가 매우 비효율적으로 사용된다. 캐시가 본래의 역할을 못할 뿐 아니라, 재접근되지 않는 데이터가 캐시에서 쫓겨나기까지의 시간도 오래 걸린다.
이를 해결하고자 이 논문에서는 LIP, BIP, DIP를 제안한다. LIP는 새로 접근한 데이터를 MRU position에 넣는 것이 아니라, LRU position에 넣는 것이다. 이렇게 함으로써 쓰래싱 워크로드로부터 캐시를 보호할 수 있다. LIP는 데이터를 우선 LRU position에 넣은 다음에, 재접근되면 MRU position으로 promote한다. BIP는 LIP에 유연성을 더한 것이다. BIP는 모든 새로운 데이터를 LRU position에 넣는 것이 아니라, 일정한 비율로 MRU position에 넣기도 한다. DIP는 BIP와 LRU 사이에서 더 나은 것을 결정해 적용하는 캐시 관리 기법이다.
DIP를 구현할 때, dynamic set sampling (DSS)와 set dueling을 선택해 사용할 수 있다. DSS는 MTD외에도 캐시 정책 개수만큼의 ATD를 둔다. ATD 각각에 서로 다른 정책을 적용하고, miss가 적게 발생하는 ATD의 캐시 정책을 선택한다. 하지만 이렇게 했을 때에 ATD를 두어야 하는 오버헤드가 발생한다. 이를 해결하고자 set dueling에서는 MTD의 일부 캐시 집합에 서로 다른 교체 정책을 적용하고, 성능을 비교한다. DSS는 “[ISCA’06] A Case for MLP-Aware Cache Replacement“에서 제안한 기법이고, set dueling은 이 논문에서 처음 제시하는 기법이다.
[PACT’08] Adaptive insertion policies for managing shared caches
앞서 나온 논문의 DIP를 확장한 연구이다. 이 논문에서는 개별 쓰레드별로 DIP를 적용하는 Thread-Aware Dynamic Insertion Policy (TADIP)를 제안한다. 기존의 DIP에서는 두 개의 정책 (BIP, LRU) 중에 좋은 성능을 내는 것을 선택한다. BIP는 thrashing하는 워크로드가 있어도 높은 성능을 보이고, LRU는 locality가 높은 경우에 좋다. 하지만 DIP는 성향이 다른 여러 개의 쓰레드가 동시에 실행되는 경우는 해결하지 못한다. Cache-friendly한 워크로드와 thrashing 워크로드가 함께 실행되고 있을 때에, 각각에 맞는 캐시 교체 정책을 적용하기 위해 TADIP를 제안한다. TADIP는 각 워크로드별로 적합한 캐시 교체 정책을 적용할 수 있게 해준다.
이 논문에서는 TADIP의 두 가지 구현 방식을 제안하는데, 한 가지는 TADIP-Isolated이고, 다른 하나는 TADIP-Feedback이다. TADIP-I는 다른 워크로드는 모두 LRU를 쓴다고 가정하고 각각의 워크로드에서 캐시 교체 정책을 결정한다. TADIP-F는 다른 워크로드 모두 현재 쓰고 있는 캐시 교체 정책을 쓴다고 가정하고, 해당 워크로드에서 적용할 캐시 교체 정책을 선택한다.
[ISCA’09] PIPP promotion insertion pseudo-partitioning of multi-core shared caches
이 논문에서는 PIPP라는 기법을 제안한다. Promotion과 insertion 기법을 사용해, 공유 캐시를 암시적으로 파티셔닝하는 것이다. 멀티코어 시스템에서 LLC는 공유되는데, 공유한다는 것은 장점도 있지만 단점도 있다. 장점으로는 모두가 공유함으로써 자원 사용의 효율성이 높아진다는 것이고, 단점으로는 공유함으로 인해 간섭 현상이 발생한다는 것이다. 간섭을 줄이기 위해 partitioning을 하기도 하지만, partitioning을 하면 dead line이 더 많이 발생할 가능성이 있다. Dead line을 발생시키지 않으면서도 자원을 공유하고자, 이 논문에서는 PIPP를 제시한다. PIPP는 암시적으로 캐시를 분할하여 사용하는 기법으로, 명시적으로 분할하지 않는 덕분에, dead line 발생 가능성은 줄어들면서도 자원 사용의 효율성은 높아진다. PIPP에서는 priority list 상에서 캐시 삽입 위치를 조절함으로써 암시적인 캐시 분할을 달성한다. Priority list 상에서 높은 곳에 삽입하는 코어는 상대적으로 적은 경쟁을 경험하고, 따라서 많은 cache size를 차지할 수 있다. 반면에 priority list 상에서 낮은 곳에 삽입하는 코어는 상대적으로 더 많은 경쟁을 경험하고, 적은 cache size를 차지한다.
[ISCA’10] High performance cache replacement using re-reference interval prediction (RRIP)
기존에 알려진대로 LRU는 thrashing workload에서 취약한 성능을 보인다. 이를 해결하고자 DIP가 제시되었지만, DIP는 극단적인 해법을 제시한다는 점이 단점이다. DIP는 매우 가까운 시간 안에 재접근한다고 판단하거나, 또는 매우 먼 시점에 재접근한다고 판단한다. 실제로 DIP는 SPEC을 제외한 워크로드에서는 낮은 성능을 보인다. LRU와 DIP는 scan하는 캐시 접근 패턴에서 저성능을 보인다. scan은 데이터 재접근이 발생하기는 하되, 그 거리가 매우 긴 경우이다. 이를 해결하고자 이 논문에서는 RRIP 기법을 제안한다. Figure 3를 보면 SRRIP를 이해하기 쉬움. 이를 DIP와 같은 방식으로 확장한 것이 DRRIP이다.


3. Scientific Writing – 포스터 작성 관련
– 관심있는 사람이 연락할 수 있도록, affiliation에 연락처(이메일)를 추가하는 것이 좋다.
– 모르는 사람이 호기심을 가질 수 있도록 작성해야 한다.
– 일반적인 논문의 구성을 따를 필요가 없다.
– 필요하다면 FAQ 섹션을 두는 것도 좋다.

Advertisements
Tagged with: , , , , , , , , , , , , , , , , , , , , ,
Posted in 1) Memo

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

누적 방문자 수
  • 91,344 hits
%d bloggers like this: