반응형
반응형
반응형

Deadlock은 interconnection network에서 일반적으로 packet과 같은 여러 agent들이 서로 자원이 해제되기를 기다리며 더 이상 진행할 수 없는 상태를 말한다. 이들 대기 agent들의 순환이 형성되면 네트워크는 deadlock 상태에 빠진다. 간단한 예로 Figure 14.1을 보자. circuit-switched network를 통해 전송 중인 연결 A와 B는 각각 두 개의 channel을 점유하고 있으며, 세 번째 channel을 얻기 전까지는 진행할 수 없다. 하지만 서로 필요한 세 번째 channel은 상대가 점유하고 있어, 어떤 연결도 필요한 channel을 해제할 수 없다. 따라서 두 연결은 deadlock 상태에 빠지며, 외부 개입이 없으면 이 상태는 계속된다. Deadlock은 다양한 자원에 대해 발생할 수 있다. 여기서는 physical channel이지만, virtual channel이나 shared packet buffer에서도 발생 가능하다.

 

Deadlock은 네트워크에 치명적이다. 일부 자원이 deadlock된 packet들에 점유되면, 다른 packet들이 이 자원을 사용하지 못해 네트워크 전체가 마비될 수 있다. 이를 방지하려면 deadlock avoidance(네트워크가 절대 deadlock되지 않도록 하는 방식)나 deadlock recovery(deadlock 발생 시 이를 탐지하고 복구하는 방식)가 필요하다. 대부분의 현대 네트워크는 deadlock avoidance를 사용하며, 자원에 순서를 부여하고 packet이 이 순서를 따라 자원을 획득하도록 강제한다.

Livelock은 이와 밀접한 네트워크 병리 현상으로, packet이 계속 네트워크를 이동하지만 목적지에 도달하지 못하는 상태이다. 예를 들어 packet이 minimal이 아닌 경로를 허용받을 때 발생할 수 있으며, 이때는 deterministic 또는 probabilistic 방식으로 잘못된 경로 선택 횟수를 제한해야 한다.


14.1 Deadlock

14.1.1 Agent와 Resource

Deadlock에 관여하는 agent와 resource는 사용되는 flow control 방식에 따라 달라진다. Circuit switching의 경우 agent는 connection이고 resource는 physical channel이다. 연결이 설정되면 해당 경로의 모든 channel을 점유하며, 전송이 끝나기 전까지 해제하지 않는다. 따라서 하나의 연결은 여러 개의 channel을 무기한 점유할 수 있다.

Packet-buffer 방식(store-and-forward 또는 virtual cut-through 등)에서는 agent는 packet이며 resource는 packet buffer이다. Packet의 head가 네트워크를 따라 전파되며 각 노드에서 buffer를 획득해야 한다. 이 경우 packet은 한 시점에 하나의 buffer만 점유하며, 새 buffer를 얻은 후 이전 buffer는 일정 시간 내 해제된다.

Flit-buffer 방식에서는 agent는 역시 packet이지만, resource는 virtual channel이다. Packet의 head는 각 노드에서 virtual channel(control state와 flit buffer 포함)을 할당받으며, 여러 개의 virtual channel을 동시에 무기한 점유할 수 있다. 이는 하나의 virtual channel에 packet 전체를 담을 수 없기 때문이다.


14.1.2 Wait-For 관계와 Holds 관계

Agent와 resource는 wait-for 관계와 holds 관계로 연결된다. 예를 들어 Figure 14.1의 경우를 보자. Connection A는 channel u와 v를 점유하고 있고(waits for w), Connection B는 w와 x를 점유한 채(u를 기다림) 대기 중이다. 어떤 agent가 resource를 점유하고 있다면, 이 자원은 해당 agent가 해제해주길 기다리는 상태이다. 따라서 holds(a, b)는 waitfor(b, a)를 의미한다. 이 holds 관계를 반대 방향의 wait-for 관계로 다시 그리면 wait-for 그래프가 된다. Figure 14.2(b)의 사이클이 deadlock 상태임을 보여준다.

이처럼 agent와 resource 간의 엣지가 교차로 연결된 사이클이 존재할 때 deadlock이 발생한다. 즉,

  1. Agent가 어떤 resource를 점유하고 있으면서, 다른 resource를 기다리고 있으며,
  2. 이러한 관계가 순환(cycle)을 이루는 경우 (agent A₀가 R₀를 점유하고 R₁을 기다림, A₁이 R₁을 점유하고 R₂를 기다림, ..., Aₙ₋₁이 Rₙ₋₁를 점유하고 R₀을 기다림).

14.1.3 Resource Dependence

Wait-for 그래프에서 두 resource Ri와 Ri+1이 두 칸 떨어져 있다면, agent Ai가 Ri를 점유한 상태에서 Ri+1을 무한히 기다릴 수 있어야 한다. 이를 resource dependence라 하며 Ri → Ri+1 또는 Ri ⇒ Ri+1로 표현한다. Figure 14.1의 예에서는 u → v → w → x → u의 순환 관계가 존재한다. 이 관계는 전이적이며, a → b이고 b → c이면 a → c이다.

Figure 14.3의 resource dependence graph(자원 의존 그래프)는 각 resource가 vertex이며, 의존 관계는 방향 엣지로 표현된다. circuit switching에서는 physical channel 의존 그래프가 되며, packet-buffer 방식에서는 packet-buffer 의존 그래프, flit-buffer 방식에서는 virtual-channel 의존 그래프가 된다.

이러한 resource dependence graph에 사이클이 존재하면 deadlock이 발생할 가능성이 있다. 실제 deadlock이 발생하려면, agent가 자원을 점유하고 동시에 다른 자원을 기다리며 wait-for 그래프에 사이클을 만들어야 한다. 따라서 resource dependence graph의 사이클은 필요조건이지 충분조건은 아니다. Deadlock을 방지하기 위한 일반적인 전략은 이 graph에서 사이클을 제거하는 것이다. 그러면 wait-for 그래프에서 사이클이 생기지 않으며 deadlock도 방지된다.


14.1.4 예시

Figure 14.1의 4-node ring network를 packet-buffer flow control(노드당 하나의 packet buffer)로 바꿔 생각해 보자. 이 경우 agent는 packet이며 resource는 packet buffer이다. Figure 14.4(a)에 packet-buffer dependence graph가 나와 있다. 노드 0의 buffer(B₀)에 있는 packet은 buffer B₁을 얻기 전까지 B₀을 해제하지 않는다. 따라서 B₀ → B₁이라는 의존 관계가 생긴다.

 

Figure 14.4 설명

(a)는 packet-buffer flow control을 사용하는 네트워크의 resource(=packet buffer) dependence graph이다. 각 노드에 하나씩 있는 packet buffer(B0~B3)는 링 구조에서 다음 buffer를 점유하지 않으면 해제되지 않으므로 B0 → B1 → B2 → B3 → B0이라는 순환이 생긴다.

(b)는 이 상황에서 deadlock이 발생했을 때의 wait-for graph이다. 네 개의 packet(P0~P3)이 각각 하나의 buffer를 점유하고 있으며, 다음 buffer가 비워지기를 기다린다. Packet은 한 번에 하나의 buffer만 점유할 수 있으므로, 이와 같은 4개 packet 구성이 되어야 순환이 생기고 deadlock이 발생할 수 있다.


Flit-buffer flow control 예시 (Figure 14.5)

이제 동일한 4-node ring network를 flit-buffer flow control로 바꾸어 보자. 각 physical channel에 두 개의 virtual channel이 있다고 가정한다. Packet은 다음 채널에서 두 virtual channel 중 하나를 선택하여 대기할 수 있지만, 일단 선택한 channel에 대해 기다리며, 나머지 channel이 비어도 그쪽으로 바꾸지 않는다.

(a)는 각 virtual channel 간의 dependence를 보여주는 graph이며, 인접한 채널 간에는 모두 엣지가 있다.

(b)는 deadlocked 상태를 나타낸 wait-for graph이다. P0은 u0와 v0를 점유하고 w0를 기다리며, P1은 w0와 x0를 점유하고 v0를 기다린다. "1"로 끝나는 virtual channel은 사용되지 않는다. 만약 P0이 w0 또는 w1 중 사용 가능한 것을 선택할 수 있다면, 이 구성은 deadlock이 아니다. 모든 virtual channel 중 아무거나 사용할 수 있는 경우, deadlock 구성을 위해선 4개의 packet이 필요하며, 이는 연습문제로 제시된다.


14.1.5 High-Level (Protocol) Deadlock

Deadlock은 네트워크 외부 요인에 의해 발생할 수도 있다. Figure 14.6을 보자. 위쪽 network channel은 서버가 request packet을 제거해 주기를 기다리고 있는데, 서버는 내부 buffer가 제한되어 있어 reply packet이 먼저 소비되어야 request packet을 수신할 수 있다. 결과적으로 upper channel은 lower channel이 비워지기를 기다리는 셈이며, 이 wait-for 관계는 네트워크 내부가 아니라 서버 외부에 의해 생긴 것이다. 이러한 외부 요인에 포함된 wait-for loop에 의한 deadlock을 high-level 또는 protocol deadlock이라고 한다.

예를 들어 shared-memory multiprocessor에서는 각 노드의 memory server가 memory read/write request를 수신하고 처리 후 응답을 돌려보낸다. 내부 buffer가 제한적이면, Figure 14.6과 같이 서버로 들어오는 채널이 서버에서 나가는 채널을 기다리는 상황이 된다.

이런 외부 wait-for edge의 영향을 없애려면, 요청과 응답을 처리할 때 서로 다른 논리적 네트워크(logical network)를 사용하면 된다. 예: 서로 다른 virtual channel 또는 packet buffer 사용. 특히 cache-coherent 시스템에서는 하나의 transaction이 directory, owner, 다시 directory로 순차적으로 서버를 통과하기 때문에 각 단계마다 분리된 논리 네트워크를 사용하는 것이 일반적이다. 이는 Section 14.2에서 설명할 resource ordering의 특수한 경우이다.


14.2 Deadlock Avoidance

Deadlock은 resource dependence graph에 cycle이 없도록 만들면 방지할 수 있다. 이를 위해 자원에 대해 부분 순서(partial order)를 정의하고, agent가 이 순서를 따르도록 자원을 할당하도록 한다. 이렇게 하면, 순서상 높은 자원을 점유한 상태에서 낮은 자원을 기다리는 것이 금지되므로 cycle이 생기지 않는다. 일반적으로는 자원을 번호로 정렬하여 전체 순서(total order)를 적용한다.

모든 deadlock avoidance 기법은 어떤 형태로든 resource ordering을 사용하지만, 이 ordering이 routing에 미치는 영향은 다양하다. 어떤 방법은 routing에는 제한이 없고, 어떤 방법은 자원 수를 줄이기 위해 특정 경로를 허용하지 않기도 한다.

packet-buffer flow control에서는 노드마다 여러 개의 packet buffer가 있고, flit-buffer flow control에서는 하나의 physical channel에 여러 virtual channel이 있으므로, 동일한 물리 자원 내의 논리 자원에 순서를 부여함으로써 ordering을 구현할 수 있다. 하지만 circuit switching은 물리 채널 자체가 자원이므로, 각 채널이 ordering 내에서 한 위치만 차지할 수 있고, routing 제한이 불가피하다.


14.2.1 Resource Classes

Distance Classes: 자원을 class로 묶어 번호를 붙이고, packet이 자원을 할당할 때 오름차순으로만 접근하도록 제한하는 방식이다. 예: source에서 class 0의 자원을 할당받고, 이후 hop마다 class i+1의 자원만 할당할 수 있도록 한다.

이 시스템에서는 class i의 자원을 점유한 packet은 반드시 class i+1 자원을 기다려야 하므로, resource dependence graph에 cycle이 생기지 않는다. 따라서 deadlock이 발생하지 않는다.

 

Figure 14.8은 distance 기반 buffer class를 사용하는 4-node ring network의 예다. 각 노드 i는 hop 수 j에 따라 Bji buffer를 갖는다. 이 buffer는 j번 hop을 거친 packet을 수용하고, 다음 node i+1의 Bj+1,i+1로 전송한다. 이 구조는 spiral 형태의 비순환 의존 그래프를 만들어 deadlock을 방지한다.

이러한 "오르막" 자원 할당 규칙을 지키기 위해 packet은 현재 자신이 점유한 class 정보를 기억하고 있어야 한다. 따라서 distance class를 사용하는 경우 routing relation은 다음과 같이 정의된다:

R : Q × N → Q,
여기서 Q는 네트워크 내의 모든 buffer class 집합이다.

flit-buffer 방식에서도 유사하게 virtual channel에 이 방식을 적용할 수 있다. 이 hop-by-hop routing relation은 "오르막" buffer class 사용을 표현한다.

distance class는 어떤 topology에서도 자원 순서를 구현할 수 있는 일반적인 방법이지만, 단점은 네트워크의 지름(diameter)에 비례하는 수의 buffer나 virtual channel이 필요하다는 점이다.

Figure 14.8 설명

Distance class를 4-node ring network에 적용한 예이다. 각 노드 i는 4개의 buffer class를 가지며, buffer Bji는 목적지를 향해 j번 hop을 이동한 packet을 저장한다. 이 구조는 의존 그래프를 비순환적으로 만들기 때문에 deadlock을 방지할 수 있다.


Topology를 활용한 buffer class 최소화

어떤 네트워크에서는 topology를 활용해 필요한 buffer class 수를 크게 줄일 수 있다. 예를 들어, ring network에서는 두 개의 buffer class만으로도 자원을 순서화할 수 있다.

Figure 14.9 설명

Dateline buffer class를 ring에 적용한 예이다. 각 노드 i는 “0” buffer B0i와 “1” buffer B1i를 가진다. source 노드 s에서 주입된 packet은 B0s에 저장되고, dateline(노드 3과 0 사이)을 지날 때까지는 “0” buffer를 계속 사용한다. dateline을 지나면 “1” buffer(B10)를 사용하고 목적지까지 “1” buffer만 이용한다. 이 방식은 원형 의존 구조를 나선형 비순환 구조로 바꾸므로 deadlock을 방지할 수 있다.


Dateline 방식의 flit-buffer 적용 (Figure 14.10)

각 physical channel c는 두 개의 virtual channel c0, c1로 나뉜다. 모든 packet은 처음에 “0” virtual channel을 사용하고, dateline(노드 3)을 지나면 “1” virtual channel로 전환한다. 이때 routing function은 다음과 같은 형식을 가져야 한다:

R : C × N → C,
여기서 C는 virtual channel들의 집합이다.

이렇게 하면 Figure 14.5의 cyclic한 virtual channel dependence graph에서 일부 edge를 제거하여 acyclic하게 만들 수 있다.


Overlapping Resource Classes

distance class나 dateline class를 사용하면 resource dependence graph를 acyclic하게 만들 수 있지만, 부하 불균형(load imbalance)이 발생할 수 있다. 예를 들어 Figure 14.10에서 uniform traffic이 있을 경우, 대부분의 packet이 v0을 사용하고 v1은 거의 사용되지 않게 된다.

이러한 부하 불균형을 줄이기 위한 한 방법은 buffer class를 overlap시키는 것이다. 예를 들어, 32개의 packet buffer가 있을 때, 각 class에 16개씩 할당하는 대신 (Figure 14.11a), 각 class에 독점적인 buffer를 하나씩 두고 나머지 30개는 두 class가 공유하도록 구성할 수 있다 (Figure 14.11b). 이 방식은 대부분의 buffer를 공유함으로써 자원 활용률을 높일 수 있다.

그러나 overlap된 class에서 deadlock을 피하려면 중요한 조건이 있다. packet은 overlap 영역의 busy buffer를 기다려서는 안 된다. 즉, packet은 buffer B11과 같이 두 class가 모두 접근 가능한 buffer에 대해 기다려서는 안 된다. 그렇게 하면 다른 class의 packet과 교착 상태가 될 수 있기 때문이다.

해결 방법은 다음과 같다:

  • packet은 특정 buffer가 아니라 class 자체에 대해 대기해야 한다.
  • 즉, 해당 class에서 어떤 buffer든 idle 상태가 되기를 기다려야 하며, 독점 buffer가 결국 available해질 것이므로 deadlock은 발생하지 않는다.
  • 만약 공유 buffer가 먼저 비게 된다면 이를 사용해 성능은 향상시킬 수 있다.

14.2.2 Restricted Physical Routes

resource를 class로 구성하여 deadlock을 방지하는 방식은 효과적이지만, 경우에 따라 많은 수의 자원이 필요할 수 있다. 이를 피하기 위한 대안은 routing function을 제한하는 것이다. 적절한 경로 제한을 통해 resource 간의 의존성을 줄이면, 적은 수의 resource class로도 cycle 없는 구조를 만들 수 있다.


Dimension Order (e-cube) Routing

deadlock을 피하기 위한 가장 간단한 routing 제한 중 하나는 k-ary n-mesh에서 dimension-order routing을 사용하는 것이다. 예를 들어 2D mesh에서는 다음과 같은 규칙이 있다:

  • x 방향으로 +x로 이동 중인 packet은 +x, +y, −y 방향 channel만 대기 가능
  • −x 방향 packet은 −x, +y, −y만 대기 가능
  • y 방향에서는 +y는 +y만, −y는 −y만 대기 가능

이러한 제약을 기반으로 network의 channel을 나열하면 deadlock이 발생하지 않는다.

Figure 14.12 설명

3×3 mesh에서 dimension-order routing을 위한 channel numbering 예이다. 오른쪽 방향 channel을 먼저 나열하고, 그다음 왼쪽, 위, 아래 방향 순서로 번호를 매긴다. 이 방식은 routing 경로가 증가하는 번호의 channel을 따라가도록 보장하며, deadlock을 피할 수 있게 한다.


Turn Model

Dimension-order routing은 k-ary n-mesh network에서 deadlock 방지를 위한 routing 제약의 한 방식이지만, turn model은 mesh network에서 routing 알고리즘을 제약하는 좀 더 일반적인 프레임워크를 제공한다. turn model에서는 deadlock cycle을 구성하는 데 필요한 특정 방향 전환(turn)에 대해 정의하며, 2차원 예제로 설명이 시작된다.

Figure 14.13 설명 – Turn Model

(a) 2차원 mesh network에서 8개의 가능한 turn(예: +x → +y, +x → -y 등)이 있고, 이를 두 개의 추상적인 cycle로 나눌 수 있다. Deadlock을 피하려면 이 두 cycle 각각에서 최소 하나의 turn을 제거해야 한다.

(b) 예를 들어, +y → -x turn(North to West)을 제거하면 첫 번째 cycle을 깨뜨릴 수 있다.

(c) 여기에 두 번째 cycle에서 다른 turn을 추가로 제거함으로써 총 세 가지 deadlock-free routing 알고리즘을 만들 수 있다:

  • West-first routing: South → West turn 제거. Packet은 West 방향으로 먼저 모두 이동한 뒤, 그 이후 다른 방향으로 이동 가능.
  • North-last routing: North → East turn 제거. Packet은 North 방향을 제외한 다른 방향으로 자유롭게 이동 가능하지만, North로 들어선 후엔 계속 North로만 이동.
  • Negative-first routing: East → South turn 제거. Packet은 South와 West 방향으로 먼저 이동한 후, North와 East 방향으로 이동.

이러한 turn 제한은 결국 resource ordering을 다르게 정의하는 것이며, dimension-order routing과 마찬가지로 total order를 만든다. Figure 14.14는 west-first routing이 적용된 3×3 mesh의 channel 순서를 보여준다.


Turn Model과 Dimension-Order Routing의 한계

이러한 deadlock-free routing 기법들은 routing 경로의 다양성을 줄여 네트워크 성능과 fault tolerance에 영향을 줄 수 있다. 특히 dimension-order routing은 경로 다양성을 0으로 만든다. 또한 torus와 같은 topology에서는 channel cycle을 제거할 수 없다.


14.2.3 Hybrid Deadlock Avoidance

지금까지의 방법은 자원을 나누고 번호를 부여하거나, routing path를 제한하여 deadlock을 피하는 방식이었지만 각각 단점이 있었다:

  • Buffer class 방식: 노드당 많은 buffer 필요
  • Routing 제한 방식: 경로 다양성 감소, 모든 topology에 적용 불가

현실적인 해결책은 두 방식을 혼합하는 것이다.


Torus Routing에서의 Hybrid 기법

Torus network에서는 각 dimension에 dateline class를 적용하고, 그 위에 dimension-order routing을 적용하면 deadlock을 피할 수 있다. dateline class가 torus를 mesh처럼 동작하도록 만들어주기 때문이다.

예: flit-buffer flow control에서는 각 physical channel에 두 개의 virtual channel을 둔다. Packet은 처음엔 virtual channel 0을 사용하고, 각 dimension의 dateline을 통과하면 virtual channel 1로 전환된다. 다음 dimension으로 넘어갈 때는 항상 다시 virtual channel 0에서 시작한다.

이처럼 virtual channel을 이용해 의존성을 끊고 다시 연결하는 방식은 다양한 상황에 일반화 가능하다.

예를 들어 Section 14.1.5에서 설명한 protocol deadlock에서도, 요청과 응답을 서로 다른 virtual channel로 분리하여 해결할 수 있다. underlying routing이 deadlock-free라면, request-reply protocol 자체가 deadlock을 만들지 않게 된다.


Planar-Adaptive Routing

이 기법은 virtual channel과 restricted physical route를 결합한 것으로, 제한된 adaptivity를 허용하면서도 channel dependence graph의 cycle을 방지한다.

  • k-ary n-mesh에서 두 개의 인접 dimension (i, i+1)을 adaptive plane으로 정의
  • 각 plane에서는 minimal adaptive routing을 허용
  • plane 수는 n-1개이고, routing은 plane A₀ → A₁ → … → Aₙ₋₂ 순으로 진행

Figure 14.15 설명

  • (a) k-ary 3-mesh에서 source와 destination 간 가능한 모든 minimal path
  • (b) Planar-adaptive routing으로 허용된 path의 subset

이 방식은 network 크기나 dimension 수에 관계없이 virtual channel 수를 일정하게 유지하며, 경로 다양성은 상당 수준 확보된다.


Virtual Channel 구조

각 채널은 세 개의 virtual channel로 나뉘고, 각각은 di,v로 표시된다. 여기서 i는 dimension, v는 virtual channel ID.

  • Plane Ai는 di,2, di+1,0, di+1,1을 포함
  • Routing은 Ai에서 시작해, i번째 dimension이 목적지와 일치하면 다음 plane으로 이동
  • 마지막 dimension까지 routing 후 packet은 목적지에 도달

deadlock-free를 보장하기 위해 각 plane 내의 virtual channel은 증가 방향과 감소 방향으로 나뉜다:

  • 증가 방향: di,2⁺, di+1,0
  • 감소 방향: di,2⁻, di+1,1

packet은 증가가 필요하면 증가 방향 채널만 사용하고, 감소 시에는 감소 방향 채널만 사용한다.


14.3 Adaptive Routing 

앞 절까지는 resource dependence graph에서 cycle을 제거하여 deadlock을 막는 구조였으며, 일부는 adaptive routing algorithm으로 자연스럽게 표현할 수 있다.

예:

  • west-first routing은 packet이 west 방향으로 이동할지 여부를 network 상황에 따라 adaptive하게 결정할 수 있다.
  • 일부 buffer class 기반 방법도 adaptive 요소를 포함할 수 있다.

그러나 이 절의 초점은 다음의 중요한 차이에 있다:

Adaptive routing은 cyclic resource dependence graph를 허용하면서도 deadlock-free가 될 수 있다.

이 개념은 path 다양성 감소 없이도 deadlock을 피할 수 있게 해 준다.


14.3.1 Routing Subfunctions and Extended Dependences

deadlock-free를 유지하면서도 cycle이 있는 dependence graph를 허용할 수 있는 핵심 아이디어는 다음과 같다:

모든 potential cycle에 대해 escape path를 제공하는 것이다.

즉, packet이 cycle에 갇힐 상황이 되어도, 탈출 가능한 deadlock-free 경로가 존재한다면 전체 네트워크는 deadlock-free 상태로 유지된다.

 

예제: 2D Mesh에서의 Escape Path 기반 Routing

flit-buffer flow control을 사용하고, 각 physical channel에 2개의 virtual channel을 둔 2D mesh를 예로 들어보자. channel은 xydv 형태로 표현되며, 이는 노드, 방향, virtual channel class를 의미한다. 예: 10e0는 node 10의 east 방향 virtual channel class 0이다.

Routing 규칙은 다음과 같다:

  1. 모든 routing은 minimal이어야 한다.
  2. class 1의 virtual channel(xyd1)은 어떤 방향의 어떤 class로도 route 가능
  3. class 0의 virtual channel(xyd0)은 목적지에서 class 1으로만 route 가능
  4. class 0의 virtual channel은 dimension order(x 먼저, 그다음 y)로만 class 0으로 route 가능

즉, source나 destination 중 하나라도 class 1이면 자유롭게 route 가능하지만, 둘 다 class 0이면 dimension order만 허용된다.

Figure 14.16은 위 규칙을 따르는 네 개 노드에 대한 virtual channel dependence graph를 보여준다. 00e0 → 10n0 → 11w1 → 01s1 → 00e0 의 cycle이 존재하지만, 각 packet은 escape path를 통해 cycle을 회피할 수 있다.

예를 들어 packet A는 00e0과 10n0을, packet B는 11w1과 01s1을 점유하고 있다고 하자. 만약 A가 11w1을 기다리고, B가 00e0을 기다리면 deadlock이 될 수 있다. 하지만 A는 11n0으로 route 가능하므로 escape path가 존재한다. 이러한 escape 경로가 있는 한, 그리고 packet이 busy 자원에 대해 기다리지 않는다면, deadlock은 발생하지 않는다.


Indirect Dependence

만약 규칙 1(minimal routing)이 없고 non-minimal routing이 허용된다면, indirect dependence에 의해 escape path에서도 cycle이 발생할 수 있다.

예를 들어 Figure 14.16에서 packet A가 00e0을 점유하고, packet B가 non-minimal 경로를 따라 10n0 → 11w1 → 01s1 을 점유하면, B는 00e0을 요구하게 되어, 00e0 → 10n0 → 11w1 → 01s1 → 00e0 형태의 indirect cycle이 형성된다.

이런 경우, escape path가 더 이상 deadlock-free를 보장하지 못한다.

해결 방법: escape channel 간에는 명시적인 순서를 부여하고, b ≼ a 인 escape channel로는 route를 금지한다. 예: class 1의 route는 minimal하게 제한함으로써 indirect dependence를 차단할 수 있다.

참고로, indirect dependence 문제는 flit-buffer flow control에서만 발생하며, packet-buffer flow control에서는 packet이 한 번에 하나의 buffer만 점유하므로 해당되지 않는다.


형식적 정의: Extended Dependence Graph

Adaptive routing을 위한 형식적인 deadlock-free 조건:

  • 전체 routing relation R : C × N → P(C)
  • escape routing subrelation R₁ ⊆ R, 해당 채널 집합 C₁ ⊆ C
  • R₁은 connected하고, extended dependence graph에 cycle이 없어야 함
  • 나머지 routing 관계는 Rᶜ = R − R₁

Extended Dependence Graph 정의:

  • vertex: C₁에 속한 virtual channel
  • edge:
    • direct dependence: ci → cj, if cj ∈ R₁(ci, x)
    • indirect dependence: ci → cj, 경로가 R₁ → Rᶜ(하나 이상) → R₁로 이어질 경우 발생

예: Figure 14.16에서 non-minimal 경로를 따라간 경우 indirect dependence가 발생

간단한 해결책: R₁에서 Rᶜ로의 전환을 금지하면 indirect dependence가 제거됨


Theorem 14.1 (Duato의 정리)

adaptive routing relation R이 deadlock-free가 되기 위한 조건:

연결된 routing subrelation R₁이 존재하고, R₁의 extended dependence graph에 cycle이 없다면 R은 deadlock-free이다.

이 정리는 wormhole flow control뿐 아니라 store-and-forward, cut-through network에도 적용된다. store-and-forward에서는 packet이 여러 채널을 동시에 점유할 수 없기 때문에 indirect dependence가 사라지고, direct dependence만 고려하면 된다.


14.3.2 Duato’s Protocol for Deadlock-Free Adaptive Algorithms

Duato의 정리는 이론적 기반을 제공하지만, 이를 실제 network 설계에 적용하는 구체적인 방법은 아래와 같다.

Duato의 프로토콜은 세 단계로 구성된다:

  1. 기반 네트워크 설계: deadlock-free가 되도록 설계한다. 예: torus에서는 virtual resource를 추가해 cycle 제거
  2. virtual resource 확장: 각 physical resource에 새로운 virtual resource를 추가한다.
    • wormhole: virtual channel
    • store-and-forward: buffer
      기존 virtual resource는 escape routing(R₁)을, 새로운 virtual resource는 일반 routing(Rᶜ)을 담당
  3. flow control에 따른 제한:
    • packet-buffer flow control: Rᶜ에 제한 없음
    • flit-buffer flow control: R₁의 extended dependence graph가 acyclic해야 함

Duato의 방식은 보통 R₁을 dimension-order routing으로 설정하여 minimal adaptive routing 알고리즘을 구현하는 데 사용된다. 예를 들어, 3-ary 2-mesh에서 wormhole flow control과 함께 dimension-order routing을 escape path로 설정할 수 있다.

 

14.4 Deadlock Recovery

앞서 살펴본 방법들은 deadlock이 발생하지 않도록 사전에 방지하는 방식이었다. 이러한 방법은 routing 제약이나 자원 추가를 통해 cyclic dependence를 제거한다. 그러나 또 다른 접근법은 deadlock을 회피하지 않고, 발생 후 복구하는 것이다. 추가 자원 확보가 어렵거나 routing 제약에 따른 성능 저하가 우려되는 경우 이 접근법이 유리할 수 있다. 물론 deadlock이 드물게 발생하고 평균 성능이 중요할 때 적절하다.

deadlock recovery는 크게 두 단계로 나뉜다:

  • 탐지(detection): 네트워크가 deadlock 상태인지 판단
  • 복구(recovery): deadlock을 해제

탐지를 위해 wait-for graph 내 cycle을 찾는 것은 어렵고 비용이 크므로, 현실적 시스템에서는 보수적 탐지 방식을 사용한다. 보수적 탐지는 실제 deadlock인 경우는 반드시 탐지하지만, deadlock이 아닌 상태도 잘못 탐지할 수 있다(false positive). 일반적으로 timeout counter를 통해 구현한다. 각 자원에 counter를 설정하고, 전송이 발생하면 리셋한다. 일정 시간 동안 전송이 없으면 deadlock으로 간주하고 복구 단계를 시작한다.


14.4.1 Regressive Recovery

Regressive recovery에서는 deadlock된 packet이나 connection을 네트워크에서 제거한다.

예:

  • circuit switching: 부분적으로 설정된 연결들 중 cycle을 형성한 경우 timeout이 초과되면 관련 연결을 해제하고 재시도한다.
  • compressionless routing (wormhole 기반): flit이 끝까지 전송될 때까지 timeout을 측정하고, 시간 초과 시 해당 packet을 제거하고 재전송한다. 이를 위해 padding flit을 덧붙여 head가 목적지에 도달했음을 보장한다.

단점: 짧은 packet이 많을 경우 padding이 과도하게 들어가 throughput이 저하된다.


14.4.2 Progressive Recovery

Progressive recovery는 packet을 제거하지 않고 deadlock을 해제한다. 자원 낭비 없이 높은 성능을 기대할 수 있고, 반복 전송으로 인한 livelock 위험도 없다.

예: DISHA 아키텍처

  • 각 노드에 shared escape buffer를 둠
  • suspected deadlock 상황이 감지되면 해당 buffer를 통해 packet을 drain
  • escape buffer는 deadlock-free routing sub-function에 의해 동작

Duato의 방식이 하드웨어로 구현된 예다. virtual channel이나 buffer가 값비싼 자원인 시스템에서는 이 접근이 유리하지만, 어떤 시스템에서는 shared buffer 도입 자체가 더 비쌀 수 있다.


14.5 Livelock

Livelock은 packet이 계속 움직이지만 목적지에 도달하지 못하는 상태이다. non-minimal routing에서 misroute 제한이 없으면 무한히 돌아다닐 수 있다. 또한 dropping flow control에서도 재입장 시마다 packet이 버려지면 목적지 도달이 불가능하다.

해결 방법:

  • Deterministic avoidance: packet에 misroute 횟수 또는 age 기반 priority를 부여
    • misroute count가 임계값에 도달하면 더 이상 misroute 불가
    • age priority 방식은 일정 시간이 지나면 packet이 가장 높은 우선순위를 가지므로 도달 가능
  • Probabilistic avoidance: packet이 T 사이클 동안 네트워크에 남아있을 확률이 T → ∞일 때 0으로 수렴하도록 설계
    • 예: 2-ary k-mesh, deflection routing, 단일 flit packet의 경우
      최대 이동 거리 Hmax = 2(k−1)
      history string에서 목적지 방향 이동 횟수 t와 deflection 횟수 d의 차이가 Hmax를 넘으면 도달 보장
      목적지 방향으로의 routing 확률이 항상 0보다 크다면, 결국 도달 확률은 1에 수렴

14.6 Case Study: Cray T3E에서의 Deadlock Avoidance

Cray T3E는 T3D의 후속 모델로, Alpha 21164 프로세서를 기반으로 최대 2,176개의 노드까지 확장 가능하다. topology는 3D torus이며, 기본적으로 8×32×8 3-cube로 구성되어 2,048개의 노드를 포함하며, 나머지는 redundancy 및 운영 체제 노드로 구성된다.

주요 설계 특징:

  • T3E router는 CMOS ASIC으로 구현되어 ECL 기반보다 느리지만 latency 허용폭 증가로 보완
  • adaptive routing을 사용하여 T3D의 dimension-order routing보다 throughput 향상 및 fault-tolerance 개선
  • Duato의 protocol 적용
    • cut-through flow control 사용
    • 각 노드에는 최대 길이 packet을 저장할 수 있는 충분한 buffer 보유
    • 따라서 indirect dependence가 존재하지 않음 → routing sub-function이 deadlock-free면 전체도 deadlock-free

Routing sub-function: Direction-order routing

  • +x → +y → +z → -x → -y → -z 순서
  • packet header의 3비트를 통해 각 방향의 증가/감소 여부 지정
  • +에서 −로는 전환 가능하나, −에서 +로는 불가 → mesh에서 deadlock 없음

Fault tolerance 향상 기법

  • Initial hop: 시작 시 어느 증가 방향으로든 이동 가능
  • Final hop: 모든 이동 후 −z 방향 허용
  • Figure 14.18에서 faulty link를 우회하여 패킷이 목적지 도달 가능

Torus에서의 Deadlock 방지: Dateline 방식

  • 각 dimension에 dateline 지정
  • dateline을 넘는 packet은 VC0에서 시작해 dateline 이후 VC1로 전환
  • dateline을 넘지 않는 packet은 VC0 또는 VC1 중 하나 선택
  • VC 선택은 부하 균형을 목표로 최적화
    • 특정 physical channel의 VC별 packet 수를 균형 맞춤
    • Simulated annealing 기법으로 VC assignment 최적화 수행

Figure 14.18 설명

Figure 14.18은 direction-order routing 전에 initial hop을 허용함으로써 fault-tolerance가 어떻게 향상되는지를 보여준다. 회색 경로는 기본 direction-order routing이며, faulty channel(X 표기)을 통과한다. 그러나 −y 방향으로 initial hop을 한 후 우회 경로(굵은 선)를 통해 node 20에서 node 03으로 도달할 수 있다.


T3E의 virtual channel 구성 요약

  • 2개 VC: torus 내 각 dimension의 dateline deadlock 방지
  • 2개 VC: request / reply message용 별도 virtual network 구성 (high-level deadlock 방지)
  • 1개 VC: minimal adaptive routing용
    → 총 5개 virtual channel이 T3E에서 사용됨

14.7 Bibliographic Notes

  • 초기 deadlock-free 네트워크 연구에서는 자원을 번호 매겨 순서대로 접근하는 방식이 제안됨
  • Linder와 Harden은 차원이 늘어날수록 필요한 virtual channel 수가 지수적으로 증가하는 adaptive routing deadlock-free 방법을 개발
  • Glass와 Ni는 제한된 adaptivity를 허용하면서도 deadlock-free인 turn model을 제안
  • Dally와 Aoki는 일부 non-minimal 경로와 제한된 dimension reversal을 허용하는 방법 제안
  • Duato는 extended channel dependence graph를 도입하고, deadlock-free adaptive routing을 위한 이론을 확립
    • 이 방법은 Cray T3E, Reliable Router, Alpha 21364 등에 적용됨
  • Planar adaptive routing은 제한된 자원으로 deadlock-free를 달성할 수 있는 구체적 예시
  • Irregular topology에서는 up*/down* 알고리즘이 사용되며, DEC AutoNet에 적용된 바 있음
  • Compressionless routing은 circuit switching 개념을 응용한 deadlock recovery 방식으로, Kim 등이 제안
  • DISHA는 Duato 기반의 하드웨어 복구 방식
  • VC 불균형 문제는 torus에서 특히 문제가 되며, Cray는 simulated annealing으로 VC 할당을 최적화함

14.8 Exercises (연습 문제 안내)

몇 가지 주요 연습문제 설명:

  • 14.1: Figure 14.5의 네트워크에서 어떤 VC든 먼저 비는 쪽으로 선택 가능한 경우 deadlock configuration의 wait-for graph를 그려라.
  • 14.2: 여러 oblivious routing 알고리즘이 deadlock-free인지 판단. channel dependence graph를 분석.
  • 14.3: Figure 14.13(c)의 네 번째 turn 제거 방식이 왜 deadlock-free가 아닌지 설명.
  • 14.4: turn model로 deadlock-free를 보장하려면 최소 몇 개의 turn을 제거해야 하는지 하한선 도출.
  • 14.6: ring에서 dateline 방식의 virtual channel 불균형 문제를 해결하는 deadlock-free routing 알고리즘 설계.
  • 14.7: planar adaptive routing이 k-ary n-mesh에서 deadlock-free임을 증명.
  • 14.8: Fault-tolerant planar adaptive routing (FPAR)의 두 가지 case 분석을 통해 plane 간과 내부에서 deadlock-free를 보장하는지 검증.
  • 14.9: Cray T3E의 direction-order routing이 deadlock-free임을 채널 나열로 증명하고, initial/final hop 확장이 deadlock-free인지 추가 검증.
  • 14.10: dimension traversal 순서가 완전히 랜덤인 routing에서 n! VC 대신 적은 수로 deadlock-free를 유지할 수 있는 방법 찾기.
  • 14.11: multi-flit packet이 있는 deflection routing에서는 probabilistic 방식이 livelock-free를 보장하지 않는 이유 설명.
반응형

'System-on-Chip Design > NoC' 카테고리의 다른 글

Router Architecture  (2) 2025.06.05
Quality of Service  (1) 2025.06.05
Buffered Flow Control  (1) 2025.06.05
Flow Control Basics  (2) 2025.06.02
Routing Mechanics  (2) 2025.06.02
반응형

Abstract

지속적인 기술 미세화는 높은 확장성, 모듈성, 성능을 갖춘 heterogeneous system-on-chip (SoC)homogeneous chip-multiprocessor (CMP)networks-on-chip (NoCs) 패러다임 기반으로 구현할 수 있는 유망한 가능성을 제공한다. 이러한 시스템에서는 계산 자원보다 통신 자원의 스케줄링 및 관리가 주요 설계 및 구현상의 과제가 되는 경우가 많다. 또한 이와 같은 시스템의 adaptive packet routing은 routing deadlock에 취약하며, 이는 성능 저하 또는 시스템 실패로 이어질 수 있다. 지금까지의 연구는 주로 설계 시점(design-time)에서의 복잡한 데드락 회피 접근법 또는 run-time의 단순한 휴리스틱 기반 검출 및 복구 방법에 집중되어 왔다. 그러나 후자의 방식은 네트워크에 대한 국소적(local) 또는 부분적(partial) 정보만을 고려하기 때문에, 특히 네트워크가 포화 상태에 가까울 때 차단된 패킷을 데드락으로 잘못 판단하는 오탐(false detection)이 많이 발생할 수 있다.

이 장에서는 데드락 회피가 아닌 데드락 검출 및 복구 전략을 다룬다. 특히 deadlock-equivalence set이라는 개념을 기반으로 런타임 transitive-closure (TC) 계산을 이용해 데드락 존재 여부를 판별하는 기법을 제안한다. 이 방법은 기존의 근사 및 휴리스틱 방법과는 달리 오탐 없이 모든 실제 데드락을 탐지할 수 있다.

또한 제안된 방법을 효율적으로 구현하기 위한 분산형 TC-network 아키텍처를 소개하며, 해당 하드웨어 구조 및 회로도도 자세히 설명한다. cycle-accurate 시뮬레이터를 기반으로 한 결과는 이 기법의 높은 효과성을 보여준다. 기존의 타이밍 기반 데드락 검출 방식에 비해 오탐을 제거함으로써 재전송으로 인한 에너지 낭비를 줄이고, 실제 응용 시나리오에서도 뛰어난 성능을 보인다.


3.1 Introduction

Networks-on-Chip (NoCs)on-chip 통신 구조 아키텍처로서, 네트워크 이론 및 기법을 단일 칩에 통합된 VLSI 시스템에 적용한 것이다. 이 아키텍처는 라우터(router)포인트-투-포인트 데이터 링크(channel)들로 구성된 네트워크이며, 라우터는 각기 다른 IP 코어들과 연결된다. 이 IP 코어는 프로세서, 메모리 모듈, DSP 블록 등을 포함할 수 있다.

이러한 분산된 IP 코어 간의 통신은 일반적으로 packet-switching 방식으로 수행되며, 메시지는 일정 크기의 packet 또는 flit으로 분할되어 라우터에서 라우터로 전달된다. NoCs는 기존의 버스 기반 인터커넥션에 비해 성능, 유연성, 확장성, 전력 효율 면에서 큰 이점을 제공한다. 그러나 라우터 네트워크 내에서의 deadlock은 통신 병목을 일으켜 성능 저하나 시스템 실패를 초래할 수 있다.

 

Deadlock은 두 개 이상의 packet(agent)이 서로의 자원(channel)을 기다리며 교착 상태에 빠지는 상황이다. 만약 패킷들 간의 의존성 순환(dependency cycle)이 형성되면 네트워크는 deadlock 상태가 된다. 예를 들어, Fig. 3.1과 같은 네 개의 패킷이 각각 어떤 채널은 점유하고 있으나, 다음 진행을 위해 다른 패킷이 점유한 채널을 요청하고 있는 상황을 생각해 보자. 이러한 경우 어느 누구도 필요한 채널을 얻지 못하고 교착 상태에 빠지게 되며, 이 순환을 외부에서 끊어주기 전까지는 해당 채널 모두 정지 상태로 유지된다.

deadlock은 네트워크의 자원을 정지시키고 다른 패킷들의 block 확률을 증가시키므로 반드시 제거되어야 한다. 이를 해결하는 전략은 크게 두 가지가 있다:

  • deadlock avoidance (회피)
  • deadlock recovery (복구)

deadlock avoidance에서는 네트워크 전체가 deadlock-free 상태를 유지하도록 패킷에 자원을 부여한다. 이 방식은 turn model을 기반으로 하여 특정 방향 전환을 제한하거나, virtual channels (VCs)의 엄격한 순서를 기반으로 deadlock을 방지한다. 하지만 일반적으로 avoidance 기법은 routing function에 제약을 두거나 추가 자원(예: VCs)을 필요로 한다. turn model은 단순하기 때문에 NoC에서 자주 사용되지만, routing 선택의 다양성을 제한하고 fault tolerance 능력을 떨어뜨린다. 더불어 이 방식은 임의의 네트워크 토폴로지에는 적용하기 어렵다.

 

 

한편, deadlock recovery 방식은 routing에 제한 없이 패킷에 채널을 할당하므로, 성능 면에서 avoidance 기법보다 우수할 수 있다. 이 경우 deadlock이 실제로 발생할 수 있기 때문에, 이를 효과적으로 검출하고 복구하는 메커니즘이 필요하다. 그러나 deadlock은 분산된 방식으로 발생하므로, 네트워크 전체에서 이를 검출하는 것은 매우 어려운 과제다. 일반적으로 timeout 기반 heuristic이 사용되며, 각 채널의 활동을 감시하여 일정 시간 이상 변화가 없으면 deadlock으로 추정한다. 하지만 이러한 방식은 네트워크가 포화 상태에 가까울 때 차단된 패킷을 잘못 탐지할 가능성이 크다.

기존의 일반 컴퓨터 네트워크에서는 timeout 방식의 한계를 줄이기 위한 다양한 기법이 제안되어 왔으나, threshold 값을 적절히 설정하는 것은 네트워크 설정에 따라 매우 어려운 일이다.

하지만 on-chip 네트워크에서는 노드 간 제어 신호를 패킷 외 별도의 전용선(dedicated wires)으로 전달할 수 있는 장점이 있다. 본 장에서는 이 NoC 특성을 활용하여 오탐 없는 정확한 deadlock 검출 기법을 제안한다. 이 방식은 runtime transitive-closure (TC) 계산을 통해 deadlock-equivalence set의 존재를 탐지하며, 제안된 구조는 NoC 인프라와 긴밀하게 연동되는 분산형 구조로 구현 가능하다. 이로 인해 추가적인 통신 트래픽 없이도 빠르게 계산을 수행할 수 있다. 본 연구의 초기 결과와 아키텍처 스케치는 [1]에 제시되었고, [2]에서는 TC 계산 기반의 이론적 프레임워크와 하드웨어 구조, 실생활 응용 사례에 대한 실험 결과가 포함되어 있다.


3.2 Related Work

NoC에서의 deadlock recovery에 관한 연구는 드물며, 대부분의 관련 정보는 일반 컴퓨터 네트워크 분야에서 차용되었다. [27, 33]에서는 라우팅의 자유도가 충분히 보장되고 이를 알고리즘이 충분히 활용하는 경우, deadlock이 발생할 가능성이 매우 낮다고 보고하였다. 따라서 드문 경우의 이벤트인 deadlock을 방지하기 위해 turn model을 사용하여 routing의 유연성을 제한하거나【9,10, deadlock 방지를 위한 VC 전용 구조를 설계하는 것은 바람직하지 않다는 결론을 내렸다【14,15】. 이후부터는 효율적인 검출 및 복구 메커니즘이 존재한다는 가정 하에, deadlock recovery가 avoidance보다 성능 면에서 유리하다는 점이 주목받게 되었다【22, 24, 25, 30】.

deadlock recovery는 두 단계로 구성된다:

  1. 검출 (Detection)
  2. 복구 (Recovery)

검출 단계에서는 runtime 동안 deadlock dependency cycle을 탐지해야 한다. 그러나 deadlock은 분산적으로 발생하기 때문에 runtime 탐지는 매우 어려우며, 대개 timeout 메커니즘을 사용한 분산 방식으로 구현된다【3,4,18,21,22,24,25,30】. 간단한 예로, 어떤 채널이 일정 시간 동안 비활성 상태라면 deadlock 상태일 가능성이 있다고 간주하여 recovery 절차를 시작한다【3】. 이를 구현하기 위한 최소 하드웨어 구성은 카운터, 비교기(comparator), 래치(latch), threshold 값을 저장하는 레지스터이다. 이 방식에서의 정확도는 네트워크 부하와 메시지 길이에 민감하다. threshold 시간이 길면 정확도가 높지만 deadlock 탐지에 시간이 오래 걸리고, 반대로 짧으면 빠른 탐지는 가능하지만 오탐율이 올라간다【25】. 오탐이 많아지면 recovery 전용 채널이 포화되어 네트워크 성능이 오히려 저하될 수 있다【25】.

이 문제를 해결하기 위한 여러 기법이 제안되었다. 예를 들어 [24]에서는 block된 패킷이 요청하는 모든 채널이 일정 시간 비활성 상태일 때만 deadlock으로 간주하며, [25]에서는 block된 패킷 중 단 하나만을 deadlock으로 식별하는 방법으로 오탐률을 줄이고자 한다. 그러나 이 방식은 추가 하드웨어(비교기 2개, 래치 2개, threshold 2개)가 필요하다. [30]에서는 probe 패킷을 통해 비활성 채널을 탐색하여 보다 정확한 검출을 시도했다. 그러나 이들 모두 timeout 기반이며, traffic 및 network load에 따라 적절한 threshold 값을 조정하기 어렵다는 공통의 한계가 있다.

따라서 오탐 없이 deadlock을 정확히 검출할 수 있고, 네트워크 상태와 무관하게 빠르게 작동할 수 있는 새로운 방식이 요구된다.


3.3 Methodology for Deadlock Detection

이 절에서는 본 장에서 제안하는 deadlock-equivalence set(DES) 개념과 전체적인 deadlock 검출 방법론을 제시한다.


3.3.1 Background and Assumptions

본 연구는 minimal path를 사용하는 fully adaptive routing algorithm을 가정한다. 여기서 minimal은 송신자와 수신자 간의 최단 경로만을 선택함을 의미한다. 또한 wormhole flow control 방식을 사용하며, 이는 NoC에서 널리 사용되는 기법이다【12, 29】. wormhole 방식에서는 packet이 더 작은 단위인 flit으로 나뉘며, header flit이 먼저 경로를 설정하고 나머지 flit들이 그 경로를 따라 파이프라인 방식으로 이동한다. 이 방식은 각 라우터의 버퍼 수요를 줄이는 장점이 있으나, 네트워크를 block과 deadlock에 더 취약하게 만든다【26, 33】.

본 연구에서는 deadlock avoidance 기법을 사용하지 않고, 정확한 deadlock detection을 전제로 한 deadlock recovery 전략을 채택하였다. 기존 연구들【3, 22, 24, 25, 30】과 동일하게, 본 연구에서는 하나의 채널 버퍼에는 서로 다른 packet의 flit이 공존하지 않는다고 가정한다. 또한 목적지에 도달한 packet은 즉시 소비된다고 간주하여, NoC와 IP core 간의 프로토콜 상호작용 수준에서는 deadlock이 없다고 본다.

이 연구의 초점은 라우팅 수준에서 발생하는 deadlock이며, 향후 과제로는 IP core 간 프로토콜 상호작용으로 인해 발생할 수 있는 deadlock까지 검출 대상을 확장하는 것을 계획하고 있다. 이 장에서는 channel 자원을 소유하거나 요청하는 agent를 flit으로 정의하지만, 이는 message 또는 packet으로 간주해도 무방하다.

 

3.3.2 Deadlock에 대한 Equivalence Set 기준

 


정의 및 차이

구분                                 Injection Channel                                                               Delivery Channel

 

방향 IP → 라우터 (네트워크로 "주입") 라우터 → IP (네트워크에서 "수신")
역할 IP 코어가 패킷을 생성해서 NoC로 보내는 경로 목적지 라우터가 패킷을 IP 코어로 전달하는 경로
연결 IP의 출력 → 라우터의 입력 라우터의 출력 → IP의 입력
예시 CPU가 메모리에 데이터를 저장하기 위해 패킷을 보냄 메모리 컨트롤러가 CPU에게 데이터를 돌려줌
 

흐름 예시 (패킷 흐름)

  1. Injection:
    • IP 코어(예: CPU)가 flit/packet을 생성
    • 이 flit은 injection channel을 통해 해당 라우터에 주입됨
    • 라우터는 이를 네트워크 내부로 전파
  2. Delivery:
    • 패킷이 목적지 라우터에 도착
    • 라우터는 패킷을 delivery channel을 통해 해당 IP 코어(예: 메모리)에 전달

그림으로 요약하면:

scss
복사편집
[IP 코어] →(injection channel)→ [라우터] →(NoC)→ [라우터] →(delivery channel)→ [목적지 IP 코어]

 

3.3.3 Equivalence Set 계산 복잡도

앞 절에서 살펴본 바와 같이 (자세한 내용은 [2] 참조), deadlock-equivalence set (DES)은 deadlock을 검출하는 데 있어 간단한 기준을 제공한다. 이 기법은 네트워크에서 CWG(Channel Wait-for Graph)를 생성하고, 그로부터 transitive-closure (TC)를 도출한 후, DES 조건(Eq. 3.1)을 만족하는 채널들을 식별하는 방식이다.

Fig. 3.3은 이 개념을 시각적으로 설명한다.

어떤 특정 상태의 네트워크(Fig. 3.3a)가 주어졌을 때, 해당 CWG(Fig. 3.3b)를 쉽게 도출할 수 있다. 이어서 얻은 TC 그래프(Fig. 3.3c)는 self-reflexive 경로를 가진 네 개의 채널(vertex)를 명확히 보여주며, 이들은 모두 DES 조건을 만족한다.

 

Algorithm 1 설명

DES 존재 여부를 TC 계산을 통해 확인하는 소프트웨어 알고리즘

  • 입력
    • CC: CWG의 vertex(채널) 집합
    • EE: CWG의 edge 집합
  • 출력
    • self-reflexive path를 갖는 DES가 존재하면 True, 그렇지 않으면 False

 

이 알고리즘은 세 개의 중첩 루프를 포함하며, 내부 루프는 O(n) 연산을 수행한다.

  • 2–10행에서는 방향 그래프(CWG)를 **Boolean Adjacency Matrix AA**로 변환한다.
  • 12–18행에서는 **transitive-closure TT**를 계산한다. 이때 Tk[i][j]T^k[i][j]는 다음 중 하나일 경우에 True가 된다:
    1. Tk−1[i][j]T^{k-1}[i][j]가 이미 참인 경우 (즉, 이전에 경로가 존재했던 경우)
    2. i→ki \to k 경로와 k→jk \to j 경로가 동시에 존재하는 경우
  • 19–23행에서는 TC 행렬 내에서 **자기 자신을 가리키는 self-reflexive path T[i][i]=TrueT[i][i] = True**가 하나라도 존재하는지 확인한다. 있다면 True를 반환하여 DES 존재를 알린다.

계산 비용 분석

  • 소프트웨어 상 계산 복잡도:
    • 시간 복잡도: O(n3)O(n^3) (CWG의 vertex 수인 nn은 네트워크 채널 수와 동일함)
    • 공간 복잡도: O(n2)O(n^2)
  • 하드웨어 가속 가능성:
    • 기존 연구에서는 O(n2)O(n^2)개의 processing element를 갖는 systolic array 구조를 통해 O(n)O(n) 시간에 TC 계산이 가능하다고 보고되었다【19】.
  • 본 연구에서는:
    • 이러한 복잡도를 간소화하기 위해 NoC의 분산 아키텍처를 활용하여 TC 계산을 구현함

이러한 분산형 접근은 복잡도 저감, 하드웨어 병렬성 활용, 네트워크 오버헤드 최소화라는 장점을 제공한다.

 

3.4 Transitive Closure (TC) 네트워크 아키텍처

3.4.1 TC-Network 기반의 TC 계산

동적 프로그래밍(Dynamic Programming, DP)은 TC(Transitive Closure) 계산 문제에 대한 해를 제공할 수 있으며【11】, 병렬 아키텍처를 활용한 계산에 적합하다. 이 TC 계산을 병렬 처리 플랫폼에 매핑하는 방법으로 TC-network 개념을 도입한다. 이 네트워크는 병렬 아키텍처를 가지며, 연쇄적인 추론 전파를 동시에 수행함으로써 TC를 계산할 수 있다.

Lam과 Tong은 DP-network 구조를 제안하여, 비동기적이며 연속 시간 기반 계산 문맥에서 다양한 그래프 최적화 문제를 해결하였다【20】. 이러한 추론 네트워크는 항상 안정적인 동작을 보이며, 본 연구에서는 해당 네트워크 개념을 NoC의 런타임 DES 탐지에 적용하였다. 제안된 TC-network는 기존 DP-network처럼 분산 아키텍처로 구현 가능하며, NoC 인프라와 밀접하게 결합되어 작동할 수 있다.

TC-network는 자율 연산 유닛(computational unit)들을 상호 연결하여 구성되며, Fig. 3.4는 이러한 일반적인 inference 네트워크 내 유닛 구조 및 링크 구성을 보여준다. 각 유닛은 두 객체 간 이진 관계 (i,j)(i, j)를 표현하고, 주변의 hh개의 이웃 유닛들로부터 값을 받아 site function을 통해 추론 연산을 수행한다. 이때 Sk(i,j)S_k(i, j)kk번째 site의 출력이며, g(i,j)g(i, j)는 유닛 (i,j)(i, j)의 출력이다. TC 계산은 다음과 같이 정의된다:

여기서 ∧(AND)는 site function의 추론 연산자이며, ∨(OR)는 unit function의 충돌 해소 연산자이다. 각 유닛은 라우터 노드를, 링크는 통신 채널을 나타내며, NoC 구조와 동일한 방식으로 유닛들이 상호 연결된다.

TC-network의 수렴 시간(convergence time)DES 크기와 네트워크 토폴로지에 따라 달라진다. 이는 NoC 내부의 정보 전파 지연 및 각 유닛의 연산 지연에 영향을 미친다. 각 유닛은 인접 edge 수를 |A|라 할 때, O(|A|)개의 AND 연산과 1개의 OR 연산을 수행한다. 따라서 연산 시간은 O(k|A|)이고, 여기서 k는 각 유닛이 반복적으로 갱신되는 횟수이다. 소프트웨어에서는 보통 k = 노드 수로 설정되어 모든 노드가 업데이트되도록 보장한다. 하지만 하드웨어 병렬 구현에서는 k가 네트워크 구조에 따라 결정되며, |A|개의 AND 연산은 병렬로 실행된다.


표 3.1: 다양한 네트워크 토폴로지에서의 DES 분석

네트워크 토폴로지노드 수채널 수최소 DES 크기최대 DES 크기
k-ary 1-cube k 2k k k
k-ary 2-cube k2k^2 4k24k^2 4 3k2−83k^2 - 8
k-ary 2-mesh k2k^2 4k2−4k4k^2 - 4k 4 3k2−3k−23k^2 - 3k - 2

 

 
  • 예) k-ary 1-cube(ring)는 최대 채널 수 2k이며, 유일한 DES는 길이 k의 종속 순환
  • 2D mesh에서는 최소 DES는 4개 노드, 최대 DES는 3k2−3k−23k^2 - 3k - 2

DES 크기 및 분포는 검출 시간에 큰 영향을 미친다.


3.4.2 TC-Network와 NoC의 결합

TC-network는 on-chip 네트워크 구조에서 각 노드에 TC-unit을 배치하여 구현된다. 일반적인 컴퓨터 네트워크와 달리, NoC에서는 전용 제어선(wires)을 통해 라우터 간 제어 정보를 직접 교환할 수 있다.

Fig. 3.5는 제안된 TC-network 구조를 보여주며, 각 노드에 TC-unit과 TC-interconnect가 구성되어 있다. 예시로는 2D mesh를 들고 있으나, 이는 Definition 2 조건만 만족하면 임의의 토폴로지에도 적용 가능하다. 각 TC-unit은 각 채널에 대해 Eq. 3.2와 3.3을 수행하고, 그 출력은 이웃 유닛으로 전달된다. 이러한 TC-unit은 NoC 라우터와 런타임 정보(채널 점유 상태, 요청 상태 등)를 교환하며 밀접하게 동작한다.

deadlock 검출의 목적은 recovery 메커니즘을 트리거하는 것이다. 각 DES에서 하나의 패킷만 복구해도 deadlock 순환을 깰 수 있다. 하지만 네트워크 전체에 대해 TC 계산을 수행하면, 동일 DES에 속하는 모든 채널이 동시에 검출되며, 이로 인해 recovery 오버헤드가 증가할 수 있다.

예를 들어 Fig. 3.3c에서는 ch1, ch5, ch7, ch9에 self-reflexive 경로가 존재하며 모두 동일한 DES에 속한다. 이를 줄이기 위해 경량화된 계산 방식으로 각 채널에 대해 self-reflexive path가 존재하는지 여부만 검사할 수 있다. 이 경우, 상호 배제 회로(mutual exclusion circuit) 기반으로 몇 개의 logic gate와 wires만으로 TC-network를 구현할 수 있다.

  • TC-network 내에서 오직 하나의 채널만 동시에 검사
  • 채널은 token-ring 프로토콜을 사용해 순차적으로 검사
  • mesh 및 torus 네트워크의 경우, Hamiltonian cycle 기반 경로 사용 가능【2, 3】
  • 토큰 링은 **비동기 회로(asynchronous circuit)**로 구현되며, 라우터 클록을 공유하는 동기식은 권장되지 않음

이러한 비동기 방식은 TC-unit과의 동기화 회로를 요구하며, 이는 3.4.3에서 설명됨.


토큰이 순환하면, 이는 목적지를 바꾸면서 여러 source에서 하나의 목적지를 찾는 문제와 동일하다. TC-unit이 토큰을 획득하면, 해당 라우터의 채널들을 검사하기 시작하고, 다른 유닛들은 채널 종속 관계에 따라 test 신호를 이웃으로 전달한다. 이 방식은 TC-network를 self-pruning 구조로 만들어 전력 소모를 줄일 수 있다.

Algorithm 2TC-unit의 동작을 요약한 의사코드(pseudocode)이다.


Algorithm 2: TC-unit 연산의 의사코드

  • 정의
    • par: 병렬 연산
    • n: 이웃 라우터에서 오는 채널 수
    • m: 이웃 라우터로 나가는 채널 수
    • tp[m]: 임시 버퍼
  • 입력
    • tc_rx[n]: 이웃 라우터로부터의 TC-network 신호
    • ch_oc[n]: 로컬 라우터의 채널 점유 상태
    • ch_req[n][m]: 로컬 라우터의 채널 요청 상태
    • ch_sel[m]: self-reflexive 검사를 위한 채널 선택
  • 출력
    • tc_tx[m]: 이웃 라우터로 전달되는 TC-network 신호
    • dd_flags[m]: 로컬 라우터용 deadlock 검출 플래그

 

deadlock detection/recovery 전략의 궁극적인 목적은 deadlock 발생 시 recovery 메커니즘을 작동시키는 것이다. 각 DES마다 하나의 패킷만 복구하면 dependency cycle을 깨뜨릴 수 있다. 그러나 전체 네트워크에 대해 TC 계산을 수행하면, 동일한 DES에 속한 모든 채널을 한꺼번에 검출하게 되어 오히려 복구 오버헤드가 증가할 수 있다.

예를 들어 Fig. 3.3c에서 TC 그래프는 ch1, ch5, ch7, ch9 주변에 self-reflexive path가 형성되어 있으며, 이들은 모두 같은 DES에 속한다(Eq. 3.1 만족). 하드웨어 복잡도를 줄이기 위해, TC 알고리즘은 multi-source → single-destination 네트워크에서 경로를 탐색하는 방식으로 대체할 수 있다.

이 경우, 다음과 같은 방식으로 간단한 TC-network를 구현할 수 있다:

  • mutual exclusion unit 기반의 경량 네트워크
  • 단순한 logic gate 및 적은 수의 wire 사용
  • 각 채널에 대해 self-reflexive path 존재 여부만 확인 (i.e., TC 행렬에서 Ti,i=TrueT_{i,i} = \text{True}인지 여부)

이러한 구조에서 하나의 채널만 동시에 TC-network 사용 가능하며, token-ring protocol을 통해 채널을 순차적으로 검사한다. 이 프로토콜은 mesh나 torus 네트워크의 경우 Hamiltonian cycle 기반으로 구성할 수 있으며【2,3】, 토큰 링은 비동기 회로로 구현되거나, 라우터 클록으로 동기화할 수도 있다. 다만 전체 칩에 걸친 동기식 클록은 비현실적이므로, 본 연구에서는 비동기 토큰 링 회로를 구현하였다. 이를 위해 각 라우터 노드의 TC-unit과 **동기화 회로(synchronizer)**가 필요하다(3.4.3절에서 설명).

토큰이 네트워크를 순환하는 것은 목적지를 바꾸며 경로를 찾는 것과 동일하다. 토큰을 획득한 TC-unit은 해당 라우터의 채널들을 검사하며, 나머지 유닛들은 자신의 입력과 출력 사이에 종속 체인이 존재할 경우에만 test 신호를 전달한다. 이런 방식은 TC-network를 self-pruning 구조로 만들어, 불필요한 switching power를 줄인다.

토큰을 획득한 TC-unit의 동작은 Algorithm 2에 기술되어 있으며, 이 유닛은 검사 결과에 따라 해당 채널의 deadlock 플래그를 설정하고, 검사 완료 후 다음 유닛에게 토큰을 넘긴다.
TC-network의 수렴 시간은 DES의 크기에 비례하지만, deadlock은 지속적인 현상이기 때문에 반드시 한 사이클 내에 수렴하지 않아도 유효한 출력을 생성할 수 있다【14】.


3.4.3 하드웨어 구현 (Hardware Implementation)

 

Fig. 3.6은 최신 라우터 구조에 TC-unit과 TC-interconnect를 추가한 하드웨어 구조도를 보여준다.

  • 왼쪽: 라우터의 top-level 구조
  • 중앙: TC-unit 블록 구현
  • 오른쪽: TC-computation 블록 상세 회로

이 구조는 n개의 입력 채널, m개의 출력 채널을 가지는 라우터에 TC 기능을 추가한 것이다.

중앙의 TC-unit 블록은 세 개의 하위 모듈로 구성된다:

  1. TC-computation unit
    • Eq. 3.2와 3.3을 구현
  2. 채널 선택 회로(channel selection circuit)
    • 라우터의 채널을 순차적으로 선택
    • 최악의 지연 상황을 고려한 시간 지연 포함 (3.5.2.4절 참조)
  3. 토큰 링 프로토콜(token-ring protocol)
    • 해당 라우터 노드의 채널 검사를 시작

TC-computation 블록은 다음 입력을 사용한다:

  • tc_rx[]: 이웃 라우터로부터 받은 TC 신호
  • ch_oc[]: 로컬 채널 점유 상태
  • ch_req[][]: 로컬 채널 요청 상태
  • ch_sel[]: 채널 선택 회로의 출력

출력으로는 다음을 생성한다:

  • tc_tx[]: 이웃에게 보내는 TC 신호
  • dd_flags[]: 로컬 라우터에 보내는 deadlock 검출 플래그

신호 수는 네트워크 토폴로지에 따라 달라진다. 예를 들어, 2D mesh의 경우에는 n, m이 각각 {North, East, South, West}가 된다. 해당 회로는 Fig. 3.6 (오른쪽)에 제시된 회로도이며, 동작은 Algorithm 2에 기술되어 있다.

토큰 링 프로토콜은 검사 시작 노드를 바꾸기 위한 메커니즘이다. 비동기 토큰 링의 구현은 David Cell 회로를 사용할 수 있으며【32】, 자세한 구현은 [2]에서 설명된다.

  • 하드웨어 연결:
    • 전 라우터로부터 입력 2선, 다음 라우터로 출력 2선을 필요로 함
  • 동작 절차:
    • TC-unit이 토큰 획득 → 채널 선택 회로에 start 신호 전송
    • 모든 채널 검사 완료 후 done 신호 발생 → 다음 라우터로 토큰 전달

Fig. 3.6의 구조는 이러한 동작을 수행하기 위해 필요한 회로 및 배선을 시각적으로 보여준다.

설계 확장성

Fig. 3.6의 아키텍처는 가능한 구현 방식 중 하나일 뿐이며, 상황에 따라 다양한 최적화가 가능하다. 예를 들어, 라우터 채널을 동시에 여러 개 검사하도록 확장할 수도 있다. 이 경우 토큰을 복수로 배치하여 동시에 여러 라우터를 활성화시킬 수 있다.

단, 이 방식은 TC-unit과 TC-interconnect의 복제가 필요하므로 **면적(area)**과 **전력(power)**이 증가할 수 있다. 그러나 실험된 traffic 패턴 및 네트워크 토폴로지에서는 큰 성능 차이는 관찰되지 않았다.

 

3.5 결과 및 고찰 (Results and Discussion)

3.5.1 평가 방법론 (Evaluation Methodology)

본 절에서는 제안된 TC-network 기법과 기존의 heuristic timeout mechanism【3】을 비교하여, 다양한 네트워크 트래픽 조건과 flit 주입률(injection rate)에 따른 deadlock 검출률을 평가한다.

  • Deadlock 검출률은 다음과 같이 정의된다:
    → 전체 패킷 수(수신 + 검출) 중에서 deadlock으로 검출된 패킷 수의 비율

deadlock으로 추정된 패킷은 네트워크에서 제거된다.
검출된 패킷을 드롭(drop)할 때 발생하는 에너지 소모도 함께 측정하였다.

네트워크에서 소모되는 에너지는 다음 다섯 가지 범주로 구분된다:

  1. Routing energy – 라우팅 방식에 따라 다름
  2. Selection energy – 라우팅이 여러 옵션을 반환할 경우 선택 과정에서 발생
  3. Forwarding energy – flit 전송 시 발생
  4. Receiving energy – flit 수신 시 발생
  5. Waiting energy – header flit이 라우팅 성공을 기다리는 동안의 에너지

검출된 패킷을 제거하는 데 드는 총 에너지는 다음과 같이 계산된다:

Edd_resolving=h×(Eforward+Ereceiving)+Flitage×[Ewait+f×(Erouting+Eselection)](3.4)E_{dd\_resolving} = h \times (E_{forward} + E_{receiving}) + Flitage \times [E_{wait} + f \times (E_{routing} + E_{selection})] \tag{3.4}

여기서:

  • hh: 해당 flit이 제거되기 전까지 이동한 홉 수
  • FlitageFlitage: flit이 NoC에 존재한 clock cycle 수 (이동 및 대기 포함)
  • ff: head flit 여부를 나타내는 Boolean 플래그
    • head flit일 경우, 매 cycle마다 출력 채널을 점유하려 시도하면서 에너지를 소모하게 됨

3.5.2 평가 결과 (Evaluation Results)

3.5.2.1 Synthetic Traffic

Fig. 3.7은 4×4 2D mesh NoC에서 uniform traffic 패턴을 사용하여, 서로 다른 injection rate 조건에서 성능을 비교한 결과이다.

  • 패킷 길이는 2~16 flit 사이에서 임의로 생성됨

 

Fig. 3.7a – Deadlock 검출률 (%):

  • timeout 기법의 경우 대부분이 false alarm
  • 예) threshold = 32일 때, injection rate가 높은 경우 전체 패킷의 22%가 deadlock으로 잘못 검출
  • 반면, TC-network는 실제 deadlock에 해당하는 패킷만 검출하며, 이는 1% 미만
    • 이는 deadlock이 매우 드문 이벤트라는 기존 문헌【33】의 결과와 일치함

Fig. 3.7b – Throughput vs Average Delay:

  • timeout threshold가 작을수록 throughput과 delay가 개선됨
  • 이유: false deadlock 패킷을 빠르게 제거하여 네트워크 혼잡 완화
  • 단, 단순히 패킷을 제거만 하므로 성능 자체에 큰 의미는 없음

→ 종합적으로 보면, threshold = 256이 적절한 설정

  • 검출률: 2.7% (최소값)
  • 성능: 양호한 throughput과 delay 제공

하지만 다양한 network 설정(패킷 길이, 버퍼 크기, 트래픽 유형)에 따라 최적 threshold 값이 달라짐

  • 따라서 threshold 조정이 필요한 timeout 방식은 튜닝 부담이 큼
  • 반면, TC-network는 파라미터 조정 없이도 정확한 deadlock 검출 가능

Fig. 3.7c – deadlock 해소에 소모된 에너지 비율:

  • 에너지 소비율은 Fig. 3.7a의 deadlock 검출률과 유사하지만, 선형적 비례는 아님
  • timeout 방식은 head flit이 timeout까지 계속 시도하면서 에너지를 소비하기 때문

예:

  • timeout-128:
    • 검출률 5.3%
    • 에너지 낭비 8.8%
  • timeout-512:
    • 검출률 2.6%
    • 에너지 낭비 9.1%

그 이유는:

  1. threshold가 큰 경우, 시뮬레이션 시간 내에 전달되는 flit 수가 더 적음 (Fig. 3.7b 참조)
  2. Eq. 3.4의 Flitage 항은 threshold 값에 비례

 

 

3.5.2.2 실제 응용 트래픽 (Real Application Traffic)

보다 현실적인 통신 시나리오로, MMS 시스템【17】이 평가에 사용되었다. 이 시스템은 다음의 모듈들로 구성된다:

  • h263 비디오 인코더
  • h263 비디오 디코더
  • MP3 오디오 인코더
  • MP3 오디오 디코더

[17]에서는 이 MMS를 40개의 개별 태스크로 분할하고, 이를 25개의 IP 코어에 할당 및 스케줄링하였다. IP 코어들은 [5]에서 제안된 방식에 따라, 5×5 mesh 기반 NoC 구조의 tile에 매핑되었다.

  • Fig. 3.9a, 3.9c를 보면, TC-network 기법은 다양한 timeout threshold 값을 사용한 기존의 방식들보다 우수한 성능을 보였다.
  • 특히, TC-network는 deadlock을 전혀 검출하지 않았으며, 이에 따라 **재전송으로 인한 에너지 소비가 0%**였다.
  • 반면, 기존 crude timeout 방식【3】은 상당량의 false deadlock을 검출하였으며, 그만큼의 불필요한 에너지 낭비가 발생하였다.

예:

  • threshold = 64 일 때, MMS traffic 중 최대 27%가 deadlock으로 잘못 검출
  • [24], [25] 방식은 crude timeout 방식보다 false alarm을 줄였으나, 완전히 제거하지는 못함

Fig. 3.9b – Throughput vs Average Delay:

  • timeout 방식에서 threshold 값을 작게 설정하면, throughput과 delay는 개선되었음
  • 이는 false deadlock을 더 많이 검출하고 패킷을 제거함으로써 네트워크 혼잡을 완화했기 때문
  • 그러나 이러한 방식은 결국 불필요한 에너지 소비로 이어짐

이에 따라 다음과 같은 실험이 추가 수행됨:

  • 고정된 데이터량 (2MB MMS 트래픽)을 다양한 네트워크 부하 조건에서 전송
  • 이때 소모되는 총 에너지(전송 + 복구 포함) 측정
  • Table 3.3에 그 결과가 제시됨

결과적으로, TC-network 방식은 timeout 방식(예: threshold=64)과 비교했을 때, 최대 5% 에너지 절감 효과를 보였다.


3.5.2.3 면적 및 전력 소모 추정 (Area and Power Estimation)

NoC를 설계할 때는 라우터가 전체 실리콘 면적에서 너무 큰 비중을 차지하지 않도록 해야 한다. 이를 위해 본 연구에서는 다음 두 가지 라우터를 Verilog로 설계하고 비교하였다:

  1. timeout 기반 fully adaptive 라우터
  2. TC-network 기반 fully adaptive 라우터

두 설계 모두 Synopsys Design Compiler를 사용하여 합성되었고, UMC 90nm 공정 라이브러리에 매핑되었다.

  • FIFO 버퍼 영역이 라우터 로직에서 가장 많은 면적을 차지함은 기존 연구【6】와 동일하게 확인되었다.
  • FIFO 면적은 주로 flit 크기에 따라 결정되며,

예) flit 크기 = 64bit, 버퍼 용량 = 4 flits일 때:

  • **TC 회로가 전체 라우터 면적에서 차지하는 비율은 단 0.71%**에 불과함

이는 deadlock 검출 기능 추가에 따른 오버헤드가 매우 작다는 점을 보여준다.

 

3.5.2.4 Delay 분석 (Delay Analysis)

비동기 회로에서의 지연은 다양한 요소들에 의해 결정되며, 특히 회로 내에서 사용되는 게이트 수 및 그 게이트들의 연결 구조에 따라 크게 달라질 수 있다.

TC-unit의 지연 시간은 다음 세 가지 요소로 구성된다:

  1. AND 연산 지연:
    • nn개의 이웃 채널로부터 수신된 TC 신호들과
    • 해당 채널의 점유 상태(ch_oc[j])
    • 그리고 요청 상태(ch_req[j][i])
      를 이용해 수행되는 연산이다. 이 연산은 게이트 지연 하나 또는 둘 정도가 걸린다.
  2. OR 연산 지연:
    • 모든 AND 결과를 집계하는 연산으로, 병렬로 계산된다.
    • 채널 수가 많지 않기 때문에, 지연은 작으며 실제로는 **log₂(m)**에 비례하는 OR 게이트 딜레이에 해당한다.
  3. 선택 및 제어 회로의 지연:
    • 채널 선택 로직은 worst-case 경로 지연을 고려하여 설계됨
    • 예를 들어, channel 1부터 channel m까지 순차적으로 확인하는 방식으로, 각 채널에 일정 시간(예: 하나의 clock cycle)을 배정함

총합적으로 보면, 하나의 라우터에 대한 deadlock 검출은 단지 m개의 채널을 순차적으로 확인하는 시간에 해당하며,
각 확인은 gate-level delay 수준이므로, 전체 지연은 매우 작다.

토큰링 구조에서는 다음 조건이 적용된다:

  • 하나의 TC-unit만 토큰을 가지고 있고,
  • 순차적으로 인접한 TC-unit에게 토큰을 전달함

따라서 TC-network가 전체적으로 deadlock 정보를 수렴(converge)하는 데 걸리는 총 시간은:

  • TC-unit의 지연
  •  
  • DES의 크기 (토큰이 이동해야 하는 라우터 수)

이렇게 구성된다. 다시 말해, **deadlock 검출까지의 최악 지연 시간(worst-case delay)**은 DES가 형성된 채널 수와 동일하며,
이는 시스템의 deadlock 전파 경로와도 동일하다.

하지만 중요한 점은:

deadlock은 순간적인 이벤트가 아니라 지속되는 현상이기 때문에,
TC-network가 한 사이클 내에 수렴하지 않아도 검출 정확도에는 영향이 없다.

3.6 요약 및 결론 (Summary and Conclusions)

adaptive routing을 사용하는 NoC는 deadlock에 취약하며, 이는 성능 저하나 시스템 실패로 이어질 수 있다. 본 장에서는 **deadlock 회피(avoidance)**가 아닌, **deadlock 검출(detection)**과 **복구(recovery)**에 초점을 맞추어 연구를 진행하였다.

런타임에서의 deadlock 검출은 분산 특성 때문에 매우 어렵다. 본 연구는 런타임 transitive closure (TC) 계산을 활용하여 NoC 내의 deadlock-equivalence set (DES) 존재 여부를 찾아내는 deadlock 검출 방법을 제안하였다. DES는 NoC 내에서 패킷 요청 간 순환 루프(loop)를 의미한다. 본 기법은 기존의 근사 또는 휴리스틱 방식들과 달리, false alarm 없이 모든 실제 deadlock을 정확하게 검출할 수 있다.

또한, 이 검출 메커니즘을 효율적으로 구현하기 위한 분산형 TC-network 아키텍처도 함께 제안되었다. 이 아키텍처는 NoC 구조와 밀접하게 결합되어 동작한다.

제안된 방법은 cycle-accurate 시뮬레이터와 합성 도구를 통해 철저히 평가되었다. 그 결과는 다음과 같은 장점을 명확히 입증하였다:

  • 다양한 트래픽 시나리오(실제 응용 포함)에서 기존 타이밍 기반 deadlock 검출 방식보다 현저히 우수
  • false detection을 제거함으로써, false alarm으로 인한 에너지 낭비를 줄임
  • time-out 메커니즘이 전혀 필요 없음
  • 네트워크 부하나 메시지 길이와 무관하게 정확한 deadlock 검출 가능
  • 기존 방식이 혼잡도 기반 추정(congestion estimation)에 의존하는 반면, 본 방법은 명확한 논리 기반 검출 수행
  • TC-network 방식은 기존 방식 대비 최대 두 자릿수(10배 이상) false detection 감소 효과를 보임

하드웨어 구현에 있어서도 다음과 같은 결과를 얻었다:

  • TC-network의 하드웨어 오버헤드는 매우 작음
  • 본 장에서 제시한 구현 결과는 면적 및 전력 소비 측면에서도 부담이 적음을 보여줌

 

핵심은 deadlock을 회피(avoidance)하기보다는, 런타임에서 정확하게 검출하고 빠르게 복구(recovery)하는 데 있다.

deadlock 검출을 위해서는 채널 간의 의존 관계(CWG: Channel Wait-for Graph)를 기반으로 한 transitive closure (TC) 계산이 필요하다.
하지만 이 계산은 O(n³)의 시간 복잡도를 가지므로, 실시간 검출에는 부적합하다.

이를 해결하기 위해 저자는 하드웨어 병렬화를 활용한 TC-network 구조를 제안한다.
이 구조는 분산형 계산 유닛(distributed computation units)을 각 라우터 노드에 삽입하여 병렬적으로 TC를 계산함으로써 deadlock-equivalence set(DES)을 빠르고 정확하게 검출할 수 있게 한다.

결론적으로, 이 논문은:

  • deadlock의 빠른 검출
  • 정확한 복구 트리거
  • 하드웨어 기반 병렬 아키텍처로 구현 가능
  • false alarm 제거 및 에너지 낭비 감소

를 통해 고신뢰성 NoC 설계에 적합한 솔루션을 제시한다는 점에서 의의가 있습니다.

반응형

+ Recent posts