포스트

(OS - 4) 동기화(Synchronization)

동기화 소개, 동기화와 관련된 문제들, 여러 동기화 기법들에 대하여


1. 동기화(Synchronization)

동기화 소개

동기화(Synchronization)는 여러 프로세스나 스레드가 동시에 실행될 때, 이들의 실행 순서를 제어하여 일관성 있는 결과를 보장하는 기술이다. 동기화는 주로 공유 자원에 대한 접근을 제어하여 데이터 무결성을 유지하고, 교착 상태(Deadlock)와 경쟁 조건(Race Condition)을 방지하는 데 사용된다.


데이터 무결성(Data Integerity)

데이터의 정확성, 일관성, 유효성이 유지되는 것.


이 포스트에서 프로세스와 스레드를 통틀어서 작업(task)이라는 표현을 사용할 것이다. 프로세스와 스레드를 상호교환적으로 사용할 수도 있다.


다시 정리하자면 동기화가 필요한 주된 이유는 공유 자원에 대한 동시 접근으로 인한 데이터 일관성 문제를 해결하기 위함이다.

  • 경쟁 조건(Race Condition): 여러 스레드가 동시에 공유 자원에 접근할 때, 실행 순서에 따라 결과가 달라질 수 있는 상황이 올 수 있다
  • 데이터 일관성(Data Consistency): 여러 스레드가 공유 데이터를 일관되게 읽고 쓸 수 있도록 보장해야 한다
  • 교착 상태(Deadlock): 두 개 이상의 스레드가 서로가 가지고 있는 자원을 기다리느라 무한 대기 상태에 빠지는 상황이 올 수 있다


동기화는 보통 이 문제들을 해결하기 위해서 다음을 보장하도록 해야한다.

  • 실행 순서 제어(execution order control): 작업이 올바른 순서로 실행되도록 한다
  • 상호 배제(mutual exclusion): 동시에 접근해서는 안되는 자원에 하나의 작업만 접근하도록 한다
  • 더 자세한 내용은 뒤에서 다룬다



임계 구역(Critical Section)

공유 자원(Shared Resource)은 여러 작업이 동시에 접근하고 사용할 수 있는 자원을 의미한다. 동시에 접근할 수 있는 변수, 파일, 데이터 구조, 입출력 장치, 등을 전부 공유 자원이라고 할 수 있다.

이런 공유 자원에 접근하는 코드의 영역을 임계 구역(Critical Section)이라고 한다. 임계 구역에서는 기본적으로 하나의 작업만 실행되도록 해야 한다.

이런 임계 구역을 통해 동시에 공유 자원에 접근해서 발생하는 문제를 Race Condition이라고 한다.


Race Condition

여러 작업이 동시에 공유 자원에 접근할 때, 접근 순서나 타이밍에 따라 프로그램의 결과가 달라지는 상황을 말한다. 이러한 상황은 데이터 일관성 문제를 일으키며, 예기치 않은 버그나 시스템 오류를 발생시킬 수 있다.

자원을 가지고 경쟁 한다고 해서 경합(Race)이라는 표현이 사용된다.


레이스 컨디션(Race Condition)이 발생하는 근본적인 이유 중 하나는 고수준(high-level) 언어에서 작성된 코드가 저수준(low-level)에서 실행될 때 예상치 못한 방식으로 인터리빙(섞여서) 실행될 수 있기 때문이다.

고수준 코드에서 counter를 증가시키는 단순한 작업을 한번 살펴보자.

1
2
3
4
5
int counter = 0;

void increment() {
    counter++;
}
  • 해당 코드는 단순히 counter의 값을 1 증가시키는 코드이다
  • 나중에 increment()를 사용했을때, counter를 증가시키는 부분이 임계구역이 된다


그럼 해당 코드의 저수준(어셈블리)에서의 동작을 살펴보자.

1
2
3
mov eax, [counter]  ; counter의 값을 메모리에서 레지스터로 읽어온다
add eax, 1  ; 레지스터의 값을 증가시킨다
mov [counter], eax  ; 증가된 값을 다시 메모리에 쓴다
  • 고수준에서의 counter++ 연산은 저수준에서는 여러 단계로 나뉘어 수행된다
    • counter의 값을 메모리에서 레지스터로 읽어온다
    • 레지스터의 값을 증가시킨다
    • 증가된 값을 다시 메모리에 쓴다


이 코드에서 레이스 컨디션이 발생하는 상황을 살펴보자. 두 개의 스레드가 동시에 increment() 함수를 호출한다고 가정해보자.

interleavingRace Condition

  • 임계 구역은 동시에 접근하는 counter를 증가시키는 영역이다
  • 스레드A스레드B가 동시에 counter에 접근하고, 자기의 레지스터에 저장하고 값을 증가 시키는 일련의 과정에서 코드가 인터리빙(섞일) 될 수 있다
  • 결론적으로 스레드A에서 한번 증가시키고, 스레드B에서 한번 증가시켜서 2라는 값이 나오길 기대하지만, 실제 결과는 1이 나올 수 있다


표로 레이스 컨디션이 일어나는 과정을 살펴보자.

race1Race Condition


컨텍스트 스위치를 막으면 레이스 컨디션을 해결할 수 있을까?

결론부터 말하자면 불가능하다. 왜냐하면 멀티코어 환경에서는 스레드가 병렬로 처리될 수 있기 때문이다.


그러면 운영체제는 이런 임계 구역 문제를 어떻게 해결할까?

일단 코드의 기본적인 모양새는 다음과 같이 구현한다.

critical1Critical Section

  • 입장 구역(Entry Section)
    • 이 구역에서는 스레드가 임계 구역에 진입하기 전에 필요한 동기화 작업을 수행한다
    • 특정 스레드가 이미 임계 구역에 들어가 있을 때 다른 스레드의 진입을 기다리게 한다
  • 퇴장 구역(Exit Section)
    • 이 구역에서는 스레드가 임계 구역에서 나올 때 필요한 동기화 작업을 수행한다
    • 임계 구역에 대한 접근 권한을 해제하여 다른 스레드가 임계 구역에 진입할 수 있도록 한다


위의 코드는 기본적인 뼈대이고, 실제로 임계 구역 문제를 해결하기 위해서는 다음의 3 가지 조건을 만족하도록 구현해야 한다.

  1. 상호 배제(Mutual Exclusion)
    • 동시에 하나의 프로세스나 스레드만 임계 구역에 접근할 수 있어야 한다. 쉽게 말해서 동시에 2 개 이상의 작업이 임계 구역에 진입해선 안된다.
    • 임계 구역에 대한 접근을 독점적으로 관리하여 데이터 무결성을 유지한다
  2. 진행 조건(Progress Condition)
    • 임계 구역에 접근하려는 프로세스가 없을 때, 다른 프로세스가 대기 중이라면 그 프로세스는 임계 구역에 접근할 기회를 가져야 한다
    • 데드락(Dead-lock) 방지: 이는 대기 중인 프로세스가 계속해서 임계 구역에 접근하지 못하는 상황을 방지한다
  3. 한정 대기(Bounded Waiting)
    • 특정 프로세스가 임계 구역에 접근하기 위해 무한정 대기하지 않도록 보장해야 한다. 쉽게 말해서 특정 프로세스가 임계 구역에 진입하고 싶다면 언젠가는 진입할 수 있어야 한다.
    • 기아(Starvation) 방지: 특정 프로세스가 무한정 대기하는 것을 방지한다
    • 대기 시간에 대한 상한을 설정하여 공정성을 보장한다


동기화 기법들을 살펴보기 전에, 동기화와 관련된 몇 가지 대표적 문제들을 알아보자.



2. 동기화 문제들

동기화와 관련된 대표적인 문제 시나리오들을 살펴보자.


생산자-소비자 문제(Producer-Consumer Problem)

생산자-소비자(Producer-Consumer) 문제는 동기화와 관련된 고전적인 문제로, 다수의 생산자와 소비자가 공유 자원을 사용하는 상황에서 발생하는 문제를 다룬다. 유한 버퍼 문제(Bounded Bufer Problem)라고 부르기도 한다.

문제에서 사용하는 기본 개념을 살펴보자.

  • 생산자(Producer)
    • 생산자는 데이터를 생성해서 버퍼에 저장하는 역할을 한다
    • 예를 들어, 어떤 데이터 스트림에서 데이터를 수집하여 이를 버퍼에 추가하는 것
  • 소비자(Consumer)
    • 소비자는 버퍼에서 데이터를 꺼내서 처리하는 역할을 한다
    • 예를 들어, 버퍼에서 데이터를 가져와서 이를 가공하여 사용자에게 전달하는 것
  • 공유 버퍼(Shared Buffer)
    • 생산자와 소비자가 데이터를 주고받는 중간 매체
    • 버퍼의 크기는 제한적이기 때문에 버퍼가 가득 차거나 비어 있을 때 발생하는 상황을 관리해야 한다


버퍼(Buffer)

데이터의 임시 저장 공간으로, 생산자-소비자 문제뿐만 아니라 다양한 시스템과 응용 프로그램에서 중요한 역할을 한다. 버퍼를 사용하는 몇 가지 이유들을 알아보자.

  • 생산자와 소비자 간의 속도 차이 완화
    • 생산자와 소비자가 데이터를 처리하는 속도가 다를 수 있다(보통 생산자의 작업 속도가 소비자 보다 빠르다)
    • 예를 들면, 생산자가 빠르게 데이터를 생성하지만 소비자가 이를 처리하는 속도가 너무 느리면 데이터의 손실이 발생할 수 있다. 버퍼는 이러한 속도 차이를 완화해서 데이터 손실을 방지하고 시스템의 안정성을 높인다
      • 동영상 스트리밍의 버퍼링을 생각하자
    • 버퍼에 데이터를 임시 저장해 두면, 생산자는 소비자가 데이터를 처리할 때까지 기다릴 필요 없이 계속해서 데이터를 생성할 수 있다
  • 데이터 스트림의 일관성을 유지하기 위해
    • 생산자와 소비자가 동시에 데이터를 처리할 때, 버퍼를 사용하면 데이터가 일관된 순서로 처리될 수 있다
    • 버퍼는 데이터를 일정 순서로 저장하고, 이 순서에 따라 데이터를 소비자에게 제공함으로써 데이터 처리의 일관성을 보장할 수 있다
  • 데이터를 일시적으로 저장하여 비동기 처리를 하기 위해
    • 버퍼를 사용하면 생산자와 소비자가 독립적으로 동작할 수 있다. 즉, 생산자가 데이터를 생성할 때 소비자가 즉시 해당 데이터를 처리할 필요가 없다.
    • 버퍼는 데이터를 일시적으로 저장하고, 소비자가 준비되었을 때 데이터를 처리할 수 있도록 한다

이외에도 버퍼를 사용하는 다양한 이유가 존재한다.


생산자-소비자 문제라는 것은 결국에 생산자가 데이터를 생성해서 버퍼에 저장하고, 소비자가 버퍼에서 데이터를 꺼내서 소비하는 과정에서 발생하는 문제를 뜻한다.

가장 대표적인 문제가 다중 생산자와 다중 소비자가 동시에 버퍼에 접근해서 경쟁 상태(race condition)가 발생하는 경우이다. 이로 인해서 데이터의 일관성이 깨질 수 있다. 또 다른 문제는 버퍼 오버플로우(overflow)와 버퍼 언더플로우(underflow)이다. 이 문제의 경우 버퍼가 가득 찬 상태에서 생산자가 아이템을 추가하거나, 버퍼가 비어있는 상태에서 소비자가 아이템을 소비하려고 시도할 때 발생한다.



독자-작가 문제(Reader-Writer Problem)

Reader-Writer 문제는 동기화 문제 중 하나로, 여러 프로세스 또는 스레드가 공유 자원에 대해 읽기(Read)쓰기(Write) 작업을 수행할 때 발생하는 문제를 다룬다. 여러 작업이 공유 자원에 접근할 때 읽기와 쓰기 작업이 어떻게 조정되어야 하는지에 대해서 다룬다.

문제에서 사용하는 기본 개념을 살펴보자.

  • Reader
    • 공유 자원(예: 데이터베이스, 파일)을 읽기만 하는 역할을 한다
    • 다수의 Reader가 동시에 공유 자원을 읽어도, 자원의 일관성은 깨지지 않는다. 따라서 다수의 Reader가 동시에 자원을 읽는 것은 허용된다.
  • Writer
    • 공유 자원에 데이터를 쓰거나 수정하는 역할을 한다
    • 공유 자원을 쓰는 작업은 자원을 변경하므로 자원에 하나의 Writer만 접근할 수 있어야 한다. 쉽게 말해서 Writer가 자원에 접근할 때, 다른 Reader나 Writer가 자원에 접근하는 것을 막아야 한다.
  • 공유 자원(Shared Resource)
    • Reader와 Writer 모두가 접근하는 자원으로, 이 자원의 일관성ㅁ을 유지하는 것이 중요하다


Reader-Writer 문제에서 해결해야 하는 문제는 다음과 같다.

  • 읽기-쓰기 충돌 방지
    • Writer가 자원에 쓰기를 하는 동안 다른 Reader가 자원에 접근해 읽기를 시도하면, 자원의 일관성이 깨질 수 있다
    • Writer가 자원에 접근할 때는 모든 Reader와 Writer의 접근을 막아야 한다
  • 쓰기-쓰기 충돌 방지
    • 두 개 이상의 Writer가 동시에 자원에 접근해 쓰기를 시도하면, 자원의 데이터가 손상될 수 있다
    • 한 번에 하나의 Writer만 자원에 접근할 수 있도록 해야 한다
  • 공평성 (Fairness) 보장
    • Reader와 Writer 사이의 공평성을 보장해야 한다. 쉽게 말해서 Reader든, Writer든 언젠가는 자원에 접근할 수 있어야 한다.
    • 예를 들어, Writer가 계속해서 대기해야 하는 상황(Reader가 자원을 계속 점유하는 경우)이나, 반대로 Reader가 계속해서 대기해야 하는 상황(Writer가 자원을 계속 점유하는 경우)이 발생하지 않도록 해야 한다



기타 문제들

위에서 소개한 문제외에도 다음과 같은 문제들이 존재한다.


철학자들의 식사 문제 (Dining Philosophers Problem)라는 유명한 문제도 있지만, 이 문제는 뒤에서 데드락(Dead-lock)을 다루면서 소개할 예정이다.


다음으로 이런 동기화 문제들을 해결할 수 있는 동기화 기법들에 대해서 자세히 알아보자.



3. 동기화 기법

Test-and-Set, Compare-and-Swap

앞으로 소개할 뮤텍스, 스핀락, 세마포어 등과 같은 동기화 기법들은 기본적으로 하드웨어 수준에서 제공하는 원자성(atomicity)을 보장하는 연산을 사용해서 구현한다.

제공하는 연산으로는 Test-and-Set, Compare-and-Swap(CAS), 등이 있다.


Test-and-Set을 한번 살펴보자.

testandsetTest and Set

  • 특정 플래그 변수(보통 boolean 타입)를 원자적으로 읽고, 동시에 해당 플래그를 설정한다
  • 다음의 두 가지 작업을 동시에 수행한다
    • 읽기: 현재 플래그 변수(*target)의 값을 읽어온다
    • 설정: 플래그 변수를 true로 설정한다


Compare-and-Swap(CAS)을 살펴보자.

compareandswapCompare and Swap

  • 특정 메모리 위치의 값이 예상한 값과 일치할 때만 새로운 값으로 교체한다
  • 기대 값(expected): 현재 메모리 위치에 저장된 값과 비교할 값
  • 새 값 (new_value): 메모리 위치를 업데이트할 새로운 값
  • 메모리 위치 (value): 업데이트할 실제 메모리 위치
  • 다음의 연산을 수행한다
    • 메모리 위치의 현재 값이 기대 값과 같으면, 새로운 값으로 교체한다
    • 그렇지 않으면, 메모리 위치의 현재 값이 기대 값으로 업데이트된다
  • CAS는 스핀락, 원자적 데이터 구조 구현 등에 사용된다



뮤텍스(Mutex): Busy-Waiting

뮤텍스(Mutex) 또는 뮤텍스 락(Mutex-lock)acquire를 통해서 락(Lock)을 획득한 스레드만이 임계구역에 접근하도록 허용하고, release를 통해 락을 반환하는 방식을 통해 상호배제(Mutual Exclusion)를 보장한다.


lockLock

  • acquire: 스레드가 임계구역에 진입하기 위해서는 락을 얻어야 한다
  • release: 스레드가 임계구역에서 퇴장할때 락을 반환한다


acquire()release()의 대략적인 구현은 아래와 같다. 원자적(atomic)으로 수행되어야 한다.


mutex-implacquire and release

  • 하나의 스레드가 락을 얻기 위해서 available을 체크한다. 만약 availabletrue라면 락을 얻고(acquire), 그렇지 않다면 계속 루프로 체크 한다.
  • 스레드가 임계 영역에서의 작업을 전부 끝내면 락을 반환(release)한다


위의 뮤텍스 구현에서는 한 가지 문제점이 있다. 이는 busy-waiting이 필요하다는 점이다. Busy-waiting은 컴퓨터 시스템에서 한 프로세스나 스레드가 특정 조건을 만족할 때까지 반복적으로 조건을 검사하면서 CPU 자원을 소비하는 대기 방식을 의미한다.

Busy-waiting은 락을 얻기 위해 기다리는 동안 CPU를 계속 사용하기 때문에 CPU 자원이 낭비된다. 다른 유용한 작업을 수행하지 않고 단지 조건을 확인하기 위해 CPU를 통한 반복 작업을 수행하기 때문이다.

이런 busy waiting을 사용하는 방식을 스핀락(Spin-Lock)이라고 부른다.


용어 정리

Busy-waiting을 사용하는 뮤텍스 락을 스핀 락(Spin-Lock)이라고 부르고, busy-waiting을 사용하지 않으면 뮤텍스(Mutex)라고 부르는 경우들이 있는 것 같다.

뒤에서도 자세히 다루겠지만 이 포스트에서는 다음과 같이 용어를 사용할 것이다.

  • 스핀 락(Spin-Lock): busy-waiting을 사용하는 뮤텍스 락
  • 뮤텍스 락(Mutex-Lock): sleep-and-wakeup 방식을 사용하는 뮤텍스 락
  • sleep-and-wakeup: 프로세스나 스레드가 조건이 만족될 때까지 자발적으로 CPU 사용을 중지하고 대기하다가, 조건이 만족되면 다시 깨어나는 방식

뒤에서 busy-waitingsleep-and-wakeup 방식의 차이에 대해 더 자세히 알아볼 것이다.



세마포어(Semaphore): Busy-Waiting

세마포어(Semaphore)는 waitsignal 함수를 사용해서, 하나 이상의 스레드가 임계 구역에 접근할 수 있도록 하는 기법이다.

세마포어(S)는 단순히 카운터로 생각할 수 있으며, 이 카운터는 특정 자원의 사용 가능 상태를 나타낸다.

waitsignal이 어떻게 구현되고 사용되는지 살펴보자.


semasemaphore

  • waitsignal은 임계구역의 앞뒤로 위치한다
  • wait: 자원을 기다린다
  • signal: 자원을 반납하고, 사용할 수 있다는 신호를 준다


S는 임계구역의 사용 가능한 공유 자원의 개수.(임계 구역에 진입할 수 있는 스레드의 개수)

S를 세마포어로 지칭 하는 경우도 많으나, 현재 포스트에서는 S 값 또는 사용 가능한 공유 자원의 개수라고 하겠다. (S는 Integer다)

sema-impl-busySemaphore: busy-waiting

  • wait
    • 임계구역에 사용할 수 있는 자원의 개수가 0 이하라면, 계속 반복하면서 사용할 수 있는 자원이 있는지 확인한다
    • 사용할 수 있는 자원의 개수가 하나 이상(S>0)이면 S를 1감소 시키고 임계구역을 진입한다
  • signal
    • 임계구역에서의 작업을 다 마치면, 사용할 수 있는 자원의 수를 1 증가 시킨다(S++)
  • 이전의 뮤텍스 때와 마찬가지로 busy wait를 사용한다(뒤에서 다루겠지만 busy-wait 방식이 아닌 sleep-and-wakeup 방식으로 구현할 수 있다)


Binary Semaphore vs Counting Semaphore

  • 이진 세마포어(Binary Semaphore)
    • S0또는 1만 가능한 세마포어
    • 뮤텍스와 유사하게 동작한다
      • S=1Available=true
      • S=0Available=false
  • 카운팅 세마포어(Binary Semaphore)
    • S에 제한이 없는 세마포어
    • 현재 포스트는 카운팅 세마포어를 기준으로 설명을 하고 있다


예시를 통해서 동작 과정을 살펴보자. 상황은 다음과 같다.

  • 프로세스 P1, P2, P3가 임계구역에 동시에 접근한다
  • 라운드 로빈 방식을 사용한다. Time Slice2
  • Busy-wait로 구현된 세마포어를 사용한다


sema-rr-busySemaphore example

  • P1, P2가 자원을 사용하는 동안은 P3busy waiting을 해야 한다
  • P2가 임계구역의 작업을 모두 마치고 signal로 자원을 반납해야 P3가 임계구역에 접근할 수 있다


이전에도 설명했지만 Busy-waiting은 컴퓨터 시스템에서 한 프로세스나 스레드가 특정 조건을 만족할 때까지 반복적으로 조건을 검사하면서 CPU 자원을 소비하는 대기 방식을 의미한다. 쉽게 말해서 자원에 접근 제한이 걸려 있을 경우 이를 얻을 때까지 무한 루프를 돌면서 다른 작업(스레드)에 CPU를 양보하지 않는다.

이런 방식은 자원에 대한 접근 제한이 풀리는 주기가 매우 짧은 경우에는 문제가 되지 않지만, 그렇지 않은 경우에는 CPU를 낭비하는 비효율적인 방식이다.

다음으로 busy-waiting의 문제점을 해결할 수 있는 sleep-and-wakeup 방식의 세마포어를 살펴보자.


뮤텍스 vs 세마포어

  • 뮤텍스
    • 동기화의 대상이 1개일 때만 사용 가능하다
    • 락(Lock)의 소유개념이 존재해서, 락을 보유한 작업만이 락을 해제할 수 있다
  • 세마포어
    • 세마포어는 락의 개념이 아니기 때문에, 세마포어를 보유하지 않은 작업도 세마포어 해제가 가능하다



세마포어(Semaphore): Sleep-and-Wakeup

Sleep-and-wakeup 방식의 경우, 사용할 수 있는 자원이 없을 경우 해당 작업을 대기(Block, Wait, Sleep) 상태로 만든다. 사용할 수 있는 자원이 생기면, 대기 큐의 작업을 준비 상태(ready state)로 만든다.


Sleep? Block?

자료나 서적에 따라 sleep-and-wakeup을 block-and-wakeup으로 표현하기도 한다.

현재 포스트에서는 Abraham Silberschatz: Operating System Concepts에서 사용하는 sleep(), wakeup()이라는 표현을 사용할 것이다.


구현을 살펴보자.


sema-wakeupSemaphore: sleep-and-wakeup

  • wait()
    • S를 감소 시켰는데 음수라는 것은 이미 자원이 없었다는 뜻 → 해당 작업을 대기 리스트에 추가하고 대기(블락) 상태로 전환한다
    • sleep(): 작업을 대기 상태로 전환한다
  • signal()
    • S를 증가 시켰는데 0 이하라는 것은 어떤 작업이 wait()를 통해 자원을 얻으려고 했지만, 자원이 없어서 대기 상태라는 뜻 → 대기 리스트의 작업 중 하나를 깨워서 준비 상태로 전환한다
    • wakeup(): 대기 상태의 작업을 깨운다


대다수의 경우 busy-waiting 보다 sleep-and-wakeup을 더 많이 사용하게 된다. Sleep-and-wakeup 방식을 사용하면, 비효율적으로 CPU를 계속 낭비하는 상황을 피할 수 있다. 그러나 무조건 sleep-and-wakeup 방식이 정답이라는 뜻은 아니다.

다음으로 Busy-waitingsleep-and-wakeup 방식을 정리하고 비교해보자.



Busy-Waiting(Spin-Lock)을 사용하는 경우

Busy-Waiting(Spin-Lock)은 많은 상황에서 Sleep-and-Wakeup 보다 비효율적인 경우가 많으나, 특정 상황에서는 Busy-Waiting(Spin-Lock)이 선호될 수 있다.


bs1Short Duration

  • 스핀락을 사용하지 않는 뮤텍스 락 방식은 락을 기다리는 대기 상태와 락을 취득해서 실행 상태로 임계구역을 실행시키는, 총 2번의 컨텍스트 스위칭이 필요하다
  • 스핀락은 락을 얻고 반환하는 주기가 2번의 컨텍스트 스위칭에 걸리는 시간보다 짧은 경우에 사용해야 한다


스핀락의 기본적인 아이디어는 굳이 오버헤드(overhead)를 발생시키는 컨텍스트 스위칭을 하지말고 아주 짧은 락의 주기를 기다려서 임계구역을 사용하는 것이다. 이는 당연히 acquire-release 과정이 짧으면 짧을수록 효과적이다.


bs2Spin Lock


멀티코어(Multi-core) 시스템에서 아주 짧은 주기동안 하나의 코어가 기다리고, 다른 코어가 임계 구역의 작업을 처리하는 상황에서는 스핀락이 더 선호될 수 있다.

하나의 코어의 프로세스는 다른 프로세스의 임계구역 작업이 끝나자마자 컨텍스트 스위칭 없이 바로 사용할 수 있다.



모니터(Monitor)

이전의 세마포어 또는 뮤텍스 방식의 동기화는 개발자의 잘못된 사용으로 인해 데드락(Deadlock)이나 교착 상태가 발생할 수 있다. 또한, 잠금을 해제하는 것을 깜빡하거나, 세마포어 값을 잘못 조정하는 등의 실수가 발생할 수 있는 요지가 많다. 그리고 가장 큰 문제는 이런 문제가 발생해도 디버깅하기가 어렵다는 것이다.

앞으로 살펴볼 모니터(Monitor)는 동기화 메커니즘을 자동으로 관리해줘서, 개발자가 직접 뮤텍스나 세마포어를 관리하는 부담을 덜어준다. 모니터는 상호 배제(Mutual Exclusion)를 위한 동기화도 제공하면서, 조건 변수(Condition Variable)을 통한 접근 순서 제어를 위한 동기화도 제공한다.


monitor-expMonitor Explanation

  • 데이터 변수: 보호해야 할 공유 자원
  • 절차(Procedure) 또는 함수: 공유 자원에 접근하는 데 사용되는 코드
    • 각 프로시저들은 내부적으로 이진 세마포어를 사용한다
  • 뮤텍스(Mutex): 임계 구역을 보호하는 잠금 메커니즘
  • 조건 변수(Condition Variables): 스레드가 특정 조건이 만족될 때까지 대기하거나 조건이 만족되면 대기 중인 스레드를 깨우기 위한 변수

monitor-syntaxmonitor type syntax


모니터의 작동 원리를 살펴보자.

  1. 진입(Entry)
    • 스레드가 모니터에 진입하려면, 모니터의 잠금을 획득해야 한다
    • 만약 다른 스레드가 이미 모니터에 진입해 있다면, 대기 큐에 들어가 대기한다
  2. 임계 구역(Critical Section)
    • 모니터에 진입한 스레드는 공유 자원에 안전하게 접근할 수 있다
    • 이 동안 다른 프로세스들은 모니터에 진입할 수 없다
  3. 퇴장(Exit)
    • 스레드가 모니터를 떠나면, 잠금이 해제되고, 대기 중인 다른 프로세스가 모니터에 진입할 수 있다


단순히 위의 모니터 타입만으로 모든 동기화 상황을 해결할 수 없기 때문에, 추가적으로 조건 변수(Condition Variables)를 정의해서 사용한다. 조건 변수를 통해 접근 순서 제어를 위한 동기화도 가능하다.

개발자가 정의한 조건 변수는 wait()signal()을 통해서만 접근이 가능하다. 각 조건 변수들은 waiting queue를 가지고 있다. Waiting queue에는 조건이 충족되길 기다리는 스레드들이 대기(block) 상태로 머물고 있다.

  • x.wait()
    • 대기 상태로 변경한다
    • 조건 변수에 대한 큐(waiting queue)에 삽입한다
  • x.signal()
    • x.wait()를 통해 대기 상태로 변경된 스레드 중 하나를 다시 실행 상태로 변경한다
    • 쉽게 말해서 x.wait()에 의해 대기 상태로 변경된 스레드 하나를 깨운다


monitor-condmonitor


고급 동기화 기법인 모니터를 정리하자면 다음과 같다.

  • 모니터 타입의 선언을 통해 자동으로 공유 자원 접근 코드에 상호 배제(mutual exclusion)를 적용할 수 있다. 이는 개발자의 휴먼 에러(human-error)를 줄여줄 수 있다.
  • 모니터는 특정 스레드가 아직 실행될 조건이 되지 않았을 때 wait()를 통해 실행을 중단하고, 조건이 충족되면 signal()을 통해 실행을 재개해서 작업의 순서 제어에 대한 동기화도 가능하다


자바(Java)에서의 동기화

자바에서는 monitor-lock 또는 intrinsic-lock이라고 부르는 모니터와 유사한(monitor-like) 스레드 동기화 기법을 제공한다.

synchronized 키워드와 wait(), notify() 메서드를 사용한다.



다음 포스트

다음 포스트에서는 철학자들의 식사 문제 (Dining Philosophers Problem)와 함께 데드락(Dead-Lock)에 대해서 알아볼 예정이다.


Reference

  1. 강민철: 혼자 공부하는 컴퓨터 구조 + 운영체제
  2. Abraham Silberschatz: Operating System Concepts(공룡책)
  3. 쉬운코드: 운영체제
  4. https://velog.io/@gabie0208/OS-Interleaving-Race-condition-Critical-Section
  5. https://cs-ssupport.tistory.com/428#3._Monitor
이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.

Comments powered by Disqus.