맨위로가기

비트 (단위)

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

비트는 정보를 나타내는 가장 기본적인 단위로, 1948년 클로드 섀넌에 의해 명명되었다. 비트는 0 또는 1의 두 가지 상태 중 하나를 가질 수 있으며, 초기에는 천공 카드나 모스 부호와 같은 기술에서 사용되었다. 비트는 전압, 전류, 자기 극성 등 다양한 물리적 형태로 표현될 수 있으며, 직렬 또는 병렬 전송 방식을 통해 전송된다. 컴퓨터에서 비트는 데이터 저장 및 처리에 활용되며, 정보 용량과 압축의 개념과도 밀접하게 관련되어 있다.

2. 역사

정보를 나타내기 위해 별개의 부호를 사용하는 개념은 베이컨의 암호(1626) 등에서 초기 형태를 찾아볼 수 있다. 이후 천공 카드천공 테이프와 같이 구멍의 유무로 정보를 기록하는 방식이 개발되어 초기 컴퓨팅 기술과 모스 부호나 전신 인자기 등 초기 디지털 통신의 기반을 마련했다.

정보량을 수학적으로 측정하려는 시도는 20세기 초반부터 이루어졌으며, 랠프 하틀리는 1928년 정보의 로그 척도 사용을 제안했다. '비트'(bit)라는 용어 자체는 클로드 섀넌이 1948년 그의 중요한 논문 "통신의 수학적 이론"에서 공식적으로 사용하면서 널리 알려지게 되었다. 섀넌은 이 용어가 존 튜키가 1947년 벨 연구소 메모에서 'binary information digit|이진 정보 숫자영어'를 줄여 쓴 것에서 유래했다고 밝혔다. 섀넌 이전에도 버니바 부시가 1936년에 천공 카드에 저장되는 정보량을 'bits of information|정보의 비트영어'라고 언급한 바 있으며, 콘라트 추제는 이진법을 사용하는 초기 컴퓨터를 개발하여 비트 개념의 실용화에 기여했다.

2. 1. 초기 역사

데이터를 별개의 부호로 나타내는 방식은 1626년 베이컨의 암호에서 사용된 바 있다.

데이터를 이산적인 비트로 부호화하는 방식은 바질 부숑과 장바티스트 팔콘이 1732년에 발명하고 1804년 조셉 마리 자카드가 개발한 천공 카드에서 사용되었다. 이 기술은 이후 세묜 코르사코프, 찰스 배비지, 허먼 홀러리스, 그리고 IBM과 같은 초기 컴퓨터 제조사들에 의해 채택되었다. 천공 테이프 역시 비슷한 아이디어에서 비롯된 매체이다. 이러한 시스템들에서 카드나 테이프와 같은 매체는 개념적으로 구멍을 뚫을 수 있는 위치들의 배열을 가졌고, 각 위치에 구멍이 뚫렸는지 여부에 따라 1비트의 정보를 나타냈다.

비트를 사용하여 글자를 부호화하는 방식은 1840년대 모스 부호와 전신 인자기, 주식 시세 표시기(1870년)와 같은 초기 디지털 통신 장치들에서도 사용되었다.

1928년 랠프 하틀리는 정보량을 측정하기 위해 로그 척도를 사용할 것을 제안했다. 한편, 1936년 버니바 부시는 당시 기계식 컴퓨터에 사용되던 천공 카드에 저장될 수 있는 정보의 양을 "bits of information|정보의 비트영어"라고 언급하기도 했다. 콘라트 추제가 만든 최초의 프로그래밍 가능한 컴퓨터는 숫자를 표현하기 위해 이진 표기법을 사용했다.

'비트'(bit)라는 용어는 클로드 섀넌이 1948년에 발표한 그의 중요한 논문 "통신의 수학적 이론"에서 처음으로 사용되었다. 섀넌은 이 용어가 존 튜키가 1947년 1월 9일에 작성한 벨 연구소 메모에서 'binary information digit|이진 정보 숫자영어'를 줄여 '비트'(bit)라고 쓴 것에서 유래했다고 밝혔다.

2. 2. 비트 용어의 등장

1928년 랠프 하틀리는 정보량을 측정하는 방법으로 대수적 척도 또는 로그 척도를 사용할 것을 제안했다.[3] 이후 클로드 섀넌이 1948년에 발표한 중요한 논문인 의사소통의 수학적 이론에서 '''bit'''라는 단어를 처음으로 공식 사용했다.[4] 섀넌은 이 용어의 기원을 존 튜키에게 돌렸는데, 튜키는 1947년 1월 9일 벨 연구소 내부 메모에서 "binary digit"(이진 숫자) 혹은 "binary information digit"(이진 정보 숫자)이라는 표현을 간단히 줄여서 "bit"라고 썼다고 한다.[4]

흥미롭게도, 섀넌보다 앞서 버니바 부시가 1936년에 당시 기계식 컴퓨터에서 사용되던 천공 카드가 저장할 수 있는 정보량을 가리켜 "정보의 비트"(bits of information)라는 표현을 사용한 기록이 있다.[5] 또한, 콘라트 추제이진법으로 수를 표현하고 처리하는, 프로그래밍 가능한 최초의 컴퓨터를 개발하여 비트 개념을 실제 기술로 구현하는 데 기여했다.

3. 물리적 표현

비트는 물리적으로 구별 가능한 두 개의 상태 중 하나를 유지하는 디지털 장치나 물리적 시스템을 통해 저장될 수 있다. 대부분의 최신 컴퓨터 장치에서는 비트를 전압이나 전류 펄스, 또는 플립플롭 회로의 전기적 상태 등으로 표현한다. 과거 기계식 장치부터 현대의 반도체 메모리나 광학 디스크에 이르기까지 다양한 기술을 통해 비트를 구현해왔으며, 구체적인 방식은 시대와 기술에 따라 발전해왔다.

3. 1. 다양한 구현 방식

비트는 물리적으로 다양한 방식으로 구현될 수 있다. 두 개의 구별 가능한 상태를 유지할 수 있는 시스템이면 무엇이든 비트를 저장하는 데 사용될 수 있다. 예를 들어, 플립플롭의 두 가지 안정 상태, 스위치의 두 위치, 전기 회로의 서로 다른 전압 또는 전류 레벨, 빛의 밝기(광도) 차이, 자기 또는 전기 극성의 두 방향, 심지어 DNA 이중 나선의 방향까지도 비트를 나타낼 수 있다.

초기 비전자식 정보 처리 장치인 자카드 직기나 배비지의 해석 기관에서는 기계식 레버나 기어의 위치, 혹은 천공 카드천공 테이프에 구멍이 있는지 없는지로 비트를 표현했다. 초기 전기 장치들, 예를 들어 엘리베이터신호등 제어 전자 회로, 전화 교환기, 콘라트 추제의 컴퓨터 등에서는 전기 릴레이가 열려 있는지(off) 닫혀 있는지(on)로 비트를 나타냈다.

1940년대 이후 진공관이 릴레이를 대체하면서, 수은 지연선을 따라 이동하는 압력 펄스, 음극선관 표면에 저장된 전하, 광학 디스크에 광리소그래피 기술로 인쇄된 불투명한 점 등 다양한 저장 방식이 시도되었다.

1950년대와 1960년대에는 자기 코어 메모리, 자기 테이프, 자기 드럼, 디스크 스토리지와 같은 자기 저장 장치가 주류가 되었다. 이 방식들은 자성 필름 특정 영역의 자화 극성이나 극성이 바뀌는 것을 이용해 비트를 저장했다. 이 원리는 1980년대 자기 버블 메모리에도 적용되었고, 지하철 티켓이나 일부 신용 카드의 마그네틱 스트립에서도 여전히 사용된다.

현대의 반도체 메모리, 예를 들어 DRAM에서는 캐패시터에 저장된 전하량의 두 가지 레벨로 비트의 두 값을 표현한다. 특정 유형의 프로그래머블 로직 어레이나 ROM에서는 회로 특정 지점의 전도 경로 유무로 비트를 나타내기도 한다. 광학 디스크에서는 반사 표면에 현미경으로 관찰 가능한 홈(pit)의 유무로 비트를 인코딩하며, 1차원 바코드에서는 검은색과 흰색 선의 두께 차이로 비트를 표현한다.
정 논리(Positive logiceng)를 사용하는 장치에서는 일반적으로 숫자 값 1 (또는 '참' 논리값)을 0보다 더 높은 양(+)의 전압으로 표현한다. 실제 전압 값은 부품의 내구성이나 노이즈 내성 같은 특성에 따라 달라진다. 예를 들어, 트랜지스터-트랜지스터 로직(TTL) 및 호환 회로에서는 장치 출력 기준으로 0은 0.4V 이하, 1은 2.6V 이상으로 표현한다. 입력 신호는 0.8V 이하면 0으로, 2.2V 이상이면 1로 인식하도록 설계되어 있다.

3. 2. 정 논리(Positive Logic)

정 논리를 사용하는 장치에서는 숫자 값 1 또는 '참'(True) 논리값을 0보다 더 높은 양(+)의 전압으로 나타낸다. 실제 사용하는 전압 값은 부품의 내구성이나 잡음 내성 같은 특성에 따라 달라진다. 예를 들어, 트랜지스터-트랜지스터 로직(TTL)과 호환되는 회로에서는 장치 출력 기준으로 0.4V 이하는 0으로, 2.6V 이상은 1로 표현한다. 입력의 경우, 0.8V 이하는 0으로, 2.2V 이상은 1로 인식하도록 설계되어 있다.

4. 전송과 처리

비트는 직렬 전송 방식이나 병렬 전송 방식으로 전송되며, 비트 연산을 통해 처리된다. 데이터 전송 속도는 주로 초당 비트(bit/s)에 SI 접두어를 붙여 나타낸다.

4. 1. 직렬 전송과 병렬 전송

비트는 직렬 전송 방식으로 한 번에 하나씩 전송되거나, 병렬 전송 방식으로 여러 비트가 동시에 전송될 수 있다. 비트 연산에서는 비트를 하나씩 처리하는 경우도 있다. 데이터 전송 속도는 일반적으로 초당 비트(bit/s) 단위에 SI 접두어를 붙여 측정하며, 예를 들어 kbit/s와 같이 표현한다. 2진 접두어는 데이터 전송 속도 표시에 사용되지 않는다.

4. 2. 비트 연산

비트 연산은 선택적으로 비트를 한 번에 하나씩 처리하는 방식으로 이루어지기도 한다.

5. 저장

비트는 정보를 나타내는 가장 기본적인 단위로, 물리적으로 구별 가능한 두 가지 상태 중 하나를 이용하여 저장된다. 초기 컴퓨터의 역사에서는 천공 카드의 구멍 유무나 기계식 레버의 위치 등으로 비트를 저장했다. 이후 기술 발전에 따라 전기 릴레이나 진공관의 켜고 꺼짐, 자기 테이프나 자기 디스크 같은 자기 저장 장치에서의 자화 방향, 반도체 메모리(DRAM 등)에서의 전하 유무, 광학 디스크 표면의 미세한 홈(pit) 유무 등 다양한 방식으로 구현되었다.

현대의 디지털 장치나 물리 시스템은 대부분 비트를 저장하기 위해 두 개의 명확히 구분되는 상태를 활용한다. 예를 들어, 플립플롭 회로의 두 가지 안정된 상태, 스위치의 두 가지 위치, 전기 회로 내 전압이나 전류의 두 가지 다른 레벨, 빛의 밝기 차이, 자기 또는 전기 극성의 두 방향 등이 비트를 저장하는 데 사용될 수 있다.

특히 오늘날 컴퓨터 장치에서는 비트를 주로 전압이나 전류의 펄스, 또는 플립플롭 회로의 전기적 상태로 표현한다. 정 논리를 사용하는 시스템에서는 일반적으로 숫자 값 '1'(또는 논리적 '참')을 '0'보다 높은 전압으로 나타낸다. 실제 사용되는 전압 값은 부품의 특성이나 잡음 내성 등을 고려하여 결정된다. 예를 들어, 트랜지스터-트랜지스터 논리(TTL) 회로에서는 출력 신호의 경우 0.4V 이하를 '0'으로, 2.6V 이상을 '1'로 정의하고, 입력 신호는 0.8V 이하를 '0'으로, 2.2V 이상을 '1'로 인식하도록 설계되어 있다.

5. 1. 초기 저장 방식

자카드 직기찰스 배비지의 해석 기관과 같은 초기의 비전자 정보 처리 장치에서는 비트를 기계식 레버나 기어의 위치, 또는 천공 카드천공 테이프의 특정 지점에 구멍이 있는지 없는지로 저장했다.

엘리베이터신호등 제어 전자 회로, 전화 교환기, 콘라트 추제의 컴퓨터와 같은 최초의 이산 논리용 전기 장치에서는 비트를 "열림" 또는 "닫힘" 상태의 전기 릴레이로 나타냈다.

1940년대부터 릴레이가 진공관으로 대체되면서, 컴퓨터 제작자들은 수은 지연선을 따라 이동하는 압력 펄스, 음극선관(윌리엄스관) 내부 표면에 저장된 전하, 또는 포토리소그래피 기술로 광학 디스크에 인쇄된 불투명한 점과 같은 다양한 저장 방법을 실험했다.

5. 2. 자기 저장 장치

1950년대 및 1960년대에 이전의 여러 저장 방식은 자기 코어 메모리, 자기 테이프, 자기 드럼 메모리, 자기 디스크 등 자기 기록 장치로 크게 대체되었다. 이러한 자기 기억 장치에서는 비트가 강자성 필름의 특정 영역의 자성 방향, 또는 한 방향에서 다른 방향으로의 극성 변화로 표현된다. 1980년대에 개발된 자기 버블 메모리에서도 동일한 원리가 사용되었으며, 기차 나 신용 카드 등 마그네틱 스트라이프 카드에 여전히 사용되고 있다.

5. 3. 현대 저장 방식

현대 반도체 메모리인 DRAM과 같은 경우, 비트의 두 값은 캐패시터에 저장된 두 레벨의 전하로 표현될 수 있다. 특정 유형의 프로그래머블 로직 어레이와 ROM에서는 비트가 회로의 특정 지점에서 전도 경로의 존재 또는 부재로 표현될 수 있다. 광학 디스크에서 비트는 반사 표면에 미세한 피트(pit)의 유무로 인코딩된다. 1차원 바코드에서 비트는 검은색과 흰색 선이 교대로 나타나는 두께로 인코딩된다.

비트는 가능한 두 개의 별개의 상태 중 하나를 유지하는 디지털 장치 또는 기타 물리적 시스템에 의해 저장될 수도 있다. 예를 들어 플립플롭의 두 가지 안정 상태, 스위치의 두 위치, 전기 회로에서 취할 수 있는 전압 또는 전류의 두 가지 다른 레벨, 두 가지 다른 조도 레벨, 자기 또는 전기 극성의 두 방향, DNA 이중 나선의 방향 등이 있다.

대부분의 최신 컴퓨터 장치에서 비트는 일반적으로 전압 또는 전류 펄스, 또는 플립플롭 회로의 전기적 상태로 표현된다. 정 논리를 사용하는 장치의 경우, 숫자 값 1 (또는 "참"(True)의 논리값)은 0의 표현보다 더 높은 양의 전압으로 표현된다. 실제 전압은 부품의 내구성과 노이즈 내성 등 부품의 특성에 따라 결정된다. 예를 들어, 트랜지스터-트랜지스터 로직(TTL) 및 호환 회로에서 장치의 출력은 0이 0.4V 이하, 1이 2.6V 이상으로 표현된다. 입력은 0.8V 이하는 0, 2.2V 이상은 1로 인식하도록 설정되어 있다.

6. 단위와 기호

비트는 국제 단위계(SI)에서 정의된 공식 단위는 아니다. 비트를 나타내는 기호로는 'bit' 또는 소문자 'b' 등이 사용되며, 국제 전기 기술 위원회(IEC)의 IEC 60027 표준이나 IEEE 1541 표준 (2002) 등에서 기호 사용에 대한 권고가 있다. 한편, 대문자 'B'는 일반적으로 바이트(Byte)를 나타내는 기호로 사용되므로 혼동하지 않도록 주의해야 한다.

6. 1. 표준 기호

비트는 국제 단위계 (SI)에서 정의되지 않는다. 그러나 국제 전기 기술 위원회(IEC)는 표준 IEC 60027을 통해 이진 숫자의 기호로 'bit'를 지정하고, 킬로비트('kbit')와 같은 모든 배수에도 이 기호를 사용해야 한다고 명시했다.

한편, 소문자 'b' 역시 널리 사용되는 기호이며, IEEE 1541 표준 (2002)에서도 권장된 바 있다. 이와 대조적으로 대문자 'B'는 바이트를 나타내는 표준이자 관례적인 기호로 사용된다.

6. 2. 여러 비트 단위

정보 기술 분야에서는 여러 비트를 묶어서 표현하고 나타내기 위해 다양한 정보 단위를 사용해왔다. 가장 널리 쓰이는 단위는 바이트로, 1956년 6월 베르너 부흐홀츠가 처음 사용했다. 바이트는 역사적으로 컴퓨터에서 문자 하나를 부호화하는 데 필요한 비트 묶음을 의미했으며, 이 때문에 많은 컴퓨터 아키텍처에서 기본적인 주소 공간 단위로 사용되었다. 현재는 대부분 8비트를 1바이트로 사용하지만, 과거에는 하드웨어 설계에 따라 크기가 달랐다. 이러한 모호성을 피하고 8비트임을 명확히 하기 위해 옥테트라는 단위가 정의되기도 했다.

컴퓨터는 보통 고정된 크기의 비트 그룹을 한 단위로 처리하는데, 이를 워드라고 부른다. 워드의 비트 수 역시 바이트처럼 하드웨어 설계에 따라 다르며, 일반적으로 8비트에서 80비트 사이이거나 특수한 컴퓨터에서는 더 크기도 하다. 21세기 초 개인용 컴퓨터나 서버 컴퓨터의 워드 크기는 주로 32비트 또는 64비트이다.

비트나 바이트의 양이 많아지면 국제 단위계(SI)에서 정한 SI 접두어를 사용하여 나타낸다. 킬로- (k, 103)부터 요타- (Y, 1024)까지 1000배씩 증가하는 접두어를 사용하여 킬로비트(kbit)부터 요타비트(Ybit) 등으로 표현한다.

비트 자체는 국제 단위계(SI) 단위는 아니지만, 국제 전기 기술 위원회(IEC)는 IEC 60027 표준을 통해 비트의 기호는 'bit'로 써야 하며, 킬로비트(kbit)와 같은 모든 배수 단위에 적용해야 한다고 명시했다. 하지만 소문자 'b'도 널리 쓰이며, IEEE 1541-2002 표준에서는 'b'를 권장했다. 반면, 대문자 'B'는 바이트를 나타내는 표준 기호이자 관례적인 표기이다.

역사적으로 SI 접두어(킬로, 메가 등)가 원래의 1000배수가 아닌 1024(=210)의 거듭제곱을 나타내는 데 혼용되기도 했다. 특히 메모리 용량 등에서 이런 경우가 많았다. 이러한 혼란을 없애기 위해 국제 전기 기술 위원회(IEC)는 IEC 80000-13 표준에서 1024의 거듭제곱을 명확히 나타내는 이진 접두어(키비(Ki), 메비(Mi) 등)를 정의했다.

아래는 십진 접두어와 이진 접두어를 사용한 비트 단위들을 비교한 표이다.

SI 접두어 (십진법)이진 접두어 (IEC 80000-13)
값 (10n)단위기호관용 값 (2n)값 (2n)단위기호
103킬로비트kbit210210키비비트Kibit
106메가비트Mbit220220메비비트Mibit
109기가비트Gbit230230기비비트Gibit
1012테라비트Tbit240240테비비트Tibit
1015페타비트Pbit250250페비비트Pibit
1018엑사비트Ebit260260엑스비비트Eibit
1021제타비트Zbit270270제비비트Zibit
1024요타비트Ybit280280요비비트Yibit


7. 정보 용량과 정보 압축

정보 저장 장치나 통신 채널이 가지는 정보 용량과 실제 저장되거나 전송되는 정보의 양 사이에는 차이가 있을 수 있으며, 이 차이를 줄이기 위해 데이터 압축 기술이 사용된다. 정보 용량은 일반적으로 컴퓨터 하드웨어가 저장할 수 있는 최대 이진 데이터의 양을 나타내지만, 저장된 데이터의 패턴이나 예측 가능성에 따라 실제 포함된 정보량은 이보다 적을 수 있다. 데이터 압축은 이러한 중복성을 제거하여 더 적은 비트로 동일한 정보를 표현하는 기술의 기반이 된다. 자세한 내용은 아래 하위 문서를 참조하라.

7. 1. 정보 용량

저장 시스템이나 통신 채널의 정보 용량을 ''비트'' 또는 ''초당 비트''로 나타낼 때는, 보통 컴퓨터 하드웨어가 이진 데이터(0 또는 1, 켜짐 또는 꺼짐 등)를 저장하는 능력을 의미한다. 하지만 저장 시스템의 정보 용량은 실제로 저장될 수 있는 정보량의 최댓값을 나타낼 뿐이다. 만약 저장된 비트의 두 가지 가능한 값(0과 1)이 동일한 확률로 나타나지 않는다면, 해당 저장 공간이 담고 있는 실제 정보량은 표시된 용량보다 적다. 값이 완전히 예측 가능하다면, 그 값을 읽는 것은 아무런 새로운 정보를 주지 못한다 (불확실성이 해소되지 않으므로 정보 엔트로피는 0이다).

예를 들어, ''n'' 비트 크기의 저장 공간을 사용하는 컴퓨터 파일이 실제로는 ''m'' 비트 (''m'' < ''n'')의 정보만 담고 있다면, 이론적으로 이 정보는 평균 약 ''m'' 비트만으로도 표현(인코딩)될 수 있다. 이러한 원리는 데이터 압축 기술의 기본이 된다. 비유하자면, 하드웨어 비트는 사용 가능한 저장 공간의 크기(물건을 담을 수 있는 통의 개수)를 나타내고, 정보 내용은 그 안에 채워지는 것과 같으며, 이는 얼마나 잘게 나누어 담느냐(정보의 압축 정도)에 따라 달라진다. 더 잘게 나눌수록, 즉 정보가 더 많이 압축될수록 같은 크기의 통에 더 많은 내용을 담을 수 있다.

한 연구에 따르면, 전 세계의 정보를 저장하는 기술적 총용량은 약 1,300 엑사바이트에 달하는 하드웨어 비트를 제공하는 것으로 추정된다. 그러나 이 공간이 가득 차고 내용이 최적으로 압축된다면, 실제 정보량은 295 엑사바이트에 해당한다. 정보가 최적으로 압축될 경우, 그 용량은 섀넌 정보 또는 정보 엔트로피 값에 가까워진다.

7. 2. 정보 압축

저장 시스템이나 통신 채널의 정보 용량이 '비트'로 표시될 때는 주로 이진 데이터를 저장하는 컴퓨터 하드웨어의 용량(0 또는 1과 같은 두 가지 상태)을 의미한다. 하지만 저장 시스템의 정보 용량은 저장 가능한 정보량의 상한선일 뿐이다. 만약 저장소의 한 비트가 가질 수 있는 두 가지 가능한 값(0과 1)이 동일한 확률로 나타나지 않는다면, 해당 저장소 비트는 1비트 미만의 정보를 포함하게 된다. 값이 완전히 예측 가능하다면, 그 값을 읽는 것은 아무런 정보도 주지 못한다. 이는 불확실성이 해소되지 않아 얻을 정보가 없기 때문에 정보 엔트로피가 0이 되는 것과 같다.

컴퓨터 파일이 ''n'' 비트의 저장 공간을 사용하지만 실제로는 ''m'' < ''n'' 비트의 정보만 포함하고 있다면, 이 정보는 원칙적으로 평균 약 ''m'' 비트로 인코딩될 수 있다. 이러한 원리는 데이터 압축 기술, 특히 무손실 데이터 압축의 기초가 된다. 정보가 최적으로 압축될 경우, 압축된 데이터의 크기는 섀넌 정보 또는 정보 엔트로피 값에 가까워진다.

8. 비트 기반 컴퓨팅

컴퓨터는 데이터를 처리할 때 개별 비트 수준에서 직접 작동하는 비트 연산 명령어를 사용하기도 한다. 또한, 비트맵 디스플레이 환경에서는 화면의 특정 영역을 효율적으로 처리하기 위한 비트 블록 전송 명령어가 활용되기도 했다.

데이터 단위 내에서 특정 비트의 위치를 나타낼 때는 일반적으로 0부터 시작하는 번호를 사용하며, 이때 최상위 비트(MSB) 또는 최하위 비트(LSB) 중 어느 것을 기준으로 삼는지는 엔디안 방식에 따라 달라질 수 있다.

8. 1. 비트 단위 연산

특정 비트 단위 컴퓨터 프로세서 명령어(예: ''비트 설정'')는 데이터를 비트 집합으로 해석하여 조작하는 대신, 개별 비트를 직접 조작하는 수준에서 작동한다.

1980년대에 비트맵 컴퓨터 디스플레이가 널리 사용되면서, 일부 컴퓨터는 화면의 특정 사각형 영역에 해당하는 비트를 설정하거나 복사하기 위한 특수한 비트 블록 전송(bitblt 또는 blit) 명령어를 제공하기도 했다.

대부분의 컴퓨터와 프로그래밍 언어에서 바이트워드와 같은 비트 그룹 내의 특정 비트를 참조할 때는 일반적으로 해당 그룹 내에서의 위치를 나타내는 0부터 시작하는 숫자를 사용한다. 그러나 이 숫자 0이 최상위 비트(MSB)를 가리키는지, 아니면 최하위 비트(LSB)를 가리키는지는 문맥이나 CPU 설계에 따라 다를 수 있다. LSB를 0번 비트로 삼는 방식(리틀 엔디안)과 MSB를 0번 비트로 삼는 방식(빅 엔디안)이 모두 존재하며, 이러한 차이를 엔디안이라고 부른다. 현재는 리틀 엔디안 방식이 더 흔하게 사용된다.

8. 2. 비트 블록 전송

1980년대에 비트맵 컴퓨터 디스플레이가 널리 사용되면서, 일부 컴퓨터는 화면의 특정 사각형 영역에 해당하는 비트를 효율적으로 설정하거나 복사하기 위한 특수한 비트 블록 전송(bit block transfereng) 명령어를 제공하기 시작했다. 이 명령어는 종종 "bitblt"(bitblteng) 또는 "blit"(bliteng)이라는 약칭으로 불렸다.

9. 기타 정보 단위

정보 이론에서 사용되는 정보 단위에는 ''섀넌'' (Sh), ''자연 정보 단위'' (nat) 및 ''하틀리'' (Hart)가 있다. 1 섀넌은 한 비트의 저장 상태를 지정하는 데 필요한 최대 정보량을 의미하며, 이 단위들은 1 Sh ≈ 0.693 nat ≈ 0.301 Hart의 관계를 가진다.

일부 저자는 특정되지 않은 고정된 비트 수와 동일한 임의의 정보 단위인 비닛을 정의하기도 한다.

참조

[1] 서적 Coded Character Sets, History and Development https://books.google[...] Addison-Wesley Publishing Company, Inc. 2016-05-22
[2] 서적 An Introduction to Numerical Methods A MATLAB Approach 학산미디어 2013
[3] 서적 Information theory and coding McGraw-Hill
[4] 저널 A Mathematical Theory of Communication http://cm.bell-labs.[...] 2013-12-03
[5] 저널 Instrumental analysis http://projecteuclid[...]



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com