데이터 (컴퓨팅)
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
데이터는 정보로 변환되기 위한 필수 요소로, 메타데이터를 통해 의미가 명확해진다. 컴퓨터 프로그램은 데이터를 기반으로 실행되며, 데이터는 파일 형식으로 저장된다. 데이터는 CPU가 접근할 수 있는 RAM, 파일, 테이블, 데이터 세트 형태로 저장될 수 있으며, 키와 값을 통해 구조화된다. 데이터는 정렬되어 처리될 수 있으며, 파일 시스템, 데이터베이스, 분산 데이터 처리 시스템 등 다양한 방식으로 저장되고 관리된다. 데이터는 한국의 산업 및 정책에서도 중요한 역할을 하며, 개인 정보 보호, 데이터 편향성 등 윤리적 문제와도 관련된다.
메타데이터는 데이터 자체에 대한 부가적인 정보, 즉 '데이터에 관한 데이터'를 의미하며, 데이터에 의미를 부여하여 정보로 변환하는 데 중요한 역할을 한다. 메타데이터는 데이터에 암묵적으로 포함되거나 명시적으로 지정될 수 있다.
데이터에서 키(''key'')는 값(''value'')에 대한 문맥(context)을 제공한다. 데이터의 구조와 관계없이 키 요소는 항상 존재하며, 데이터 값에 의미를 부여하는 데 필수적이다. 값이나 값의 집합에 직간접적으로 연결된 키가 없다면, 해당 값은 의미를 잃어 데이터로 간주될 수 없다. 즉, 데이터가 되려면 값 구성 요소에 연결된 키 구성 요소가 반드시 필요하다.
2. 특징
또한, 데이터는 종종 시간적 요소를 포함한다. 예를 들어 특정 시점의 온도 측정값처럼, 데이터가 언제 생성되었거나 측정되었는지에 대한 정보는 데이터의 맥락을 이해하는 데 필수적이다. 이러한 시간 정보는 메타데이터의 일부로 다뤄지기도 한다.
한편, 디지털 데이터의 양은 폭발적으로 증가하여 2007년에는 전 세계 디지털 데이터의 총량이 약 2,810억 기가바이트(281 엑사바이트)에 달하는 것으로 추정되었다.[4][5][9][10]
2. 1. 컴퓨터 프로그램과 데이터
컴퓨터는 기본적으로 데이터 형태로 주어진 명령어들을 순서대로 실행한다. 특정 작업을 수행하기 위해 컴퓨터에 내리는 명령어들의 묶음을 프로그램이라고 부른다. 프로그램 자체도 컴퓨터나 다른 기기의 작동을 제어하는, 특정 형식으로 약속된 명령어 형태의 데이터라고 할 수 있다.[2] 일반적으로 컴퓨터가 직접 실행하는 프로그램은 기계어로 작성되어 있다. 프로그램이 처리 대상으로 삼지만, 중앙 처리 장치(CPU)가 직접 실행하지 않는 저장 장치 속 내용 역시 데이터에 해당한다. 가장 기본적인 단위에서 데이터는 특정 위치에 저장된 값이라고 볼 수 있다. 이러한 원리로, 어떤 컴퓨터 프로그램이 자신의 데이터를 조작하여 다른 컴퓨터 프로그램을 작동시키는 것도 가능하다.
바이트 단위의 데이터를 파일로 저장하기 위해서는 직렬화 과정을 거쳐 특정 파일 형식으로 만들어야 한다. 보통 프로그램은 다른 일반 데이터와는 구별되는 특별한 파일 형식으로 저장된다. 실행 파일은 프로그램을 담고 있으며, 그 외의 파일들은 일반적으로 데이터 파일로 분류된다. 하지만 실행 파일 안에도 해당 프로그램이 실행될 때 사용하는 데이터가 내장되어 있을 수 있다. 예를 들어, 일부 실행 파일은 프로그램에서 사용할 상수나 변수의 초기값을 담고 있는 데이터 세그먼트를 포함하는데, 이 역시 데이터로 간주된다.
때로는 프로그램과 데이터의 구분이 명확하지 않은 경우도 있다. 예를 들어, 인터프리터는 그 자체로 하나의 프로그램이다. 그런데 인터프리터가 입력으로 받는 데이터는 또 다른 프로그램이며, 다만 컴퓨터가 직접 이해하는 기계어 형태가 아닐 뿐이다. 많은 경우 인터프리터가 처리하는 프로그램은 사람이 읽을 수 있는 텍스트 파일 형태이며, 이는 텍스트 편집기와 같은 프로그램을 이용해 수정할 수 있다. 메타 프로그래밍 역시 프로그램이 다른 프로그램을 데이터처럼 취급하여 조작하는 기술을 의미한다. 컴파일러, 링커, 디버거, 프로그램 업데이트 도구, 바이러스 스캐너와 같은 프로그램들은 모두 다른 프로그램을 데이터로 다루는 예시이다.
구체적인 예를 들면, 사용자가 운영 체제를 통해 워드 프로세서 프로그램을 실행시킨 후, 이 프로그램을 이용하여 별도의 파일에 저장된 문서를 열어 편집하는 상황을 생각할 수 있다. 이 경우, 사용자가 편집하는 문서는 데이터에 해당한다. 만약 워드 프로세서에 맞춤법 검사기 기능이 있다면, 맞춤법 검사에 사용되는 사전(단어 목록) 역시 데이터로 볼 수 있다. 맞춤법 검사기가 단어를 검사하고 수정을 제안하는 데 사용하는 알고리즘은 기계어 형태의 데이터일 수도 있고, 인터프리터가 해석할 수 있는 프로그래밍 언어로 작성된 텍스트 데이터일 수도 있다.
한편, 사람이 직접 읽기 어려운 이진 파일을 사람이 읽을 수 있는 텍스트 파일과 구분하여 '데이터'라고 부르는 경우도 있다.[3]
2. 2. 데이터의 표현 및 저장
RAM(Random Access Memory)은 CPU(중앙 처리 장치)가 직접 접근하여 데이터를 읽고 쓸 수 있는 주 기억 장치이다. CPU는 자신의 프로세서 레지스터나 RAM에 있는 데이터만 직접 조작할 수 있으며, 이는 CPU가 디스크나 테이프 같은 보조 기억 장치와 RAM 사이의 데이터 전송을 별도로 지시해야 하는 것과 대조된다. RAM은 기본적으로 데이터를 저장하는 연속된 선형 공간들의 배열로 구성되며, 각 공간은 고유한 메모리 주소를 갖는다. 프로세서는 이 주소를 이용해 언제든 원하는 순서로 RAM의 특정 위치에 접근하여 데이터를 읽거나 쓸 수 있다. RAM에서 데이터를 표현하는 가장 작은 단위는 이진 비트(bit)이다. RAM 접근 방식과 제약 사항은 프로세서마다 다르며, 일반적으로 주 메모리는 주소 0(16진수 0)부터 시작하는 주소 배열로 구성된다. 각 메모리 위치에는 컴퓨터 아키텍처에 따라 보통 8비트 또는 32비트의 데이터를 저장할 수 있다.
플래시 메모리와 같은 비휘발성 메모리가 보편화되기 전까지, 데이터의 영구적인 저장은 주로 자기 테이프나 디스크 드라이브와 같은 외부 주변 장치에 데이터를 기록하는 방식으로 이루어졌다. 이러한 장치들은 자기 헤드를 특정 위치로 이동시켜 정해진 크기의 데이터 블록을 읽고 쓰는 방식으로 작동한다. 이때 미디어 상의 특정 위치가 데이터의 주소 역할을 하고, 해당 블록이 데이터 값에 해당한다. 초기 파일 시스템에서는 디스크 드라이브의 연속된 블록을 특정 데이터 파일에 미리 할당했다. 하지만 이 방식은 파일 크기가 예상보다 커지거나 데이터 저장 공간이 부족해지면 비효율적이었고, 사용되지 않는 공간이 많이 발생했다. 이후 등장한 파일 시스템은 파티션 개념을 도입하여 디스크 공간을 나누고, 필요에 따라 동적으로 파일에 블록을 할당하여 공간 효율성을 높였다. 이를 위해 파일 시스템은 어떤 블록이 사용 중인지 아닌지를 카탈로그나 파일 할당 테이블을 통해 관리해야 했다. 이 방식은 디스크 공간 활용도를 높였지만, 파일 데이터가 디스크 여러 곳에 흩어져 저장되는 단편화 문제를 야기하여 데이터 접근 속도를 느리게 만들기도 했다. 최신 파일 시스템은 이러한 단편화된 파일을 동적으로 재구성하여 파일 접근 시간을 최적화하는 기능을 갖추고 있으며, 여러 물리적 드라이브를 묶어 하나의 논리 드라이브처럼 사용하는 디스크 가상화 기술도 발전했다.
데이터를 식별하는 키(key)가 반드시 메모리상의 물리적인 하드웨어 주소를 직접 가리킬 필요는 없다. 간접 참조, 추상적이고 논리적인 키 코드를 값과 연결하여 자료 구조를 형성할 수도 있다. 자료 구조는 시작 지점으로부터 특정 경로(링크나 오프셋)를 따라가 데이터 값에 접근하는 방식으로 구성된다. 이러한 구조를 반복하여 데이터 값과 키의 쌍을 저장하면, 마치 2차원 표처럼 데이터를 구성할 수 있다.
대규모 데이터 집합에서 특정 데이터를 빠르게 찾기 위해 전체 데이터를 순차적으로 검색하는 것은 비효율적이다. 이를 해결하기 위해 '''인덱스'''(index) 기법이 사용된다. 인덱스는 원본 데이터(파일, 테이블 등)에서 키와 해당 데이터의 위치 주소 정보만 따로 복사하여, 트리 구조 등으로 효율적으로 구성한 데이터 구조이다. 이를 통해 원본 데이터 전체를 검색하지 않고도 원하는 데이터의 위치를 빠르게 찾아 접근 시간을 단축할 수 있다. 인덱스를 사용하려면 검색하려는 데이터의 키 값을 미리 알고 있어야 한다. 가장 널리 사용되는 인덱스 방식으로는 B-tree와 동적 해시 함수를 이용한 키 인덱싱이 있다. 다만, 인덱스를 생성하고 유지하는 데는 추가적인 저장 공간과 처리 시간(오버헤드)이 필요하다. 키를 미리 정렬해두고 이진 탐색 알고리즘을 사용하는 것도 데이터를 효율적으로 검색하는 방법 중 하나이다.
메타데이터는 데이터 자체에 대한 부가적인 정보, 즉 '데이터에 관한 데이터'이다. 메타데이터는 데이터에 의미를 부여하여 정보로 변환하는 데 도움을 준다. 메타데이터는 데이터에 암묵적으로 포함될 수도 있고, 명시적으로 지정되거나 부여될 수도 있다. 물리적인 현상이나 과정과 관련된 데이터에는 시간적 요소가 포함되는 경우가 많다. 예를 들어, 온도 로거(자동 기록 장치)가 센서로부터 온도 데이터를 수신할 때, 온도를 수신하는 순간이 '지금'이라는 시간적 기준을 갖는다고 암묵적으로 가정될 수 있다. 따라서 장치는 날짜, 시간, 온도 값을 함께 기록한다. 만약 이 온도 데이터를 다른 시스템에 전송한다면, 각 온도 측정값과 함께 측정된 날짜와 시간을 메타데이터로 명시적으로 보고해야 한다.
기본적으로 컴퓨터는 데이터 형태로 주어진 일련의 명령에 따라 작동한다. 특정 작업을 수행하기 위한 명령들의 집합을 프로그램이라고 하며, 이는 컴퓨터가 이해할 수 있는 코드화된 명령 형태의 데이터이다.[7] 컴퓨터가 실행하는 프로그램은 주로 기계어 코드로 이루어진다. 프로그램에 의해 조작되지만 CPU가 직접 실행하지 않는 메모리 상의 요소들도 데이터로 간주된다. 본질적으로 하나의 '''데이터'''(datum)는 특정 위치에 저장된 값이며, 따라서 어떤 컴퓨터 프로그램이 다른 컴퓨터 프로그램을 데이터로 취급하여 조작하는 것도 가능하다.
데이터 바이트를 파일에 저장하려면 특정 파일 형식으로 직렬화해야 한다. 일반적으로 프로그램은 다른 데이터 파일과는 구별되는 특별한 파일 형식으로 저장된다. 실행 파일은 프로그램을 포함하며, 그 외의 파일은 보통 데이터 파일로 분류된다. 하지만 실행 파일 내에도 프로그램 실행에 필요한 데이터(예: 상수 값, 초기 변수 값 등)가 포함될 수 있으며, 일부 실행 파일은 명시적인 데이터 세그먼트를 갖기도 한다.
프로그램과 데이터의 경계는 때때로 모호하다. 예를 들어, 인터프리터는 그 자체로 프로그램이지만, 인터프리터가 처리하는 입력 데이터 역시 (기계어가 아닌 다른 형태로 작성된) 프로그램이다. 이러한 프로그램은 사람이 읽을 수 있는 텍스트 파일 형태인 경우가 많아 텍스트 편집기로 쉽게 수정할 수 있다. 또한, 메타프로그래밍은 프로그램이 다른 프로그램을 데이터처럼 다루는 기술을 의미한다. 컴파일러, 링커, 디버거, 프로그램 업데이트 도구, 바이러스 검사 프로그램 등은 모두 다른 프로그램을 데이터로 처리하는 프로그램의 예시이다.
예를 들어, 사용자가 운영 체제에 명령하여 워드 프로세서 프로그램을 파일에서 로드하고, 실행된 워드 프로세서를 사용하여 다른 파일에 저장된 문서를 열어 편집한다고 가정해보자. 이 경우 문서는 워드 프로세서가 처리하는 데이터이다. 만약 워드 프로세서에 맞춤법 검사기 기능이 있다면, 검사기가 사용하는 사전(단어 목록) 역시 데이터로 간주된다. 맞춤법 검사기가 수정 제안을 위해 사용하는 알고리즘은 기계어 형태의 데이터일 수도 있고, 해석 가능한 프로그래밍 언어로 작성된 텍스트 데이터일 수도 있다. 다른 관점에서는, 사람이 직접 읽기 어려운 바이너리 파일을 사람이 읽을 수 있는 ''텍스트 파일''과 구분하여 '데이터'라고 부르기도 한다.[8]
객체 지향 패러다임에서는 데이터와 소프트웨어를 이해하기 위해 주로 두 가지 개념을 사용한다.
# 클래스: 프로그램 코드를 구조화하는 분류 체계로, 계층적인 데이터 구조의 예시이다.
# 객체: 프로그램 실행 중에 클래스 정의를 바탕으로 라이브러리에서 인스턴스화되어 메모리에 생성된 실체. 객체는 자신에게 할당된 데이터 구조에 대한 참조(키)를 통해 접근된다.
객체는 클래스 정의를 바탕으로 프로그램 실행 중에 메모리에 생성(인스턴스화)된다. 객체를 가리키는 참조(키)가 사라지면(Null 값 등), 해당 객체가 참조하던 데이터는 더 이상 접근할 수 없게 되며 객체 자체도 존재하지 않는 것으로 간주된다. 이때 객체가 사용하던 메모리 공간은 가비지 컬렉션 과정을 통해 회수되어 다른 용도로 재사용될 수 있는 빈 공간으로 분류된다.
2007년에 전 세계 디지털 데이터의 총량은 약 2,810억 기가바이트(281 엑사바이트)로 추정되었다.[9][10]
3. 데이터의 구조
데이터는 컴퓨터 내에서 다양한 방식으로 표현될 수 있다. 예를 들어, 데이터 키가 반드시 메모리상의 직접적인 하드웨어 주소를 가리킬 필요는 없다. 간접적이거나 추상적이고 논리적인 키 코드를 값과 연결하여 자료 구조를 형성할 수 있다. 자료 구조는 시작점으로부터 미리 정해진 오프셋(offset)이나 링크, 경로 등을 가지며, 이 위치에 데이터 값이 저장된다. 따라서 데이터 키는 해당 구조체에 대한 키와 구조체 내부의 오프셋(또는 링크, 경로)으로 구성된다.
만약 이러한 구조가 반복되어 동일한 구조 내에 데이터 값과 데이터 키의 쌍들이 저장된다면, 이는 표와 유사한 형태로 볼 수 있다. 이때 반복 구조의 각 요소는 표의 열(column)로, 각 반복은 표의 행(row)으로 간주될 수 있다. 이런 데이터 구성에서 데이터 키는 보통 열 값 중 하나 또는 여러 열 값의 조합이 된다. 표 형태 외에도 데이터를 구성하는 다른 방식들이 존재한다.
3. 1. 조직화된 반복 데이터 구조
반복적인 데이터 구조를 나타내는 방식에는 여러 가지가 있으며, 표 형식은 그중 하나이다. 데이터 구조는 계층적으로 구성될 수도 있는데, 이는 노드들이 부모-자식 관계의 연쇄로 서로 연결되는 방식이다. 각 노드에는 값이나 더 복잡한 데이터 구조가 연결될 수 있다. 따라서 노드 계층 구조는 노드와 관련된 데이터 구조의 위치를 찾는 데 중요한 역할을 한다. 이러한 표현 방식은 마치 나무를 거꾸로 세운 것과 같은 역 트리 형태로 생각할 수 있다. 현대 컴퓨터 운영 체제의 파일 시스템이나 XML이 이러한 계층적 구조의 대표적인 예이다.
3. 2. 정렬된 데이터
데이터를 특정 키(key)를 기준으로 정렬하면 몇 가지 고유한 특징이 나타난다. 같은 키 값을 가지는 데이터, 즉 키의 하위 집합에 해당하는 값들은 모두 함께 모여서 나타나게 된다. 데이터를 순서대로 처리할 때, 동일한 키 값을 가진 데이터 그룹이 끝나거나 키의 일부가 변경되는 지점을 데이터 처리 분야에서는 브레이크(break) 또는 제어 브레이크라고 부른다. 이렇게 데이터를 정렬하면 특정 키 그룹에 대한 데이터 값의 집계를 쉽게 수행할 수 있다는 장점이 있다.
4. 데이터의 저장 및 처리
플래시 메모리와 같은 대용량 비휘발성 메모리가 보편화되기 전에는, 데이터를 영구적으로 저장하기 위해 주로 자기 테이프나 디스크 드라이브와 같은 외부 주변 장치에 기록하는 방식이 사용되었다. 이 장치들은 특정 위치를 찾아 미리 정해진 크기의 데이터 블록을 읽거나 썼다.
초기의 파일 시스템은 디스크의 연속된 블록을 데이터 파일에 할당했으나, 데이터 기록 중 공간이 부족해지는 문제가 발생하기 쉬웠고, 이를 방지하기 위해 많은 공간이 비효율적으로 예약되기도 했다. 이후 파일 시스템은 파티션 개념을 도입하여 디스크 공간을 나누고, 필요에 따라 블록을 파일에 동적으로 할당함으로써 공간 사용 효율성을 높였다. 이를 위해 파일 시스템은 카탈로그나 파일 할당 테이블 등을 이용해 사용 중인 블록과 비어있는 블록을 추적했다. 하지만 이 방식은 디스크 전체에 파일 단편화를 유발하여 데이터 접근 속도를 느리게 만드는 단점이 있었다. 현대의 파일 시스템은 단편화된 파일을 동적으로 재구성하여 접근 시간을 최적화하며, 나아가 여러 물리적 디스크 드라이브를 하나의 논리 드라이브처럼 사용할 수 있게 하는 가상화 기술도 도입되었다.
데이터베이스는 영구적인 데이터 저장을 위한 또 다른 추상화 계층을 제공한다. 데이터베이스는 메타데이터를 활용하고, 클라이언트-서버 모델 환경에서 SQL과 같은 프로토콜을 사용하여 컴퓨터 네트워크를 통해 통신한다. 또한, 데이터 처리 과정에서 트랜잭션의 완전성과 일관성을 보장하기 위해 2단계 커밋 방식과 트랜잭션 로그 시스템 등을 사용한다.
4. 1. 분산 데이터 처리
현대적인 확장 가능하고 고성능의 데이터 영속화 기술은 대규모 데이터를 처리하기 위해 사용된다. 이러한 기술은 고대역폭 네트워크로 연결된 여러 대의 일반 컴퓨터를 활용하여 데이터를 병렬로 분산 처리하는 방식에 의존한다. 대표적인 예로 아파치 하둡(Apache Hadoop)을 들 수 있다. 분산 시스템에서는 데이터가 여러 컴퓨터에 나뉘어 저장되고 처리되기 때문에, 시스템 내의 특정 컴퓨터 정보를 데이터의 키에 직접 또는 간접적으로 포함시켜야 한다. 이를 통해 서로 다른 컴퓨터에서 동시에 처리되는 동일한 데이터 세트들을 구별할 수 있다.5. 한국의 데이터 산업
대한민국은 데이터 경제 활성화를 위해 정부 차원의 정책 지원과 민간 투자가 활발하게 이루어지고 있다. 특히, 4차 산업혁명 시대를 맞아 데이터에 기반한 인공지능, 빅데이터, 클라우드 컴퓨팅 등의 기술 발전이 가속화되고 있으며, 이는 한국 데이터 산업 성장의 중요한 동력으로 평가받는다.
6. 데이터와 관련된 윤리적 문제
빅데이터와 인공지능 기술이 발전하면서 사회 여러 분야에서 데이터 활용이 급격히 증가하고 있다. 이러한 변화는 효율성 증대와 새로운 가치 창출이라는 긍정적인 측면도 있지만, 동시에 다양한 윤리적 문제를 야기하며 사회적 논의를 필요로 하고 있다.
주요 문제 중 하나는 개인정보 침해이다. 기업이나 공공기관은 서비스 제공 및 연구 목적으로 방대한 양의 개인 데이터를 수집하고 분석한다. 이 과정에서 개인의 명시적인 동의 없이 정보가 수집되거나, 수집 목적을 벗어나 데이터가 활용될 위험이 존재한다. 또한, 데이터 유출 사고가 발생할 경우 개인에게 심각한 프라이버시 침해 및 금전적, 정신적 피해를 줄 수 있다.
데이터 편향성 문제도 심각하다. 수집되는 데이터 자체가 특정 인구 집단의 특성을 과도하게 반영하거나, 기존 사회에 존재하는 편견이나 차별적 시각을 내포하고 있을 수 있다. 예를 들어, 특정 인종, 성별, 지역, 사회 계층에 대한 데이터가 부족하거나 왜곡된 상태로 수집된다면, 이를 기반으로 한 분석 결과 역시 편향될 수밖에 없다. 이는 결과적으로 기존의 사회적 불평등을 기술적으로 고착화하거나 심화시키는 결과를 낳을 수 있다.
이러한 편향된 데이터는 알고리즘 차별로 이어질 수 있다. 알고리즘은 데이터를 학습하여 패턴을 파악하고 예측이나 결정을 수행하는데, 학습 데이터가 편향되어 있다면 알고리즘의 판단 역시 특정 집단에게 불리하게 작용할 수 있다. 이는 채용, 신용 평가, 금융 서비스, 복지 수급자 선정, 심지어 형사사법 시스템 등 사회적으로 민감한 영역에서 심각한 차별을 야기할 잠재력을 가진다. 기술이 객관적이고 중립적일 것이라는 기대와 달리, 현실에서는 사회적 약자나 소수자 집단에 대한 차별을 강화하는 도구가 될 수 있다는 비판이 제기된다.
이처럼 데이터 활용이 확산되면서 발생하는 윤리적 문제들에 대응하기 위해, 데이터의 수집, 처리, 활용 전 과정에 걸쳐 윤리적 원칙과 규범을 정립하려는 노력이 이루어지고 있다. 유럽 연합의 일반 데이터 보호 규정(GDPR)과 같은 법적 규제 강화 움직임과 더불어, 데이터 처리의 투명성 확보, 알고리즘의 공정성 검증, 데이터 윤리에 대한 사회적 논의 활성화 등이 중요한 과제로 떠오르고 있다. 기술 발전과 함께 윤리적 책임에 대한 고민이 병행되어야 데이터 기반 사회가 보다 공정하고 신뢰롭게 발전할 수 있을 것이다.
참조
[1]
웹사이트
Data
https://www.lexico.c[...]
2022-01-14
[2]
웹사이트
Computer program
http://www.encyclope[...]
2012-10-11
[3]
웹사이트
file(1)
https://man.openbsd.[...]
2015-12-24
[4]
뉴스
Study: amount of digital info > global storage capacity
https://arstechnica.[...]
Ars Technics
2008-03-12
[5]
웹사이트
The diverse and exploding digital universe
http://www.emc.com/l[...]
International Data Corporation via EMC
2008-03-12
[6]
웹사이트
Data
https://www.lexico.c[...]
2022-01-14
[7]
웹사이트
Computer program
http://www.encyclope[...]
2012-10-11
[8]
웹사이트
file(1)
https://man.openbsd.[...]
2015-12-24
[9]
뉴스
Study: amount of digital info > global storage capacity
https://arstechnica.[...]
Ars Technics
2008-03-12
[10]
웹사이트
The diverse and exploding digital universe
http://www.emc.com/l[...]
International Data Corporation via EMC
2008-03-12
[11]
웹인용
Data
https://www.lexico.c[...]
2022-01-14
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com