맨위로가기

ToF 카메라

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

ToF 카메라는 빛의 비행 시간을 측정하여 거리를 계산하는 3D 카메라 기술이다. 광원에서 방출된 빛이 물체에 반사되어 돌아오는 시간을 측정하여 거리를 계산하며, 펄스 방식, 연속파 방식, 직접 ToF 방식 등 다양한 방식으로 작동한다. ToF 카메라는 기존 카메라와 유사한 구조로 제작되어 저렴하고, 스테레오 카메라 방식보다 간결하며, 어두운 곳에서도 사용 가능하다는 장점이 있다. 하지만 배경광, 다중 반사, 간섭 등의 단점도 존재한다. 주요 응용 분야로는 자율 주행, 로봇 공학, 스마트폰, 게임, 보안, 산업 자동화 등이 있으며, 대한민국에서도 ToF 기술 개발이 진행되고 있다.

더 읽어볼만한 페이지

  • 디지털 카메라 - 전하결합소자
    전하 결합 소자(CCD)는 빛을 감지하여 전기 신호로 변환하는 반도체 소자이며, 1969년 발명되어 디지털 카메라, 비디오 카메라 등 다양한 분야에서 활용된다.
  • 디지털 카메라 - 사이버샷
    소니 사이버샷은 1996년 DSC-F1 출시를 시작으로 메모리스틱에서 SD 카드로의 전환, 칼 자이스와의 협력을 통한 광학 성능 강화, 다양한 시리즈 출시를 통해 소비자 니즈를 충족하며 소니의 디지털 카메라 브랜드로 자리매김했고, 현재는 α 브랜드와 듀얼 브랜드 체제를 이루며 Vlog 촬영에 특화된 VLOGCAM ZV 시리즈도 출시되었다.
ToF 카메라

2. 원리

거리 측정 센서의 일종으로, 피사체에 빛을 쏘아 보낸 후 반사되어 돌아오는 시간을 측정하여 3차원 정보를 얻는 기술이다.[34] 시간 비행(Time of Flight, ToF)이라는 이름처럼, (주로 레이저나 LED)이 광원을 출발하여 물체에 맞고 센서로 돌아오기까지 걸리는 시간을 핵심 원리로 사용한다.

300px


아날로그 타이밍을 사용하는 비행 시간 카메라의 원리를 보여주는 다이어그램


광속(c)은 일정하므로, 빛이 물체까지 갔다가 돌아오는 데 걸린 시간(t)을 측정하면 광원과 물체 사이의 거리(D)를 다음 공식으로 계산할 수 있다.

:D = \frac{c \cdot t}{2}

빛의 속도는 초당 약 3억 미터(c = 300,000,000 m/s)로 매우 빠르기 때문에, 빛이 왕복하는 시간은 매우 짧다. 예를 들어 2.5m 떨어진 물체까지 빛이 왕복하는 데 걸리는 시간은 약 16.67 나노초(ns)에 불과하다.[16] ToF 카메라는 이처럼 극히 짧은 시간을 정밀하게 측정하여 거리를 알아낸다.

이 기본 원리를 구현하는 방식에는 여러 가지 기술이 개발되었으며, 대표적으로 펄스 방식과 연속파 방식 등이 있다.

2. 1. 펄스 방식


'''펄스 방식(1)'''에서 거리, d = \frac{c \cdot t}{2} \cdot \frac{q2}{q1 + q2}, 여기서 c는 광속, t는 펄스 길이, q1은 빛이 방출될 때 픽셀에 축적된 전하량, q2는 빛이 방출되지 않을 때 축적된 전하량이다.

연속파 방식(2)에서 d = \frac{c \cdot t}{2\pi} \arctan \frac{q3 - q4}{q1 - q2} .[15]||||||300px]]

거리 측정 센서의 일종으로, 피사체에 조사한 펄스광의 반사 시간을 화소별로 측정하여 3차원 정보를 얻는다.[34] ToF 카메라의 가장 간단한 형태는 '''광 펄스 방식''' 또는 단일 광 펄스를 사용한다. 조명이 매우 짧은 시간 동안 켜지면, 생성된 광 펄스가 장면을 비추고 시야 내의 물체에 의해 반사된다. 카메라 렌즈는 반사된 빛을 모아 센서 또는 초점면 배열에 이미지를 형성한다. 물체까지의 거리에 따라 들어오는 빛은 지연을 겪게 된다. 광속이 약 c = 300,000,000m/s로 매우 빠르기 때문에 이 지연 시간은 극히 짧다. 예를 들어, 2.5m 떨어진 물체는 빛을 다음과 같이 지연시킨다.[16]

:t_D = 2 \cdot \frac D c = 2 \cdot \frac {2.5\;\mathrm{m}} {300\;000\;000\;\frac{\mathrm{m}}{\mathrm{s}}} = 0.000\;000\;016\;66\;\mathrm{s} = 16.66 \;\mathrm{ns}

진폭 변조 배열 방식에서 조명의 펄스 폭은 카메라가 처리할 수 있는 최대 범위를 결정한다. 예를 들어 펄스 폭이 50ns이면, 범위는 다음과 같이 제한된다.

:D_\mathrm{max} = \frac{1}{2} \cdot c \cdot t_0 = \frac{1}{2} \cdot 300\;000\;000\;\frac{\mathrm{m}}{\mathrm{s}} \cdot 0.000\;000\;05\;\mathrm{s} =\!\ 7.5\;\mathrm{m}

이처럼 짧은 시간을 다루기 때문에, 조명 장치가 시스템에서 매우 중요한 부분을 차지한다. 특수한 LED나 레이저만이 이렇게 짧은 펄스를 생성할 수 있다.

단일 픽셀은 빛을 감지하는 요소(예: 광 다이오드)로 구성된다. 들어오는 빛을 전류로 변환한다. 아날로그 타이밍 이미저에서는 광 다이오드에 빠른 스위치가 연결되어 전류를 두 개(또는 그 이상)의 메모리 요소(예: 커패시터) 중 하나로 보낸다. 이 메모리 요소들은 신호를 합산하는 역할을 한다. 디지털 타이밍 이미저에서는 각 광 검출기 픽셀에 수 기가헤르츠 속도로 작동할 수 있는 시간 카운터가 연결되어 있으며, 빛이 감지되면 카운트를 멈춘다.

진폭 변조 배열 아날로그 타이머의 다이어그램에서 픽셀은 두 개의 스위치(G1, G2)와 두 개의 메모리 요소(S1, S2)를 사용한다. 스위치는 광 펄스와 동일한 길이의 펄스 신호로 제어되며, 스위치 G2의 제어 신호는 정확히 펄스 폭만큼 지연된다. 빛의 지연 시간에 따라, 반사된 광 펄스의 일부만 G1 스위치를 통해 S1에 저장되고, 나머지 부분은 G2 스위치를 통해 S2에 저장된다. 물체까지의 거리에 따라 S1과 S2에 저장되는 빛의 비율이 달라진다.[17] 50ns와 같이 짧은 시간 동안 센서에 도달하는 빛의 양은 매우 적기 때문에, 신호 대 잡음비를 높이기 위해 한 번이 아닌 수천 개의 펄스를 반복적으로 보내고(반복률 tR) 수집한다.

노출 후, 픽셀에서 신호 S1과 S2를 읽어 측정한다. 빛 펄스의 길이가 정해져 있으므로, 거리는 다음 공식을 사용하여 계산할 수 있다.

:D = \frac{1}{2} \cdot c \cdot t_0 \cdot \frac {S2} {S1 + S2}

예를 들어, 신호 값이 S1 = 0.66, S2 = 0.33이라면, 거리는 다음과 같이 계산된다.

:D = 7.5\;\mathrm{m} \cdot \frac {0.33} {0.33 + 0.66} = 2.5\;\mathrm{m}

배경광이 존재하면 메모리 요소에 원하지 않는 추가 신호가 쌓여 거리 측정을 방해할 수 있다. 이러한 배경광의 영향을 제거하기 위해, 조명을 끈 상태에서 전체 측정을 한 번 더 수행하여 배경 신호 값을 얻고 이를 원래 측정값에서 빼는 방법을 사용한다. 또한, 물체가 측정 가능한 최대 거리 범위를 벗어나면 결과가 잘못될 수 있다. 이 경우, 제어 신호를 추가적인 펄스 폭만큼 더 지연시켜 두 번째 측정을 수행하면 이러한 범위를 벗어난 물체 신호를 억제하는 데 도움이 된다.

3D 플래시 라이다(LIDAR)와 같은 직접 TOF(Direct TOF) 이미저는 레이저에서 5ns에서 10ns 정도의 단일 짧은 펄스를 방출한다. T-제로(T-zero) 이벤트, 즉 펄스가 카메라를 떠나는 시간은 펄스를 직접 감지하여 이 타이밍 정보를 초점면 배열로 전달함으로써 설정된다. T-제로는 초점면 배열의 각 픽셀에서 반사된 펄스가 돌아오는 시간을 비교하는 기준점으로 사용된다. T-제로와 감지된 반사 펄스 사이의 시간 차이를 비교함으로써, 각 픽셀은 직접적인 비행 시간 측정을 정확하게 출력할 수 있다. 예를 들어, 100m 거리에 대한 빛의 왕복 시간은 약 660ns이다. 10ns 펄스를 사용하면, 장면을 조명하고 거리 및 강도 정보를 1 마이크로초 미만의 시간 안에 캡처할 수 있다.

펄스 방식은 거리 게이트 이미저(Range-Gated Imager)에도 활용될 수 있다. 이는 특정 거리 범위를 벗어난 모든 것을 억제하여 2D 이미징에 사용될 수 있는데, 예를 들어 안개를 투과하여 보는 기술에 응용된다. 펄스 레이저가 조명을 제공하고, 광학 게이트는 원하는 시간 동안만 빛이 이미저에 도달하도록 허용한다.[9]

이러한 장치 중 일부는 이미지 센서 내부에 셔터가 내장되어 있어, 빛 펄스가 방출되는 속도와 동일한 속도로 열리고 닫힌다. 대부분의 ToF 3D 센서는 이 원리에 기반한다.[4] 셔터에 의해 반사된 펄스의 일부가 도착 시간에 따라 차단되기 때문에, 수신된 빛의 양은 펄스가 이동한 거리에 관련된다. 이상적인 카메라의 경우 거리는 ''z'' = ''R'' (''S2'' − ''S1'') / 2(''S1'' + ''S2'') + ''R'' / 2 공식을 사용하여 계산할 수 있다. 여기서 ''R''은 빛 펄스의 왕복 이동으로 결정되는 카메라의 범위이고, ''S1''은 수신된 빛의 양, ''S2''는 차단된 빛의 양이다.[4][5]

ZCam[6] (3DV Systems 개발)과 같은 시스템도 거리 게이트 방식을 사용한다. 마이크로소프트는 2009년에 3DV Systems를 인수했다. 마이크로소프트의 2세대 키넥트 센서는 카네스타(Canesta)와 3DV Systems에서 얻은 기술을 활용하여 개발되었다.[7] 프라운호퍼 마이크로 전자 회로 및 시스템 연구소와 TriDiCam에서 개발한 ToF 카메라 라인에도 유사한 원리가 사용된다. 이 카메라는 빠른 전자 셔터가 있는 광 검출기를 사용한다.

ToF 카메라의 깊이 해상도는 초고속 게이팅 증폭 CCD 카메라를 사용하여 향상될 수 있다. 이 카메라는 최대 200ps의 게이팅 시간을 제공하며, 서브 밀리미터 수준의 깊이 해상도로 ToF 설정을 가능하게 한다.[8]

2. 2. 연속파 방식 (위상차 방식)

연속파 방식(Continuous Wave|CW영어)은 광원의 강도를 사인파 형태로 변조하여 연속적으로 방출하고, 반사되어 돌아온 빛의 위상 변화(Phase Shift)를 측정하여 거리를 계산하는 방식이다. 이 방식은 위상차 방식이라고도 불린다.[2][17]

대표적인 예로 포토닉 믹서 장치(PMD),[2] 스위스 레인저(Swiss Ranger), 카네스타비전(CanestaVision)[17] 등이 이 방식을 사용한다. 이 기술들은 송신하는 빛에 라디오 주파수(RF) 캐리어 신호를 실어 변조하고, 수신부에서 반사된 빛의 RF 캐리어 위상이 얼마나 변했는지를 측정하여 거리를 알아낸다.

이 방식은 측정 거리가 특정 파장의 정수배가 될 때마다 모호함이 발생하는 '모듈로 오차(Modulo Ambiguity)' 문제를 가질 수 있다. 측정된 거리는 사용된 RF 캐리어 파장의 정수배만큼 차이가 날 수 있기 때문에, 실제 거리가 측정 가능한 최대 거리(고유 범위, Unambiguous Range)를 넘어서면 잘못된 값을 얻을 수 있다. 예를 들어, 스위스 레인저는 5m 또는 10m의 고유 범위를 가지는 소형 단거리 장치이며, 176 x 144 픽셀의 해상도를 제공한다. 이러한 모듈로 오차 문제는 위상 언래핑(Phase Unwrapping)과 같은 알고리즘을 사용하거나 여러 개의 변조 주파수를 이용하는 등의 방법으로 해결하여 최대 측정 가능 거리를 늘릴 수 있다. PMD 기술의 경우 최대 60m까지 거리를 측정할 수 있으며, 조명으로는 레이저 대신 펄스 LED를 사용하기도 한다.[3]

카네스타비전 기술을 개발한 카네스타(Canesta)는 2010년 마이크로소프트(Microsoft)에 인수되었다.[17] 마이크로소프트의 Xbox One용 동작 인식 센서인 키넥트2(Kinect)는 바로 이 카네스타의 ToF 기술을 기반으로 개발되었다.

펄스 방식과 비교했을 때, 연속파 방식은 일반적으로 더 간단한 구조로 구현될 수 있다는 장점이 있다.

2. 3. 직접 ToF (Direct ToF) 방식

직접 ToF(Direct Time-of-Flight, dToF) 방식은 단일 레이저 펄스를 사용하여, 빛이 카메라를 떠나 목표물에 반사되어 돌아오는 데 걸리는 시간을 각 픽셀에서 직접 측정하는 기술이다.[34] 이 방식은 "트리거 모드"라고도 불리며, 단 한 번의 레이저 펄스로 전체 3차원 장면 정보를 완전한 공간 및 시간 데이터와 함께 기록할 수 있다. 이를 통해 장면 정보를 매우 빠르게 획득하고 실시간으로 처리하는 것이 가능하다.

3D 플래시 라이다(LIDAR)와 같은 직접 ToF 이미저는 일반적으로 5ns에서 10ns 길이의 매우 짧은 단일 레이저 펄스를 방출한다. 펄스가 카메라를 떠나는 시점(T-제로 이벤트)을 기준으로, 각 픽셀에 반사되어 돌아온 펄스의 도착 시간과의 차이를 비교하여 직접적인 비행 시간을 정밀하게 측정한다. 예를 들어, 100m 거리에 대한 빛의 왕복 시간은 약 660ns이며, 10ns 펄스를 사용하면 1 마이크로초 미만의 짧은 시간 안에 장면의 거리와 강도 정보를 캡처할 수 있다.

이러한 빠른 데이터 획득 능력 덕분에 직접 ToF 방식은 시간 제약이 중요한 자율 작동 시스템에 적합하다. 대표적인 응용 분야로는 자율 우주 탐사 테스트[10], OSIRIS-REx 소행성 베누 샘플 반환 임무[11], 자율 헬리콥터 착륙 시스템[12][13] 등이 있다.

Advanced Scientific Concepts, Inc.와 같은 회사는 항공, 자동차, 우주 등 특정 응용 분야에 맞춰진 3D 플래시 라이다 형태의 직접 ToF 비전 시스템을 개발하여 제공하고 있다.[14] 이러한 시스템들은 주로 980nm에서 1600nm 파장대의 레이저 펄스를 감지할 수 있는 InGaAs(인듐-갈륨-비소) 애벌런치 포토 다이오드(APD)나 PIN 광 검출기 어레이를 활용한다.

3. 구성 요소

ToF 카메라는 거리 측정 센서의 한 종류로, 피사체에 빛을 쏘아 보낸 후 반사되어 돌아오는 시간을 픽셀 단위로 측정하여 3차원 정보를 얻는 장치이다.[34] 이를 위해 다음과 같은 주요 구성 요소들이 유기적으로 작동한다.


  • '''조명 장치:''' 측정 대상이 되는 장면에 빛을 비추는 역할을 한다. 주로 LED나 레이저 다이오드가 사용되며, 눈에 보이지 않는 적외선을 사용하는 경우가 많다.
  • '''광학 (렌즈):''' 물체에서 반사된 빛을 모아 이미지 센서로 보내고, 조명 장치와 동일한 파장의 빛만 통과시키는 광학 대역 통과 필터를 포함하여 관련 없는 빛을 차단하고 노이즈를 줄인다.
  • '''이미지 센서:''' 카메라의 핵심 부품으로, 각 픽셀에서 빛이 되돌아오는 데 걸리는 시간(비행 시간)을 정밀하게 측정한다.[34]
  • '''드라이버 전자 장치:''' 조명 장치와 이미지 센서가 정확한 타이밍에 맞춰 작동하도록 고속 신호를 제어하고 동기화한다. 거리 측정의 정밀도를 위해 매우 높은 정확성이 요구된다. 예를 들어, 조명과 센서 간 동기화에 10피코초의 오차만 발생해도 측정 거리가 1.5mm나 달라질 수 있다.
  • '''계산/인터페이스:''' 센서에서 측정된 시간 정보를 바탕으로 거리를 계산하고, 필요시 보정 데이터를 적용하여 정확도를 높인다. 최종적인 3차원 거리 이미지를 USB이더넷 같은 인터페이스를 통해 외부로 전송한다.


ToF 카메라는 촬상 소자와 광원이 동기화되어 비행 시간을 측정하며,[34] 다른 3D 센서 기술과 비교하여 고정밀 신호 처리가 요구되므로, 반도체 소자 기술의 발전에 따라 최근에 보급되기 시작했다.

3. 1. 광원 (조명 장치)

ToF 카메라의 조명 장치는 측정 대상이 되는 장면을 비추는 역할을 한다. 광원으로는 주로 LED나 레이저 다이오드가 사용된다.[3] 일반적으로 사람의 눈에 보이지 않도록 적외선 영역의 빛을 사용하며, 이는 안전상의 이유도 고려한 것이다.

조명 방식은 ToF 카메라의 종류에 따라 다르다.

  • RF 변조 광원 방식: 위상차를 측정하는 방식의 카메라에 사용된다. 빛을 최대 100MHz의 고주파로 변조해야 하므로, 고속 점멸이 가능한 LED나 레이저 다이오드가 필수적이다.
  • 직접 TOF 방식: 짧은 광 펄스를 사용한다. 프레임당 단일 펄스(예: 30Hz)를 방출하는 방식이 일반적이다. 3D 플래시 라이다와 같은 직접 TOF 이미저는 5~10ns 정도의 매우 짧은 단일 레이저 펄스를 사용한다.[14]


조명 장치에서 방출되는 빛의 펄스 폭은 특히 진폭 변조 방식(펄스 방식) 카메라의 최대 측정 가능 거리를 결정하는 중요한 요소이다. 예를 들어, 펄스 폭이 50ns라면 최대 측정 거리는 약 7.5m가 된다.[16] 이처럼 짧은 시간 동안 빛을 제어해야 하므로, 매우 짧은 펄스를 정밀하게 생성하는 기술이 중요하다.

Advanced Scientific Concepts, Inc.와 같은 일부 업체는 특정 응용 분야(항공, 자동차, 우주 등)에 맞춰 980nm에서 1600nm 파장의 레이저 펄스를 사용하는 직접 TOF 시스템을 개발하기도 했다.[14]

3. 2. 광학계 (렌즈)

렌즈는 반사된 빛을 모아 환경을 이미지 센서에 투영하는 역할을 한다. 또한, 광학 대역 통과 필터를 사용하여 조명 장치와 동일한 파장의 빛만 통과시킨다. 이를 통해 관련 없는 빛을 효과적으로 억제하고 노이즈를 줄일 수 있다.

3. 3. 이미지 센서

이미지 센서는 ToF 카메라의 핵심 부품으로, 각 픽셀에서 빛이 조명 장치(LED 또는 레이저 다이오드)에서 출발하여 물체에 반사된 후 다시 센서로 돌아오는 데 걸리는 시간, 즉 빛의 비행 시간(Time-of-Flight)을 측정한다.[34] 이를 통해 3차원 거리 정보를 얻을 수 있다. 이미지 센서는 촬상용 광학계, 펄스 발광 광원과 동기화되어 작동하며,[34] 다양한 방식이 개발되어 각각 다른 방법으로 타이밍을 측정한다. 고정밀 신호 처리가 필요하기 때문에 반도체 소자 기술의 발전에 따라 최근 보급되기 시작했다.

=== RF 변조 방식 ===

포토닉 믹서 장치(PMD),[2] 스위스 레인저(Swiss Ranger), 카네스타비전(CanestaVision)[17] 등은 라디오 주파수(RF)로 변조된 빛을 사용한다. 송신된 빛의 RF 반송파와 수신된 빛의 반송파 사이의 위상 변화를 측정하여 거리를 계산한다. 이 방식은 측정 거리가 RF 반송파 파장의 정수배 단위로 반복되는 모호성, 즉 모듈로 오차(modulo ambiguity) 문제가 발생할 수 있다. 예를 들어, 스위스 레인저는 5m 또는 10m의 측정 범위를 가지며 176 x 144 픽셀 해상도를 제공한다. 위상 펼침(phase unwrapping) 알고리즘을 사용하면 최대 측정 가능 거리를 늘릴 수 있다. PMD는 최대 60m의 거리를 측정할 수 있으며, 조명으로 레이저 대신 펄스 LED를 사용하기도 한다.[3] 카네스타비전 기술을 개발한 카네스타(Canesta)는 2010년 마이크로소프트(Microsoft)에 인수되었고, 이 기술은 Xbox One용 키넥트2(Kinect) 센서에 적용되었다.

=== Range-Gated 방식 ===

이 방식의 센서는 빛 펄스가 방출되는 속도와 동일하게 열리고 닫히는 매우 빠른 전자 셔터(gate)를 각 픽셀 내부에 가지고 있다. 빛이 반사되어 돌아오는 시간에 따라 셔터가 열려 있는 동안 수신되는 빛의 양이 달라지는데, 이 빛의 양을 측정하여 거리를 계산한다.[4] 예를 들어, 셔터가 열리는 시간(S1 동안 수집된 빛의 양)과 닫히는 시간(S2 동안 수집된 빛의 양) 동안 센서에 도달하는 빛의 양을 비교하여 거리를 계산할 수 있다.[4][5] 3DV Systems의 ZCam[6]이 대표적인 Range-Gated 시스템이며, 마이크로소프트는 2009년 3DV Systems를 인수하여[7] 카네스타 기술과 함께 2세대 키넥트 센서 개발에 활용했다. 프라운호퍼 마이크로 전자 회로 및 시스템 연구소와 TriDiCam에서 개발한 ToF 카메라 라인도 유사한 원리를 사용한다. 초고속 게이팅(최대 200ps)이 가능한 증폭 CCD 카메라를 사용하면 깊이 해상도를 서브 밀리미터 수준까지 향상시킬 수 있다.[8] 또한, Range-Gated 방식은 특정 거리 범위 밖의 물체로부터 오는 빛을 차단하여 안개 속을 투과하여 보는 등 2D 이미징에도 활용될 수 있다.[9]

=== 직접 TOF 방식 ===

이 방식은 단일 레이저 펄스가 카메라를 떠나 물체에 반사되어 다시 센서의 초점면 배열(focal-plane array)로 돌아오는 데 걸리는 시간을 직접 측정한다. "트리거 모드"라고도 불리며, 단일 레이저 펄스로 전체 3D 장면의 공간 및 시간 정보를 한 번에 기록할 수 있다.[10][11][12][13] 이를 통해 장면 정보를 매우 빠르게 획득하고 실시간 처리가 가능하여, 자율 우주선 착륙[10], OSIRIS-REx 소행성 샘플 반환 임무[11], 자율 헬리콥터 착륙[12][13] 등 시간 제약이 중요한 자율 작동 시스템에 활용된다. Advanced Scientific Concepts, Inc.는 항공, 자동차, 우주 등 특정 응용 분야를 위한 3D 플래시 라이다(LIDAR) 카메라 형태의 직접 TOF 시스템을 제공한다.[14] 이 시스템은 980 nm ~ 1600 nm 파장의 레이저 펄스를 감지할 수 있는 InGaAs 애벌런치 광다이오드(APD) 또는 PIN 광 검출기 배열을 사용한다.

=== 픽셀 구조 ===

ToF 이미지 센서의 각 픽셀은 기본적으로 빛을 감지하는 광다이오드와 같은 광 검출 소자로 구성된다. 들어오는 빛을 전류로 변환한 후, 타이밍 측정 방식에 따라 처리한다.

  • 아날로그 타이밍 이미저: 광다이오드에 연결된 빠른 스위치(예: G1, G2)가 빛 신호를 특정 시간 간격 동안 두 개 이상의 메모리 요소(예: 커패시터 S1, S2)로 분배하여 저장한다. 저장된 전하량의 비율을 측정하여 거리를 계산한다.[17]
  • 디지털 타이밍 이미저: 각 픽셀에 내장된 고속 시간 카운터(수 기가헤르츠 급)가 빛 펄스가 감지될 때까지의 시간을 직접 측정하여 기록한다.


이러한 이미지 센서는 고속으로 정밀하게 동기화되어야 하는 조명 장치 및 드라이버 전자 장치와 함께 작동하여 정확한 거리 측정을 가능하게 한다. 예를 들어, 조명과 센서 간의 동기화 신호가 단 10 피코초(ps)만 어긋나도 측정 거리에 1.5mm의 오차가 발생할 수 있다.

3. 4. 드라이버 회로

ToF 카메라의 드라이버 전자 장치는 조명 장치와 이미지 센서를 고속 신호로 제어하고 동기화하는 역할을 수행한다. 높은 해상도의 거리 정보를 얻기 위해서는 이 제어 신호의 타이밍이 매우 정확해야 한다. 예를 들어, 조명 장치와 센서 사이의 제어 신호 타이밍이 단 10ps(피코초)만큼만 어긋나도 측정되는 거리가 1.5mm나 변하게 된다.

이러한 정밀도의 중요성을 이해하기 위해 현재의 CPU(중앙 처리 장치)와 비교해 볼 수 있다. 최신 CPU는 최대 3GHz(기가헤르츠) 정도의 클럭 주파수로 작동하는데, 이는 약 300ps의 클럭 사이클에 해당한다. 만약 ToF 카메라가 이 정도의 시간 정밀도(300ps)로 작동한다면, 거리 측정 해상도는 45mm 수준에 불과하게 된다. 따라서 정확한 거리 측정을 위해서는 CPU 클럭보다 훨씬 더 정밀한 타이밍 제어가 필수적이다.

3. 5. 계산 및 인터페이스

ToF 카메라는 각 픽셀에서 측정한 빛의 비행 시간 정보를 바탕으로 거리를 계산한다. 이 계산된 거리 정보를 종합하여 3차원 거리 이미지를 생성할 수 있다.[34]

거리 계산에는 여러 방식이 사용된다. RF(무선 주파수) 변조 광원을 사용하는 경우, 송신된 빛과 수신된 빛의 위상 차이를 측정하여 거리를 계산한다. 포토닉 믹서 장치(PMD),[2] 스위스 레인저(Swiss Ranger), 카네스타(Canesta)의 기술 등이 이 방식을 사용한다.[17] 마이크로소프트(Microsoft)가 인수한 카네스타의 기술은 Xbox One용 키넥트2(Kinect)에 적용되었다. 또 다른 방식은 이미지 센서 내부에 빛 펄스 방출 속도와 동기화된 빠른 셔터를 내장하여, 반사된 빛이 도착하는 시간에 따라 셔터가 빛의 일부를 차단하고, 수신된 빛의 양을 통해 거리를 계산하는 것이다(Medina 원리).[4] 이상적인 카메라의 경우 거리 ''z''는 ''z'' = ''R'' (''S2'' − ''S1'') / 2(''S1'' + ''S2'') + ''R'' / 2 식으로 계산될 수 있다. 여기서 ''R''은 카메라의 최대 측정 가능 범위, ''S1''은 수신된 빛의 양, ''S2''는 셔터에 의해 차단된 빛의 양에 해당한다.[4][5] 3DV Systems의 ZCam[6]과 같이 범위 게이트(range gate) 방식을 사용하는 카메라도 있으며, 이 기술 역시 마이크로소프트가 3DV를 인수하여 2세대 키넥트 센서 개발에 활용했다.[7] 프라운호퍼 마이크로 전자 회로 및 시스템 연구소와 TriDiCam 등에서 개발한 카메라 라인도 빠른 전자 셔터를 이용한 유사한 원리를 사용한다.

직접 비행 시간(Direct TOF) 측정 방식은 단일 레이저 펄스가 카메라를 출발하여 물체에 반사된 후 센서로 돌아오는 데 걸리는 시간을 직접 측정한다. "트리거 모드"라고도 불리는 이 방식은 T-제로(T-zero, 펄스 방출 시점)를 기준으로 각 픽셀에 도달하는 반사광의 시간 차이를 측정하여 거리를 계산한다.[10][11][12][13] Advanced Scientific Concepts, Inc.는 이러한 직접 TOF 방식의 3D 플래시 라이다(LIDAR) 카메라를 개발했다.[14]

아날로그 타이밍 방식을 사용하는 경우, 광 펄스의 길이(''t0'')와 두 개의 메모리 요소(S1, S2)에 저장된 신호량을 이용하여 거리를 계산한다. 거리 ''D''는 ''D'' = (1/2) * ''c'' * ''t0'' * (''S2'' / (''S1'' + ''S2'')) 공식으로 계산된다 (여기서 ''c''는 빛의 속도).[17]

정확한 거리 계산을 위해서는 조명 장치와 이미지 센서 간의 정밀한 동기화가 매우 중요하다. 두 신호 간의 시간 오차가 10 피코초(ps)만 발생해도 거리 측정값에 1.5mm의 오차가 생길 수 있다.

계산된 거리 정보는 카메라 내부에서 직접 처리되며, 정확도를 높이기 위해 보정 데이터가 사용되기도 한다. 최종적으로 생성된 3차원 거리 이미지는 USB이더넷과 같은 표준 인터페이스를 통해 컴퓨터나 다른 외부 장치로 전송된다.

4. 장점

ToF 카메라는 다른 3D 이미징 기술과 비교했을 때 다음과 같은 주요 장점을 가진다.


  • 기존 카메라와 구조가 유사하여 생산 비용 절감에 유리하다.
  • 스테레오 방식에 비해 단일 광학계만 필요하므로 구조가 더 간단하다.
  • 자체 광원을 사용하기 때문에 빛이 부족하거나 어두운 환경에서도 거리 측정이 가능하다.
  • 깊이 정보와 일반적인 이미지를 동시에 획득할 수 있어 활용도가 높다.

4. 1. 간결성

스테레오 비전이나 삼각 측량 시스템과 비교했을 때 전체 시스템 구성이 매우 간단하고 작다. 조명 장치를 렌즈 바로 옆에 배치할 수 있어, 카메라 간의 특정 최소 거리가 필요한 다른 시스템보다 공간 제약이 적다. 또한, 레이저 스캐닝 시스템과 달리 기계적으로 움직이는 부품이 필요 없어 구조적으로 더 단순하다.

ToF 카메라는 구조가 기존 카메라와 유사하여 기존의 제조 설비를 활용할 수 있다는 장점이 있다. 이는 생산 비용 절감으로 이어질 수 있다. 스테레오 사진 방식과 달리, 촬영용 광학계가 하나만 필요하므로 부품 구성도 더 간결하다.

4. 2. 효율적인 거리 계산

ToF 센서는 출력 신호로부터 거리 정보를 직접적으로 추출하는 비교적 간단한 과정을 거친다. 이는 복잡한 상관관계 알고리즘 구현이 필요한 스테레오 비전 방식과 대조적으로, 적은 처리 능력만으로도 거리 계산이 가능하다는 장점이 있다.

거리 데이터를 추출한 후 물체 감지와 같은 후속 작업 역시 비교적 간단하게 수행할 수 있다. 이는 ToF 방식의 알고리즘이 감지 대상 물체의 특정 패턴에 크게 영향을 받지 않기 때문이다. 일반적으로 ToF 카메라의 정확도는 측정 거리의 약 1% 수준으로 알려져 있다.[18][19]

또한, 다른 3D 센서 기술과 비교했을 때 다음과 같은 효율성 측면의 장점을 가진다.

  • '''비용 효율성''': 기존 카메라와 구조적으로 유사하여 기존의 제조 설비를 활용하기 용이하며, 이는 생산 단가 절감으로 이어질 수 있다.
  • '''구조적 간결성''': 스테레오 사진 방식과 달리 촬영용 광학계가 1세트만 필요하여 시스템 구성이 비교적 간단하다.
  • '''환경 적응성''': 자체 광원을 사용하므로 적외선 등을 이용하여 어두운 환경에서도 안정적으로 거리 정보를 획득할 수 있다.
  • '''정보 동시 획득''': 깊이 정보(거리)와 일반적인 2D 이미지를 동시에 얻을 수 있어 활용도가 높다.

4. 3. 속도

ToF 카메라는 한 번의 촬영(단일 샷)으로 전체 장면의 거리를 측정할 수 있다.[34] 단일 레이저 펄스를 사용하여 전체 3차원 장면을 기록하기 때문에[10], 장면 정보를 빠르게 획득하고 실시간으로 처리하는 것이 가능하다. 카메라는 초당 최대 160 프레임에 도달할 수 있어 실시간 응용에 적합하다.

이러한 빠른 속도는 시간 제약이 중요한 자율 작동 분야에서 유용하게 활용된다. 예를 들어, 자율 우주 테스트[10], OSIRIS-REx 베누 소행성 샘플 반환 임무[11], 자율 헬리콥터 착륙[12][13] 등에 적용되었다.

5. 단점

ToF 카메라는 여러 장점을 가지고 있지만, 몇 가지 기술적인 한계점과 단점 또한 존재한다. 강한 태양 빛과 같은 '''배경광'''은 측정 정확도에 영향을 미칠 수 있으며, 빛이 여러 경로로 반사되어 발생하는 '''다중 반사''' 현상은 거리 측정 오류를 유발할 수 있다. 또한 여러 대의 ToF 카메라를 동시에 사용할 경우, 각 카메라에서 방출되는 빛 신호가 서로 '''간섭'''을 일으켜 측정값을 왜곡시킬 가능성이 있다.

5. 1. 배경광

CMOS나 가시광선 또는 근적외선(400nm ~ 700nm)을 사용하는 적분형 센서는 인공 조명이나 태양 빛과 같은 배경광을 상당 부분 억제할 수 있다. 하지만 센서 픽셀은 여전히 높은 동적 범위를 가져야 하는데, 이는 배경광이 센서가 저장해야 하는 불필요한 전자를 생성하기 때문이다. 예를 들어, 오늘날 많은 ToF 카메라의 조명 장치는 약 1와트 정도의 조명 수준을 제공한다. 반면, 태양 빛은 평방 미터당 약 1050와트의 조명 전력을 가지며, 광학 대역 통과 필터를 통과하더라도 50와트 정도가 된다. 따라서 카메라가 비추는 장면의 크기가 1m2이라면, 태양광은 카메라가 보내는 변조된 신호보다 50배나 더 강하다.

그러나 빛을 시간에 따라 적분하지 않고 짧은 레이저 펄스를 포착하는 비적분형 ToF 센서의 경우는 다르다. 이 센서는 근적외선 검출기(InGaAs)를 사용하며, 이미지를 시간에 걸쳐 적분하지 않고 일반적으로 1마이크로초 미만의 짧은 획득 주기 내에 캡처한다. 이 때문에 태양을 직접 보는 상황에서도 큰 문제가 되지 않는다. 이러한 특징 덕분에 비적분형 ToF 센서는 우주 응용 분야[11]나 자동차 응용 분야[20]에서 활용이 고려되고 있다.

5. 2. 다중 반사

레이저 스캔 시스템과는 달리, ToF 카메라는 단일 지점을 조명하는 대신 전체 장면을 한 번에 비춘다. 위상차 방식 ToF 카메라의 경우, 빛이 여러 경로를 따라 물체에 도달하는 다중 반사 현상이 발생할 수 있다. 다중 반사가 일어나면 빛이 실제로 이동한 경로가 길어지므로, 측정된 거리가 실제 대상까지의 거리보다 더 길게 계산되는 오류가 발생할 수 있다. 이러한 문제는 거울처럼 반사율이 높은 표면에서 빛이 반사될 때 더욱 두드러지게 나타나며, 직접 ToF 방식 이미지 센서 역시 거울과 같은 반사 표면에 취약점을 보인다. 다양한 ToF 장치들의 기술적 접근 방식과 각각의 강점 및 약점을 비교 분석한 연구 결과들도 발표되어 있다.

5. 3. 간섭

일부 ToF 카메라의 경우, 여러 대가 동시에 작동할 때 서로의 신호가 간섭을 일으켜 측정 오류가 발생할 수 있다. 이 문제를 해결하기 위한 몇 가지 방법이 있다.

  • '''시분할 다중화''': 제어 시스템이 각 카메라의 측정을 순차적으로 시작하여, 한 번에 하나의 조명 장치만 활성화되도록 하는 방식이다.
  • '''다른 변조 주파수 사용''': 카메라마다 서로 다른 변조 주파수로 빛을 변조하는 방식이다. 이 경우 다른 카메라에서 오는 빛은 배경 조명으로만 인식되어 거리 측정에 영향을 주지 않는다.


단일 레이저 펄스를 사용하는 직접 ToF(Time-of-Flight) 방식 카메라의 경우, 레이저 펄스 자체가 매우 짧고(예: 10나노초) 물체까지의 왕복 시간(TOF)도 짧기 때문에(예: 100m 거리에서 660ns) 간섭 가능성이 낮다. 예를 들어, 초당 30프레임(30Hz)으로 이미지를 캡처하는 경우, 간섭이 발생할 확률은 카메라의 획득 게이트가 열려 있는 시간(약 0.66μs)을 레이저 펄스 발사 간격(약 33ms)으로 나눈 값, 즉 약 50,000분의 1 정도로 매우 낮다.

6. 응용 분야

시간-비행 카메라로 촬영한 사람 얼굴의 거리 이미지(예술가의 묘사)


ToF 카메라는 물체까지의 거리를 측정하는 기능을 활용하여 다양한 분야에서 응용되고 있다. 대표적으로 3D 스캐너의 핵심 부품으로 사용되어 3차원 형상 정보를 얻는 데 쓰인다.[35] 또한, 자동차의 자율 주행 시스템과 같은 첨단 기술 분야에서도 그 적용 가능성이 검토되고 있다.[35] 이 외에도 로봇 공학, 스마트폰, 게임 및 엔터테인먼트, 산업 자동화 등 여러 영역에서 활용되며, 각 분야의 기술 발전에 기여하고 있다.

6. 1. 자동차

ToF 카메라는 자동차 분야에서 첨단 운전자 보조 시스템(ADAS) 및 자율 주행 시스템을 위한 기술로 활용된다. 특히, 차량 주변 환경을 3차원으로 인식하여 능동적 보행자 안전 시스템이나 충돌 전 감지 시스템과 같은 보조 및 안전 기능에 사용된다.[22][23] 이를 통해 주행 중 발생할 수 있는 다양한 위험 상황에 미리 대처하여 사고 예방에 기여할 수 있다.

또한, 차량 내부에서도 탑승자의 위치 이탈(OOP, Out-of-Position) 감지와 같은 실내 응용 분야에 사용될 수 있다.[22][23]

3D 스캐너로서의 기능 외에도, ToF 카메라 기술은 자율 주행 시스템에도 적용이 검토되고 있다.[35]

6. 2. 로봇 공학

ToF 카메라는 로봇 공학 분야에서도 중요한 역할을 수행한다. 모바일 로봇은 이 카메라를 활용하여 주변 환경의 지도를 신속하게 생성하고, 이를 바탕으로 장애물을 효과적으로 회피하거나 지정된 경로 또는 선두를 따라 이동할 수 있다. ToF 카메라는 거리 계산 과정이 비교적 단순하여 로봇 시스템에 요구되는 계산 자원을 절약할 수 있다는 장점을 지닌다. 이러한 특성 때문에, FIRST 로봇 경연대회와 같은 로봇 대회에 참가하는 팀들이 로봇의 자율적인 동작을 구현하기 위해 이 기술을 활용하는 사례가 있다.

이 외에도 ToF 카메라는 주로 3D 스캐너의 핵심 부품으로 사용되며, 자율 주행 자동차 시스템의 환경 인식 능력을 향상시키기 위한 기술로도 주목받고 있다.[35]

6. 3. 스마트폰

삼성 갤럭시 S20 울트라는 3개의 후면 카메라 렌즈와 ToF 카메라를 갖추고 있다.


일부 스마트폰 모델에는 ToF 카메라가 탑재되어 있다. 이는 주로 카메라 소프트웨어에 전경과 배경에 대한 심도 정보를 제공하여 사진의 품질을 향상시키는 데 활용된다.[28]

세계 최초로 ToF 기술을 스마트폰에 적용한 사례는 2014년 초에 출시된 LG전자LG G3이다.[29] 이후 블랙베리 패스포트와 LG G Flex 2 등에도 ToF 센서가 탑재되었다.[30] 삼성전자의 삼성 갤럭시 S20 울트라 역시 후면 카메라 시스템에 ToF 카메라를 포함하고 있다.

애플의 경우, 4세대 아이패드 프로아이폰 12 프로, 아이폰 12 프로 맥스 모델에 LiDAR 스캐너 형태로 ToF 센서를 탑재하고 있다.[37]

6. 4. 게임 및 엔터테인먼트

시간-비행 카메라는 실시간으로 거리 이미지를 제공하여 사람의 움직임을 쉽게 추적할 수 있다. 이러한 특징은 텔레비전과 같은 소비자 기기와의 새로운 상호 작용 방식을 가능하게 하며, 특히 비디오 게임 분야에서 활발하게 활용된다.[24]

대표적인 예로 마이크로소프트키넥트(Kinect) 센서를 들 수 있다. Xbox One 콘솔에 포함되었던 2세대 키넥트는 시간-비행 카메라를 사용하여 거리 이미지를 얻고, 이를 컴퓨터 비전제스처 인식 기술과 결합하여 자연 사용자 인터페이스 및 게임 플레이를 구현했다.[25] 키넥트는 초기 모델에서는 적외선 패턴을 이용했지만, 2.0 버전부터 ToF 카메라 방식으로 변경하면서 공간 분해능이 약 2배 향상되었다.[36]

크리에이티브 테크놀로지(Creative Technology)와 인텔(Intel) 역시 게임용으로 유사한 방식의 대화형 제스처 시간-비행 카메라 'Senz3D'를 선보였다. 이 카메라는 소프트키네틱(Softkinetic)의 DepthSense 325 카메라 기술을 기반으로 한다.[26] 또한, 인피니언 테크놀로지스(Infineon Technologies)와 PMD 테크놀로지스(PMD Technologies)는 올인원 PC나 랩톱과 같은 소비자 기기에서 근거리 제스처 제어를 위한 소형 통합 3D 깊이 카메라인 Picco flexx와 Picco monstar를 제공한다.[27]

최근에는 4세대 아이패드 프로와 아이폰 12 프로/프로 맥스 모델에 라이다 스캐너 형태로 ToF 센서가 탑재되어, 증강 현실(AR) 앱 등 다양한 엔터테인먼트 기능에 활용되고 있다.[37]

6. 5. 보안 및 감시

(작성할 내용 없음)

6. 6. 산업 자동화

높이 측정을 통한 거리 이미지


산업 자동화 분야에서 ToF 카메라는 다양한 방식으로 활용된다. 예를 들어, 사일로 내부의 내용물 높이를 측정하는 작업에 사용될 수 있다. 또한, 산업 머신 비전 시스템의 일부로 통합되어 로봇이 주변 환경을 인식하고 작업을 수행하는 데 도움을 준다. 컨베이어 벨트 위를 지나가는 물체를 식별하고 위치를 파악하여 로봇이 이를 집거나 분류하는 작업을 가능하게 한다. 출입 통제 시스템에서는 ToF 카메라를 이용하여 문에 접근하는 사람과 동물을 구별할 수 있다.

6. 7. 기타

ToF 카메라는 지구 표면 지형의 수치 표고 모델을 얻는 데 사용되어 왔으며,[31] 지형학 연구에도 활용된다. 주로 3D 스캐너로 사용된다. 그 외에도 자동차의 자율 주행 기술 적용이 검토되고 있다.[35]

7. 대한민국 내 ToF 기술 개발 현황

(내용 없음)

8. 주요 ToF 카메라 브랜드

(내용 없음)

8. 1. 단종된 브랜드

아래는 과거에 출시되었으나 현재는 단종되었거나 다른 회사에 인수된 ToF 카메라 브랜드 및 관련 기술이다.

  • CanestaVision[33]: 카네스타(Canesta)가 개발한 ToF 모듈 및 소프트웨어이다. 카네스타는 2010년 마이크로소프트에 인수되었으며,[17] Xbox One용 키넥트2는 카네스타의 ToF 기술을 기반으로 했다. 카네스타비전 카메라는 RF(무선 주파수)로 변조된 빛을 보내고, 반사된 빛의 위상 변화를 측정하여 거리를 계산하는 방식을 사용했다.[17]
  • D-IMager: 파나소닉 전기공작소에서 개발했던 ToF 카메라이다.
  • OptriCam: Optrima사에서 개발한 ToF 카메라 및 모듈이다. Optrima는 2011년 SoftKinetic에 합병되기 전에 DepthSense라는 브랜드로 변경했다.
  • ZCam: 3DV Systems에서 개발한 ToF 카메라 제품군이다. 깊이 정보와 풀 컬러 비디오를 함께 제공하는 특징이 있었다. 3DV Systems는 2009년 마이크로소프트에 자산을 매각했다.
  • SwissRanger: 원래 CSEM(Centre Suisse d'Electronique et Microtechnique, S.A.)에서 개발한 산업용 ToF 카메라 라인이다. 이후 Mesa Imaging에서 개발을 이어갔으며, Mesa Imaging은 2014년 Heptagon에 인수되었다. SwissRanger는 RF 변조 및 위상차 측정 방식을 사용하는 소형 단거리 장치로, 5m 또는 10m의 측정 범위와 176 x 144 픽셀 해상도를 가졌다.[2] 위상 언래핑(phase unwrapping) 알고리즘을 사용하면 최대 측정 가능 거리를 늘릴 수 있다.[3]
  • Fotonic: 파나소닉의 CMOS 이미지 센서 칩을 기반으로 한 ToF 카메라 및 소프트웨어이다. Fotonic은 2018년 Autoliv에 인수되었다.
  • S.Cube: [http://www.cube-eye.co.kr 큐브 아이](Cube Eye)에서 개발한 ToF 카메라 및 모듈이다.


파나소닉의 D-IMager


Fotonic의 FOTONIC-B70


마이크로소프트의 Xbox One용 키넥트

참조

[1] 웹사이트 Product Evolution https://web.archive.[...] 3DV Systems 2009-02-19
[2] 간행물 Das magische Auge - Grundlagen der Bildverarbeitung: Das PMD Prinzip http://www.inspect-o[...] Inspect 2008
[3] 웹사이트 Mesa Imaging - Products http://www.mesa-imag[...] 2009-08-17
[4] 특허 Three Dimensional Camera and Rangefinder 1992-01-14
[5] 논문 Compact laser radar and three-dimensional camera 2006
[6] 뉴스 3D imaging in the studio (and elsewhere…) https://web.archive.[...] SPIE 2009-08-17
[7] 잡지 Kinect for Windows developer's kit slated for November, adds 'green screen' technology http://www.pcworld.c[...] 2013-06-26
[8] 웹사이트 Submillimeter 3-D Laser Radar for Space Shuttle Tile Inspection.pdf http://www.stanfordc[...]
[9] 웹사이트 Sea-Lynx Gated Camera - active laser camera system https://web.archive.[...]
[10] 논문 Helicopter flight test of 3D imaging flash LIDAR technology for safe, autonomous, and precise planetary landing https://ntrs.nasa.go[...] 2013-06-04
[11] 웹사이트 ASC's 3D Flash LIDAR camera selected for OSIRIS-REx asteroid mission http://www.nasaspace[...] 2012-05-13
[12] 웹사이트 Unmanned Systems Innovation to Watch http://e-vmi.com/pdf[...] 2024-08-10
[13] 웹사이트 Autonomous Aerial Cargo/Utility System Program https://archive.toda[...]
[14] 웹사이트 Products http://www.advanceds[...]
[15] 웹사이트 Time-of-Flight Camera â€" An Introduction http://eu.mouser.com[...]
[16] CSEM "CCD/CMOS Lock-In Pixel for Range Imaging: Challenges, Limitations and State-of-the-Art" https://web.archive.[...]
[17] 논문 A Time-Of-Flight Depth Sensor - System Description, Issues and Solutions http://www.canesta.c[...] 2009-07-31
[18] 웹사이트 Time of Flight Sensor: What It Is and How it Works https://www.ourpcb.c[...] 2023-04-14
[19] 서적 Time of Flight Cameras: Principles, Methods, and Applications https://hal.inria.fr[...] Springer 2012-10-31
[20] 웹사이트 Automotive http://www.advanceds[...]
[21] conference 2011 IEEE Intelligent Vehicles Symposium (IV) IEEE 2011-06-09
[22] 서적 Advanced Microsystems for Automotive Applications 2006 http://www.canesta.c[...] Springer Science+Business Media 2018-06-25
[23] citation European Solid State Circuits Conference 2006 2010-03-05
[24] 웹사이트 Out of Control Gaming http://www.popsci.co[...] Popular Science 2009-06-15
[25] 잡지 Exclusive First Look at Xbox One https://www.wired.co[...] Wired Magazine 2013-05-22
[26] 잡지 Augmented Reality: SoftKinetic 3D depth camera and Creative Senz3D Peripheral Camera for Intel devices https://www.wired.co[...] 2013-07-02
[27] 웹사이트 PMD and Infineon to enable tiny integrated 3D depth cameras (hands-on) https://www.engadget[...] 2013-10-09
[28] 웹사이트 What Is a Time of Flight (ToF) Camera, and Why Does My Phone Have One? https://www.howtogee[...] 2019-04-04
[29] 웹사이트 STMicroelectronics' Time-of-Flight Sensors and the Starship Enterprise Show up in the iPhone 7 Series https://www.techinsi[...] 2023-05-21
[30] 웹사이트 Time-of-flight Technology Designed into Smartphone https://www.sensorti[...] WTWH Media LLC 2023-05-21
[31] 논문 Range imaging: A new method for high-resolution topographic measurements in small- and medium-scale field sites
[32] 웹사이트 SICK - Visionary-T y Visionary-B: 3D de un vistazo - Handling&Storage http://www.handling-[...] 2017-04-18
[33] 뉴스 TowerJazz CIS Technology Selected by Canesta for Consumer 3-D Image Sensors http://www.businessw[...] 2013-10-29
[34] 웹사이트 第159回 写真の「奥行き」を測る、距離画像センサの技術 https://www.tdk.co.j[...] テクマグ 2011-02
[35] 웹사이트 MIT、濃霧でも自動運転を可能にするToFカメラ技術 https://pc.watch.imp[...] PC Watch 2018-03-26
[36] 간행물 CQ出版 2013-08
[37] 웹사이트 新 iPad Proの「LiDARスキャナ」解説。3D認識でARが進化、モノのオクルージョンも対応 - Engadget 日本版 http://japanese.enga[...] 2020-03-20
[38] 뉴스 3D imaging in the studio (and elsewhere…) http://www.3dvsystem[...] SPIE 2001-01-24



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com