비행 시간 카메라

Time-of-flight camera
표적에 반사되는 광펄스의 비행 시간.

비행시간카메라(ToF카메라)는 레이저 또는 LED에 의해 제공되는 인공광신호의 왕복시간을 측정함으로써 화상의 각 지점에 대해 카메라와 피사체 사이의 거리를 해결하는 비행시간 기술을 이용한 범위 이미징 카메라 시스템이다.레이저 기반 비행 시간 카메라는 스캐너 없는 LIDAR의 광범위한 클래스의 일부이며, LIDAR 시스템 [1]스캔과 같은 레이저 빔을 사용하여 지점별로 전체 장면을 캡처하는 것이 아니라 각 레이저 펄스로 캡처합니다.2000년경부터 민간용 카메라 제품이 등장하기 시작했는데,[2] 반도체 공정은 이러한 장치를 위한 부품을 충분히 빠르게 생산할 수 있게 해주었기 때문이다.이 시스템은 수 센티미터에서 수 킬로미터까지 범위를 커버합니다.

디바이스의 종류

비행 시간 카메라를 위한 몇 가지 다른 기술들이 개발되었습니다.

위상 검출기가 있는 RF 변조 광원

포토닉 믹서 디바이스(PMD),[3] Swiss Ranger, CanestaVision은[4] RF 캐리어로 발신빔을 변조한 후 수신측에서 해당 캐리어의 위상 편이를 측정합니다.이 방법에는 모듈러 에러 과제가 있습니다.즉, 측정된 범위는 RF 캐리어 파장의 모듈러입니다.Swiss Ranger는 5미터 또는 10미터의 범위와 176 x 144 픽셀의 해상도를 가진 소형 단거리 장치입니다.위상 언랩 알고리즘을 사용하면 최대 고유성 범위를 늘릴 수 있습니다.PMD는 최대 60m의 범위를 제공할 수 있습니다.조명은 [5]레이저가 아닌 펄스 LED입니다.CanestaVision 개발자 Canesta는 2010년에 Microsoft에 인수되었습니다.Xbox One용 Kinect2는 Canesta의 ToF 기술을 기반으로 합니다.

범위 게이트 이미지

이러한 장치에는 광 펄스가 전송될 때와 동일한 속도로 개폐되는 셔터가 이미지 센서에 내장되어 있습니다.대부분의 비행 시간 3D 센서는 [6]Medina가 발명한 이 원리를 기반으로 합니다.모든 복귀 펄스의 일부는 도달 시간에 따라 셔터에 의해 차단되기 때문에, 수신되는 빛의 양은 펄스가 이동한 거리에 관련됩니다.거리는 이상적인 카메라의 경우 z = R (S21 - S) / 2 (S1 + S2) + R / 2 등식을 사용하여 계산할 수 있습니다.R은 광펄스의 라운드 트립에 의해 결정되는 카메라 범위이며1, S는 수신되는 광펄스의 양, S2 [6][7]차단되는 광펄스의 양입니다.

ZCam by 3DV[1] Systems는 레인지 게이트 시스템입니다.Microsoft는 2009년에 3DV를 구입했습니다.Microsoft의 2세대 Kinect 센서는 Canesta 및 3DV [8]Systems에서 얻은 지식을 사용하여 개발되었습니다.

Fraunhofer Institute of Microelectronic Circuits and Systems와 TriDiCam이 개발한 ToF 카메라 라인에서도 유사한 원리가 사용됩니다.이 카메라들은 빠른 전자 셔터를 가진 광검출기를 사용한다.

ToF 카메라의 깊이 해상도는 초고속 게이트 강화 CCD 카메라로 향상할 수 있습니다.이 카메라는 게이트 시간을 최대 200ps까지 제공하며, 깊이 밀리미터 미만의 [9]ToF 설정을 가능하게 합니다.

범위 게이트 이미저는 2D 이미징에서 안개 통과와 같이 지정된 거리 범위를 벗어나는 모든 것을 억제하기 위해 사용할 수도 있습니다.펄스 레이저가 조명을 제공하고 광학 게이트는 원하는 시간 [10]동안만 빛이 이미저에 도달하도록 허용합니다.

직접 비행 시간 이미지 작성자

이러한 장치는 단일 레이저 펄스가 카메라를 떠나 초점 평면 어레이에 반사되는 데 필요한 직접 비행 시간을 측정합니다."트리거 모드"라고도 하는 이 방법론을 사용하여 캡처한 3D 영상은 공간 및 시간 데이터를 완성하여 단일 레이저 펄스로 전체 3D 장면을 기록합니다.이를 통해 씬(scene) 정보를 빠르게 획득하고 신속하게 실시간 처리할 수 있습니다.시간에 민감한 자율 운영의 경우, 이 접근방식은 OSIRIS-REX Bennu 소행성 표본 및 귀환[12] 임무 및 자율 헬리콥터 [13][14]착륙에 사용되는 것과 같은 자율적 우주[11] 시험과 운영에 대해 입증되었다.

Advanced Scientific Concepts, Inc.는 3D Flash LIDAR 카메라로 알려진 애플리케이션별 Direct TOF 비전 시스템(예: 항공, 자동차, 우주[15])을 제공합니다.이 방법에서는 InGaAs Abranche Photo Diode(APD) 또는 980nm~1600nm 파장의 레이저 펄스를 촬영할 수 있는 PIN 광검출기 어레이를 사용합니다.

구성 요소들

비행 시간 카메라는 다음 구성 요소로 구성됩니다.

  • 조명 장치:그것은 장면을 비추고 있다.위상검출기 이미저가 있는 RF변조 광원의 경우 최대 100MHz의 고속으로 빛을 변조해야 하며 LED 또는 레이저 다이오드만 가능합니다.Direct TOF 이미지 작성기의 경우 프레임당 단일 펄스(예: 30Hz)가 사용됩니다.조명은 일반적으로 적외선을 사용하여 조명을 방해받지 않도록 합니다.
  • 광학: 렌즈는 반사광을 모아 환경을 이미지 센서(초점 평면 어레이)에 촬영합니다.광밴드 패스 필터는 조명 유닛과 같은 파장의 빛만을 통과시킨다.이는 비특기광을 억제하고 노이즈를 줄이는 데 도움이 됩니다.
  • 이미지 센서:TOF 카메라의 심장입니다.각 픽셀은 빛이 조명 장치(레이저 또는 LED)에서 물체 및 초점 평면 어레이로 이동하는 데 걸린 시간을 측정합니다.타이밍에는 몇 가지 다른 접근법이 사용됩니다.상기의 디바이스의 타입을 참조해 주세요.
  • 드라이버 일렉트로닉스:조명 장치와 이미지 센서 모두 고속 신호에 의해 제어되고 동기화되어야 합니다.고해상도를 얻으려면 이러한 신호가 매우 정확해야 합니다.예를 들어 조명 장치와 센서 사이의 신호가 10피코초만 이동하면 거리가 1.5mm씩 변경됩니다.비교를 위해 현재 CPU는 최대 3GHz의 주파수에 도달하여 약 300ps의 클럭 사이클에 대응합니다.해상도도 45mm에 불과합니다.
  • 계산/인터페이스:거리는 카메라에서 직접 계산됩니다.좋은 성능을 얻기 위해 일부 교정 데이터도 사용됩니다.그런 다음 카메라는 USB나 이더넷과 같은 일부 인터페이스를 통해 거리 이미지를 제공합니다.

원칙

비행 시간 카메라의 작동 원리:

펄스법 (1)에서는 거리 d = c t/2q2/q1 + q2 여기서 c는 빛의 속도, t는 펄스의 길이, q1은 빛이 방출될 때 픽셀 내의 누적 전하, q2는 그렇지 않을 때 누적 전하입니다.

연속파법 (2)에서는 d = c t/2c arctan q3 - q4/q1 - [16]q2이다.
아날로그 타이밍을 사용한 비행 시간 카메라의 원리를 나타내는 다이어그램

비행 시간 카메라의 가장 단순한 버전은 광펄스 또는 단일 광펄스를 사용합니다.조명이 매우 짧은 시간 동안 켜지고 결과적으로 발생하는 광펄스가 장면을 비추며 시야에 있는 물체에 반사됩니다.카메라 렌즈는 반사된 빛을 모아 센서 또는 초점 평면 어레이에 촬영합니다.거리에 따라 들어오는 빛이 지연됩니다.빛의 속도는 초당 약 c = 300,000,000m이므로, 이 지연은 매우 짧습니다. 2.5m 떨어진 물체는 다음과 [17]같이 빛을 지연시킵니다.

진폭 변조 어레이의 경우 조명의 펄스 폭에 따라 카메라가 처리할 수 있는 최대 범위가 결정됩니다.예를 들어 50ns 펄스 폭의 경우 범위는 다음과 같이 제한됩니다.

이러한 짧은 시간은 조명 장치가 시스템의 중요한 부분임을 나타냅니다.이러한 짧은 펄스를 발생시킬 수 있는 것은 특수한 LED 또는 레이저뿐입니다.

단일 픽셀은 광에 민감한 요소(: 포토 다이오드)로 구성됩니다.들어오는 빛을 전류로 변환합니다.아날로그 타이밍 이미지에서는 포토 다이오드에 접속되는 퍼스트스위치는 전류를 가산 소자로 동작하는 2개(또는 복수의) 메모리 소자(를 들면 콘덴서) 중 하나로 유도합니다.디지털 타이밍 이미지에서는 수기가헤르츠로 동작할 수 있는 타임카운터가 각 광검출기 화소에 접속되어 빛이 감지되면 카운트를 정지한다.

진폭 변조 어레이 아날로그 타이머의 그림에서 화소는 2개의 스위치(G1, G2)와 2개의 메모리 소자(S1, S2)를 이용한다.스위치는 광펄스와 같은 길이의 펄스로 제어되며 스위치 G2의 제어신호는 펄스 폭만큼 지연됩니다.지연에 따라 S1에서 G1을 통해 광펄스의 일부만을 샘플링하고 다른 부분은 S2에 기억한다.거리에 따라 [4]S1과 S2의 비율이 그림과 같이 변화한다.50 ns 이내의 소량의 빛만이 센서에 닿기 때문에, 1개의 펄스가 아니고 수천개의 펄스가 송신되어 수집되기 때문에(반복율 tR), 신호 대 잡음비가 높아집니다.

노광 후에, 화소를 읽어내 신호 S1, S2를 계측한다.광펄스의 길이가 정의되면 다음 공식으로 거리를 계산할 수 있습니다.

이 예에서 신호의 값은 S1 = 0.66 및 S2 = 0.33입니다.따라서 거리는 다음과 같습니다.

배경광이 존재하는 경우 메모리 소자는 신호의 추가 부분을 수신합니다.그러면 거리 측정이 방해됩니다.신호의 배경 부분을 제거하기 위해 조명을 끈 상태에서 전체 측정을 두 번째로 수행할 수 있습니다.물체가 거리 범위보다 더 멀리 있으면 결과도 잘못됩니다.여기서 제어신호가 추가 펄스폭만큼 지연된 제2의 측정은 이러한 물체를 억제하는 데 도움이 된다.다른 시스템은 펄스 소스 대신 사인파 변조 광원으로 작동합니다.

3D Flash LIDAR와 같은 직접 TOF 이미지에서는 레이저에 의해 5~10ns의 단일 짧은 펄스가 방출됩니다.T-zero 이벤트(펄스가 카메라를 떠나는 시간)는 펄스를 직접 캡처하고 이 타이밍을 포커스 플레인 어레이로 라우팅함으로써 확립됩니다.T-zero는 초점면 어레이의 다양한 화소에 대한 반사 펄스의 복귀 시간을 비교하기 위해 사용된다.T제로와 포착된 귀환 펄스를 비교하고 시차를 비교함으로써 각 화소는 직접 비행시간 측정을 정확하게 출력한다.100m에 대한 단일 펄스의 왕복은 660ns입니다.10 ns 펄스의 경우 장면이 조명되고 범위와 강도가 1 마이크로초 미만으로 캡처됩니다.

이점

심플함

스테레오 비전 또는 삼각 측량 시스템과 달리, 전체 시스템은 매우 콤팩트합니다.조명은 렌즈 바로 옆에 배치되는 반면, 다른 시스템은 특정 최소 기준선을 필요로 합니다.레이저 스캔 시스템과 달리 기계적인 가동 부품이 필요하지 않습니다.

효율적인 거리 알고리즘

TOF 센서의 출력 신호에서 거리 정보를 추출하는 직접 프로세스입니다.그 결과, 이 작업은 복잡한 상관 알고리즘이 구현되는 스테레오 비전과는 대조적으로 적은 양의 처리 능력만 사용합니다.거리 데이터가 추출된 후, 예를 들어 물체 검출은 물체상의 패턴에 의해 알고리즘이 방해받지 않기 때문에 실행하는 간단한 프로세스이기도 하다.

스피드

비행 시간 카메라는 한 번의 촬영으로 완전한 장면 내의 거리를 측정할 수 있습니다.카메라는 초당 최대 160프레임에 이르기 때문에 실시간 애플리케이션에 사용하기에 이상적입니다.

단점들

배경 조명

CMOS 또는 가시광선 또는 근적외선(400 nm - 700 nm)을 사용하는 다른 통합 검출기 또는 센서를 사용하는 경우 인공 조명 또는 태양에서 나오는 배경광의 대부분은 억제되지만 픽셀은 여전히 높은 동적 범위를 제공해야 합니다.배경광은 또한 저장되어야 하는 전자를 발생시킨다.예를 들어, 오늘날 많은 TOF 카메라의 조명 장치는 약 1와트의 조명 레벨을 제공할 수 있습니다.태양은 1평방미터당 약 1050와트의 조명력을 가지고 있으며, 광학 밴드 패스 필터 후에는 50와트의 조명력을 가지고 있습니다.따라서 조명된 장면이 1평방미터의 크기라면 태양으로부터의 빛은 변조된 신호보다 50배 더 강합니다.시간이 지남에 따라 빛을 통합하지 않고 근적외선 검출기(InGaAs)를 사용하여 짧은 레이저 펄스를 캡처하는 비통합 TOF 센서의 경우, 일반적으로 1마이크로초 미만의 짧은 수집 주기 내에 이미지가 통합되지 않기 때문에 태양을 직접 보는 것은 문제가 되지 않습니다.이러한 TOF 센서는 우주 용도[12] 및 자동차 [18]용도 고려에 사용됩니다.

방해다

특정 유형의 TOF 장치(전부는 아님)에서 여러 대의 비행 시간 카메라가 동시에 실행 중인 경우 TOF 카메라가 서로의 측정을 방해할 수 있습니다.이 문제에 대처할 수 있는 방법은 다음과 같습니다.

  • 시간 다중화: 제어 시스템은 개별 카메라의 측정을 순차적으로 시작하므로 한 번에 하나의 조명 유닛만 활성화됩니다.
  • 다른 변조 주파수:카메라가 다른 변조 주파수로 빛을 변조하는 경우, 다른 시스템에서는 배경 조명으로만 수집되며 거리 측정을 방해하지 않습니다.

조명에 단일 레이저 펄스를 사용하는 Direct TOF 타입 카메라의 경우, 단일 레이저 펄스가 짧기 때문에(예: 10나노초), 시야에 있는 물체와의 왕복 TOF는 그에 따라 짧습니다(예: 100m = 660ns 왕복).30Hz에서 캡처하는 이미저의 경우 간섭 상호 작용의 가능성은 카메라 획득 게이트가 열려 있는 시간을 레이저 펄스 사이의 시간으로 나눈 값 또는 약 50,000분의 1(0.66μs 나누기 33ms)입니다.

다중 반사

단일 지점이 조명되는 레이저 스캔 시스템과 달리, 비행 시간 카메라는 전체 장면을 조명합니다.위상차 장치(진폭 변조 어레이)의 경우, 복수의 반사에 의해, 빛은 복수의 패스를 따라서 물체에 도달할 수 있다.따라서 측정된 거리가 실제 거리보다 클 수 있습니다.직접 TOF 이미지 작성자는 빛이 특정 표면에서 반사되는 경우 취약합니다.다양한 TOF 장치와 접근법의 [19]장점과 단점을 개략적으로 설명하는 출판된 논문이 있다.

적용들

비행시간 카메라로 포착한 사람의 얼굴 범위 이미지(아티스트의 묘사)

자동차 애플리케이션

비행 시간 카메라는 능동 보행자 안전, 사전 충돌 감지 및 위치 이탈([20][21]OOP) 감지와 같은 실내 응용 프로그램과 같은 고급 자동차 응용 프로그램의 보조 및 안전 기능에 사용됩니다.

휴먼 머신 인터페이스 및 게임

비행시간 카메라는 거리 영상을 실시간으로 제공하기 때문에 사람의 움직임을 쉽게 추적할 수 있다.이것은 텔레비전과 같은 소비자 기기들과 새로운 상호작용을 가능하게 한다.또 다른 주제는 비디오 게임 [22]콘솔의 게임과 상호작용하기 위해 이런 종류의 카메라를 사용하는 것이다.원래 Xbox One 콘솔에 포함된 2세대 키넥트 센서는 거리 [23]이미징을 위해 비행 시간 카메라를 사용하여 컴퓨터 비전제스처 인식 기술을 사용하여 자연스러운 사용자 인터페이스와 게임 애플리케이션을 구현했습니다.CreativeIntelSoftkinetic[24]DepthSense 325 카메라를 기반으로 한 Senz3D도 게임용 인터랙티브 제스처 타임 오브 플라이트 카메라를 제공합니다.InfineonPMD Technologies는 일체형 PC 및 노트북(Picco flexx 및 Picco monstar 카메라)[25]과 같은 소비자 기기를 근거리 제스처 제어하기 위한 소형 통합 3D 깊이 카메라를 지원합니다.

스마트폰 카메라

삼성 갤럭시 S20 울트라에는 3개의 후면 카메라 렌즈와 ToF 카메라가 탑재되어 있다.

몇몇 스마트폰에는 비행 시간 카메라가 포함되어 있다.이것들은 주로 카메라 소프트웨어에 전경 및 [26]배경 정보를 제공함으로써 사진의 품질을 향상시키는 데 사용됩니다.

이러한 기술을 채용한 최초의 휴대폰은 2014년 [27]초에 출시된 LG G3이다.

측정 및 기계 비전

높이 측정이 포함된 범위 영상

다른 애플리케이션은 사일로 내 채우기 높이와 같은 측정 작업입니다.산업 기계 시각에서, 비행 시간 카메라는 컨베이어 위를 지나가는 물품과 같이 로봇이 사용할 물체를 분류하고 위치를 찾는 데 도움이 됩니다.도어 컨트롤은 문 앞에 도달하는 동물과 사람을 쉽게 구별할 수 있습니다.

로보틱스

이러한 카메라의 또 다른 용도는 로봇 공학 분야입니다.모바일 로봇은 주변 지도를 매우 빠르게 만들 수 있어 장애물을 피하거나 선두 인물을 따라갈 수 있다.거리 계산은 간단하기 때문에 계산 능력이 거의 사용되지 않습니다.

지구 지형

ToF 카메라는 지형학 연구를 위해 지구 표면 [28]지형디지털 고도 모델을 얻기 위해 사용되어 왔다.

브랜드

활성 브랜드(2011년 기준)

  • DepthVista - e-con 시스템별 3D 비행 시간 카메라
  • ESPROS - 자동차, 로봇, 산업 및 IoT 애플리케이션용 3D TOF 이미저 칩, TOF 카메라 및 모듈
  • 항공, 자동차 및 우주 애플리케이션을 위한 Advanced Scientific Concepts, Inc.의 3D Flash LIDAR 카메라 및 비전 시스템
  • DepthSense - RGB 센서 및 SoftKinetic 마이크 등 TOF 카메라 및 모듈
  • IRMA MATRIX - TOF 카메라, Iris-Gmb에 의한 모바일 및 정지 애플리케이션의 자동 승객 카운팅에 사용됩니다.H
  • Kinect - Microsoft의 비디오 게임 콘솔 및 PC용 핸즈프리 사용자 인터페이스 플랫폼으로, 2세대 센서 [23]장치에 비행 시간 카메라를 사용합니다.
  • pmd - 카메라 레퍼런스 설계 및 소프트웨어(pmd[vision], TOF 모듈 [CamBoard], TOF 이미지(Photon) 포함)PMD 테크놀로지에 의한 IC)
  • real.IZ 2+3D - 스타트업 기업 odos 이미징에 의해 개발된 고해상도 SXGA(1280×1024) TOF 카메라로 기존 이미지 캡처와 TOF 레인징을 동일한 센서에 통합했습니다.Siemens에서 개발한 기술을 기반으로 합니다.
  • Senz3D - [24]게임에 사용되는 Softkinetic의 DepthSense 325 카메라를 기반으로 Creative와 Intel의 TOF 카메라.
  • SICK - 산업용 애플리케이션 및[29] 소프트웨어용 3D 산업용 TOF 카메라(Visionary-T)
  • 3D MLI 센서 - IEE(국제전자공학)의 TOF 이미저, 모듈, 카메라 및 소프트웨어, 변조광강도(MLI) 기반
  • TOFCam Stanley - Stanley Electric의 TOF 카메라
  • TriDiCam - TOF 모듈 및 소프트웨어. 원래 Fraunhof Institute of MicroElectronic Circuits and Systems에서 개발한 TOF 이미저로 현재는 스핀아웃 회사인 TriDiCam에서 개발되었습니다.
  • Hakvision - TOF 스테레오 카메라
  • 큐브아이 - ToF 카메라 및 모듈, VGA 해상도, 웹사이트 : www.cube-eye.co.kr

폐지된 브랜드

  • CanestaVision[30] - Canesta의 TOF 모듈과 소프트웨어(2010년 Microsoft에 인수된 기업)
  • D-IMAGER - 파나소닉 일렉트릭웍스 TOF 카메라
  • OptriCam - Optrima의 TOF 카메라 및 모듈(2011년 SoftKinetic 합병 전 DepthSense 브랜드 변경)
  • ZCam - 3DV Systems의 TOF 카메라 제품, 풀컬러 비디오와 깊이 정보를 통합 (2009년 Microsoft에 판매)
  • SwissRanger - 본래 Centre Suisse d'Electronique et Microtechnique, S.A.(CSEM)가 개발한 산업용 TOF 전용 카메라 라인. 현재는 Mesa Imaging(2014년 Heptagon에 인수됨)
  • 포토닉 - 파나소닉 CMOS 칩 탑재 TOF 카메라 및 소프트웨어(2018년 오토리브 인수)
  • S.Cube - 큐브아이별 ToF 카메라 및 모듈

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b Iddan, Gavriel J.; Yahav, Giora (2001-01-24). "3D imaging in the studio (and elsewhere…)" (PDF). Proceedings of SPIE. Vol. 4298. San Jose, CA: SPIE (published 2003-04-29). p. 48. doi:10.1117/12.424913. Archived from the original (PDF) on 2009-06-12. Retrieved 2009-08-17. The [time-of-flight] camera belongs to a broader group of sensors known as scanner-less LIDAR (i.e. laser radar having no mechanical scanner); an early [1990] example is [Marion W.] Scott and his followers at Sandia.
  2. ^ "Product Evolution". 3DV Systems. Archived from the original on 2009-02-28. Retrieved 2009-02-19. Z-Cam, the first depth video camera, was released in 2000 and was targeted primarily at broadcasting organizations.
  3. ^ Christoph Heckenkamp:Das magische Auge - Grundlagen der Bildverarbeung : Das PMD Prinzip.입력: 검사.2008년 제1호, S. 25-28호
  4. ^ a b Gokturk, Salih Burak; Yalcin, Hakan; Bamji, Cyrus (24 January 2005). "A Time-Of-Flight Depth Sensor - System Description, Issues and Solutions" (PDF). IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, 2004: 35–45. doi:10.1109/CVPR.2004.291. S2CID 1203932. Archived from the original (PDF) on 2007-06-23. Retrieved 2009-07-31. The differential structure accumulates photo-generated charges in two collection nodes using two modulated gates. The gate modulation signals are synchronized with the light source, and hence depending on the phase of incoming light, one node collects more charges than the other. At the end of integration, the voltage difference between the two nodes is read out as a measure of the phase of the reflected light.
  5. ^ "Mesa Imaging - Products". August 17, 2009.
  6. ^ a b 미국 특허 5081530, 안토니오 메디나, "Three Dimensional Camera and Rangefinder", 1992-01-14 발행, 안토니오 메디나에 할당
  7. ^ Medina A, Gayá F, Pozo F (2006). "Compact laser radar and three-dimensional camera". J. Opt. Soc. Am. A. 23 (4): 800–805. Bibcode:2006JOSAA..23..800M. doi:10.1364/JOSAA.23.000800. PMID 16604759.
  8. ^ "Kinect for Windows developer's kit slated for November, adds 'green screen' technology". PCWorld. 2013-06-26.
  9. ^ "Submillimeter 3-D Laser Radar for Space Shuttle Tile Inspection.pdf" (PDF).
  10. ^ "Sea-Lynx Gated Camera - active laser camera system" (PDF). Archived from the original (PDF) on 2010-08-13.
  11. ^ Reisse, Robert; Amzajerdian, Farzin; Bulyshev, Alexander; Roback, Vincent (4 June 2013). Turner, Monte D; Kamerman, Gary W (eds.). "Helicopter flight test of 3D imaging flash LIDAR technology for safe, autonomous, and precise planetary landing" (PDF). Laser Radar Technology and Applications XVIII. 8731: 87310H. Bibcode:2013SPIE.8731E..0HR. doi:10.1117/12.2015961. hdl:2060/20130013472. S2CID 15432289.
  12. ^ a b "ASC's 3D Flash LIDAR camera selected for OSIRIS-REx asteroid mission". NASASpaceFlight.com. 2012-05-13.
  13. ^ http://e-vmi.com/pdf/2012_VMI_AUVSI_Report.pdf[베어 URL PDF]
  14. ^ "Autonomous Aerial Cargo/Utility System Program". Office of Naval Research. Archived from the original on 2014-04-06.
  15. ^ "Products". Advanced Scientific Concepts.
  16. ^ "Time-of-Flight Camera â€" An Introduction". Mouser Electronics.
  17. ^ "레인지 이미징용 CCD/CMOS 록인 픽셀: 과제, 한계최첨단" - CSEM
  18. ^ "Automotive". Advanced Scientific Concepts.
  19. ^ Aue, Jan; Langer, Dirk; Muller-Bessler, Bernhard; Huhnke, Burkhard (2011-06-09). "2011 IEEE Intelligent Vehicles Symposium (IV)". 2011 IEEE Intelligent Vehicles Symposium (IV). Baden-Baden, Germany: IEEE. pp. 423–428. doi:10.1109/ivs.2011.5940442. ISBN 978-1-4577-0890-9.
  20. ^ Hsu, Stephen; Acharya, Sunil; Rafii, Abbas; New, Richard (25 April 2006). Performance of a Time-of-Flight Range Camera for Intelligent Vehicle Safety Applications (PDF). Advanced Microsystems for Automotive Applications 2006. VDI-Buch. Springer. pp. 205–219. CiteSeerX 10.1.1.112.6869. doi:10.1007/3-540-33410-6_16. ISBN 978-3-540-33410-1. Archived from the original (PDF) on 2006-12-06. Retrieved 2018-06-25.
  21. ^ Elkhalili, Omar; Schrey, Olaf M.; Ulfig, Wiebke; Brockherde, Werner; Hosticka, Bedrich J. (September 2006), "A 64x8 pixel 3-D CMOS time-of flight image sensor for car safety applications", European Solid State Circuits Conference 2006, pp. 568–571, doi:10.1109/ESSCIR.2006.307488, ISBN 978-1-4244-0302-8, S2CID 24652659, retrieved 2010-03-05
  22. ^ Captain, Sean (2008-05-01). "Out of Control Gaming". PopSci.com. Popular Science. Retrieved 2009-06-15.
  23. ^ a b Rubin, Peter (2013-05-21). "Exclusive First Look at Xbox One". Wired. Wired Magazine. Retrieved 2013-05-22.
  24. ^ a b Sterling, Bruce (2013-06-04). "Augmented Reality: SoftKinetic 3D depth camera and Creative Senz3D Peripheral Camera for Intel devices". Wired Magazine. Retrieved 2013-07-02.
  25. ^ Lai, Richard. "PMD and Infineon to enable tiny integrated 3D depth cameras (hands-on)". Engadget. Retrieved 2013-10-09.
  26. ^ Heinzman, Andrew (2019-04-04). "What Is a Time of Flight (ToF) Camera, and Why Does My Phone Have One?". How-To Geek.
  27. ^ 스마트폰에 탑재된 비행 시간 기술 – 2014년 10월 17일 SensorTips.com
  28. ^ Nitsche, M.; Turowski, J. M.; Badoux, A.; Rickenmann, D.; Kohoutek, T. K.; Pauli, M.; Kirchner, J. W. (2013). "Range imaging: A new method for high-resolution topographic measurements in small- and medium-scale field sites". Earth Surface Processes and Landforms. 38 (8): 810. Bibcode:2013ESPL...38..810N. doi:10.1002/esp.3322. S2CID 55282788.
  29. ^ TBA. "SICK - Visionary-T y Visionary-B: 3D de un vistazo - Handling&Storage". www.handling-storage.com (in European Spanish). Retrieved 2017-04-18.
  30. ^ "TowerJazz CIS Technology Selected by Canesta for Consumer 3-D Image Sensors". Business Wire. 21 June 2010. Retrieved 2013-10-29. Canesta Inc. is using TowerJazz's CMOS image sensor (CIS) technology to manufacture its innovative CanestaVision 3-D image sensors.

추가 정보