22
3D Time Of Flight Camera의 적절한 사용법과 그 한계 (Proper usage and limitation of 3D Time of flight Camera) 3D Time Of Flight Camera의 적절한 사용법과 그 한계 (Proper usage and limitation of 3D Time of flight Camera) 작성자: 이민구 THree Eyes-System (THE-S)

Time of Flight 3D Camera 사용법 및 한계

Embed Size (px)

DESCRIPTION

Analitic document of 3D Time of flight camera usage and limitation

Citation preview

Page 1: Time of Flight 3D Camera  사용법 및 한계

3D Time Of Flight Camera의 적절한사용법과 그 한계

(Proper usage and limitation of 3D Time of flight Camera)

3D Time Of Flight Camera의 적절한사용법과 그 한계

(Proper usage and limitation of 3D Time of flight Camera)

작성자: 이민구

THree Eyes-System (THE-S)

Page 2: Time of Flight 3D Camera  사용법 및 한계

광학적 3차원 형상측정방식

2

삼각측량 방식

간섭계 방식 시간비행 방식

Page 3: Time of Flight 3D Camera  사용법 및 한계

비 접촉 3차원 형상측정

3

Reference : R. Schwarte, “Principles of 3-D Imaging Techniques”, in Handbook of Computer Vision and Applications, B. Jähne, H. Haussecker and P. Geissler (Eds.), Academic Press, (1999).

Page 4: Time of Flight 3D Camera  사용법 및 한계

3차원 형상 측정의 제품

Raw image Rectified Image Edge image 3D image▶삼각측량 방식으로 두 개의 Image 센서거리에 의해 최대측정거리 결정

157 x 47.4 x 36 mm3

▶ Point Grey Stereo Vision Cameras Baseline (센서의 사이즈 증가), 많은 처리 시간

▶ 4D Technology Interferometry Camera 고가의 안정화 광원 필요

Pixelated 편광 판57 x 57 x 46 mm3 간섭계를 이용한 광학 구조 4개의 편광 판의 Image 3D Image

▶ Microsoft (Canesta) 저가, 소형화, 실내 외 적용, 고해상도, 중 장거리

LED 광원, 광 검출기 특정 주파수 CW 변조 특정 주파수 검출 거리 환산Patent :US7464351

Page 5: Time of Flight 3D Camera  사용법 및 한계

응용분야 : 제품

Motion Capture 3D Presentation AutonomousNavigation

3D Modeling Smart Phone

ApplicationApplication

Next Generation Keyboard Finger Controller Instant 3D Printer Toys Smart Class

Smart Furniture Autonomous Parking Unmanned Vehicle Robotics Construction

Topography Defense and Security Micro Air Vehicle Smart Pad 3D Street View

Page 6: Time of Flight 3D Camera  사용법 및 한계

응용분야 : 연구

6

Exploitation of Time-of-Flight (ToF) Cameras Author : Sergi Foix

Page 7: Time of Flight 3D Camera  사용법 및 한계

Current 3D TOF Cameras (2013.03)Accuracy

10m 50m

100mmEPFL(AQUA)

▶ D:0.1m~ 2.5m▶ R:6cm▶ A:±3.5cm

EPFL(AQUA)TCSPC Method D:0.1m~ 3.75m

R:1mmA:±5mm

MESA▶ M : Lock-in-CCD▶ Pixels :176 x 144(QCIF)▶ FOV : 43.6 x 34.6 ▶ D:<10m, 5m▶ R:0.9 mm▶ 1σ : 5mm at 2m(50%)▶ FRS: 54 frame

Microsoft Kinect& PrimeSense

▶ M : Structured Light▶ Pixels : 640 x 480▶ FOV : 58o x 45o

▶ D: < 5m▶ R: 15 mm▶ A: <15 cm

MaximumDistance

150mm

MESA▶ M: Lock-in-CCD ▶ Pixels: 176 x 144 (QCIF) ▶ D:<7.5m▶ R: 1% of Range A:±1.5cm▶ FRS: 25

MIT ▶ Pixels: 32 x 32 ▶ D:< 500 m▶ A : a few 10 cm

Boeing SpectroLab▶ Pixels: 32 x 32▶ D : A few 100s m▶ FRS: 30 k fps▶ Size : 11 x 11 x 11 cm3

Panasonic ▶ D-Imager▶Pixels : 160 x 120▶ Frame rate : < 30fps▶ D : <5m▶ FOV : 60° x 44°▶ R: 2~5cm ( Noise)▶ W: 850nm

ASC▶ Pixels: 128 x 128▶ FOV : 45°x 45°▶ D: 60m▶ FRS: 30 fps▶ Size : 11 x 12 x 12 cm3

▶ Weight : 1.6Kg▶ Wavelength : 1570nm

PMD Tech▶Pixels : 160 x 120▶ FRS : <90fps▶ D : <2m▶ FOV : 90°x 68°▶ P: 5mm at 1.5m 70% ▶ W: 850nm▶ S: 194 x 60 x 60 mm3

PMD Tech▶ TOF Photon Mixer Device ▶Pixels : 200 x 200▶ FRS : <40fps▶ D : 0.3 ~10m▶ FOV : 40° x 40°▶ P: 3mm at 4m 75% ▶ W: 870nm▶ S: 194 x 60 x 60 mm3

Canesta▶3D CMOS ▶ Pixels: 64 x 64 ▶ FOV : 80o,55o,33o (Lens)▶ FPS : 30fps▶ R: 6cm▶ A : 30cm at 12m▶ Size : 12 x 6 x 6 cm3

Softkinect▶ TOF Photonic Mixer▶ Pixels: 160 x 120 ▶ FOV : 50o x 40o (Lens)▶ FPS : <60 fps▶ R: 3cm▶ A : <5cm▶ Size : 12 x 6 x 6 cm3

Leap Motion▶ M : Photometric stereo▶ FRS : < 290 fps▶ D : < 1 m▶ R : 10 um▶ A : 20 ~30 um▶ FOV : 150°x 20 ~30°▶ W: 850nm▶ S: 25 x 50 x 100 mm3

SR4000SR3000

D-Imager

[1].ASC[2].Boeing SpectroLab[3].Panasonic[4].PMD Tech[5].MIT[6].Softkinect[7].MESA[8].Microsoft(Canesta)[9].Leap Inc

CamCube3.0

LG3D JIGSAW

TigerEye

Leap Motion

CamBoard Nano

Kinect DS311

Softkinect▶ Pixels: 320 x240▶ FOV : 74o x 58o (Lens)▶ FPS : <60 fps▶ D : < 1m ▶ R: 1.4 cm▶ A : <5cm▶ Size : 105 x 31 x 27 mm3

DS325

1m

5mm

10mm

DP200

Page 8: Time of Flight 3D Camera  사용법 및 한계

Specification of commercial 3D TOF camera

8

판매 업체 Microsoft(Canesta)

PMD Mesa Imaging

ASC MPD Softkinectic

모델명 KinectCanestaDP200

CamCube3.0

CamBoardNano

SW4000 Tiger Eye SPC2 DS311

핵심기술 Structured Light

HomodyneIQ Mixing

PhotonMixer Device

PhotonMixer Device

Lock-inCCD

InGaAsAPD+Direct

TOF

SPAD +Synch Photon

Counting

PhotonicMixer

Structure

최대 측정 거리 5m 12m 7m 2m 5m 70m 7.5m 4.5m

FOV수평 58 55 40 90 43.6 45° NA 57°

수직 45 55 40 68 34.6 45° NA 42°

분해능화소 640x480 64x64 200 x200 160 x 120 176 x144 128 x128 NA 160 x 120

거리 15mm 10cm mm mm 2.5cm cm NA cm

정확도 (1σ) 7cm 0.6cm 0.3cm 0.5cm 1cm A few cm NA 2cm (3m)

Frame Rate 30 fps 30 fps 40 fps 90 fps 54 fps 30 fps 98k fps 60 fps

용적 (mm3) 300x7.5x6.25

125x60x63194 x 60

x6037x30x25 65 x 65 x68 110x112x121 60x60x82 290 x180 x100

소비전력 < 12W 10W < 17W <2.5W < 24W < 50W < 5W < 10W

사진

Page 9: Time of Flight 3D Camera  사용법 및 한계

[1]-Kinect ( Microsoft + Primesense)

9

Structured Light MethodStructured Light Method

Principle

1 2

3Speckle Pattern

4

Implementation

Known Pattern to the scene and compare the reflected image with Ref

Patent : US7,433,024 B2 : PrimeSense Range Mapping using speckle decorrelation

ReferenceObject

Correlation

Body parts Joint Segments

Projecting the laser speckle pattern

Depth Sensor

RGBSensor

LightSensor

ASIC: Prime Sense

Page 10: Time of Flight 3D Camera  사용법 및 한계

[2]- CSEM and MESA Imaging

Lock-In-Pixel MethodLock-In-Pixel Method

Principle

LED Array CCD based Solid state 3D TOF Lock-in-pixels

CW modulation (50% duty)

)()()()(arctan

20

13

CCCC

MfcD

4

Implementation

Ranging Performance

2sin

220

213 AAAA

tA

tAAAAB

4

3210

Pixel level demodulation

Range: 0.5 ~10m Resolution: <2.2cm within 5m (99%) Accuracy : ± 1cm Pixels: 176 x 144 (QCIF) ,40um Pitch Max Frame rate per sec : 54 fps H :43.6o, V: 34.6o , Resolution : 0.23o

H :69o, V: 56o , Resolution : 0.39o

Eye safety : class 1, Wavelength : 805nm Communication : USB2.0 or Ethernet Size : 65 x 65 x 68 mm3 (USB) Weight : 470g Power : 12V/0.8A (<10W)

[1]-MESSA Imaging

SR4000

SwissRanger 3D Viewer Application Program

Lateral Resolution

SR3000

Page 11: Time of Flight 3D Camera  사용법 및 한계

3D 시간비행 CAMERA 원리

11

[1] : 기존의 Direct TOF(Pulsed TOF)센서를 이용한 카메라에 관해 언급 X( 낮은 Pixel 해상도, 고가의 제품 및 1550nm 파장(Advanced Scientific Concept))

[2] : AMCW의 Demodulation을 하기 위한 Lock-in-pixel TOF Camera에 대해서 언급

상용 3D Camera는 (NIR) 영역의 광원(LEDs, Laser Diode) 을 AMCW 방식을 이용하여 방출된 광원이 물체에 반사되어 되돌아오는 광원을 수신하여 위상 차이를 구하여 거리를 측정.

3D 카메라에서는 각 픽셀 단위로 이 위상을 계산하여 거리로 환산하는 Read out Circuit을 내장하고 있다.

3 1

0 2

arctan m mm m

0 1 2 3

4m m m mB

2 23 1 0 2

4m m m m

A

Offset

Amplitude

Phase

2d c t

2 m

tf

2 2 m

cdf

Page 12: Time of Flight 3D Camera  사용법 및 한계

3D TOF 카메라?? What is that?..

12

1) Depth and Intensity images I-D(TOF Camera) Vs RGB-D (Kinect)

2) 고속의 frame rate 이미지 획득 ( 최대 : 수KHz /s)

3) 초 소형화 (5cm3),low weight ( < 수백 g)

4) Scanning 기구 부 (pan and tilt) 의 부재로 진동에 안정화된 구조

5) 능동 광원의 필요 ( Eye-safety 만족하는 IR 광원)

6) Lens 변경을 통한 FOV 조정 가능

7) Dynamic Scene, Non-cooperative Target 측정에 알맞음

Page 13: Time of Flight 3D Camera  사용법 및 한계

13

Current Issues of 3D TOF Cameras

13

A. Systematic Errors : [1]. Depth distortion[2]. Integration-time-related error[3]. Built-in pixel-related errors[4]. Amplitude-related errors[5]. Temperature-related errors

B. Non-Systematic Errors[6]. Multiple light reception[7]. Motion blurring

Calibration

Filtering

Predictable:카메라 성능

Unpredictable:측정 물체에 의존

Page 14: Time of Flight 3D Camera  사용법 및 한계

1st Error : Wiggling Effect

14

Fig. 3. Depth distortion offset (Wiggling effect). (Blue dots)Measurements captured with a SR3100 ToF camera

at multiple integration times (2 ms–32 ms). (Red line) 6 degrees polynomial approximated function

wiggling or circular error

Modulation광원의

비선형성 때문(Ideal : No Pure sinusoidal)

T. Kahlmann, F. Remondino, and H. Ingensand, “Calibration for increased accuracy of the range imaging camera Swissranger™,” in ISPRS Commission V Symp., Dresden, Germany, Sep. 2006, pp.136–141

해결책: Look-up Table(거리에 따라 각각 보상)

20cm

Page 15: Time of Flight 3D Camera  사용법 및 한계

2nd Error : Integration-time-related error

15

Integration time (IT) : Adjustable by the user Or Some cameras have an auto IT mode

■ 1m 떨어져 있는 흰색 벽을 반복 측정한 결과

1. 첫째 : 하나의 IT 값 정한 후다른 에러의 보상을 실행한 IT 값 고정

2. 둘째 : 각 Depth distortion + Different IT 의 값을 적용한 Curve fitting 식을 구함

IEEE SENSORS JOURNAL, VOL. 11, NO. 9, SEPTEMBER 2011 Lock-in Time of Flight(ToF) Cameras A Survey

2ms 4ms 8ms

Page 16: Time of Flight 3D Camera  사용법 및 한계

3rd Error : Built-in pixel-related errors

16Depth-colored fixed pattern noise (FPN) offset per pixel.

원인 : different material properties in CMOS-gates ( 각 픽셀 마다 다른 고유의 offset을 가짐)

▶Amplitude-related errors와 이 에러는 분리가 힘들다

▶ Image 센서 업체의 초기 보정( Dark Current 보상)

▶ 센서의 양산시 고려(회로 내장 or 소프트웨어적으로 보상)

▶ FPN 함수는 Row and column 픽셀위치에 따라 의존도가 있으며, 이는LUT 의 Calibration Factor에 반영

▶ 카메라를 구매할 경우 Vendor에서직접 각 카메라의 FPN matrix 보정 파일제공

■ 160 x 160 pixel 해상도를 갖는 CMOS Image Sensor의 Offset 값

Page 17: Time of Flight 3D Camera  사용법 및 한계

4th Error : Amplitude-related errors

17

Depth-colored amplitude-related errors

원인 : [1]-약한 Amplitude의 값 또는 Over-exposed 반사된 진폭 현상 때문.[2]-광원의 non-uniformity ( 물체 까지의 빛이 고르게 가지 못함) LEDs 출력파워가 균등X [3]-실제 물체의 균질도 (표면의 거칠기)[4]-실제 물체의 다른 Reflectance 때문에 ( 반사계수 보상 필요)

▶ 낮은 진폭 값은 Threshold filter으로 제거가능하나 이는 실용적이지 못함

▶ Over-exposed의 경우 카메라 자체에서검출 해내는 기능의 회로 추가

(SR4000)

▶ Reflectance의 다름 : 반사 도에 따른 각거리의 보상 LUT사용

▶ Amplitude-Depth 의 관계식을 통한 보상

■ 0.43m 떨어져 있는 흰색 벽을 측정한 결과

Page 18: Time of Flight 3D Camera  사용법 및 한계

5th Error: Temperature-related errors

18

O. Steiger, J. Felder, and S.Weiss, “Calibration of time-of-flight range imaging cameras,” in Proc. IEEE Int. Conf. Image Process., San Diego, CA, Oct. 2008, pp. 1968–1971.

F. Chiabrando, R. Chiabrando, D. Piatti, and F. Rinaudo, “Sensors for 3D imaging: Metric evaluation and calibration of a CCD/CMOS time-of-flight camera,” Sensors, vol. 9, no. 12, pp. 10 080–10 096, 2009.

해결책 : 카메라의 온도 안정화를 위한 내부,외부 온도 제어 장치 필요하며, Median Filter를 이용하여 몇 십분 정도의 안정화 시간 후 측정 시 ±1cm의 정밀도를 획득

■ SwissRanger4000의 온도특성 시험

10cm

T. Kahlmann, F. Remondino, and H. Ingensand, “Calibration forincreased accuracy of the range imaging camera Swissranger™,”in ISPRS Commission V Symp., Dresden, Germany, Sep. 2006, pp.136–141.

Median Filter

Page 19: Time of Flight 3D Camera  사용법 및 한계

6th Multiple Light Reception

19

■투명한 물체의 광원의 투과성 때문에 거리 왜곡 발생

■투명 케이스의 특정 면에서는 거리가 측정 되나 일부 면은 투과됨

■ 반사도가 심한 곳에서는 일부 픽셀이 왜곡되는 현상이 발생

■ 광원의 특정 반사 각도에 따라서 반사율이 심한 곳에서 에러 발생Concavities object

Page 20: Time of Flight 3D Camera  사용법 및 한계

7th Motion Blurring

20

Motion blurring

(1) Traditional cameras are used in dynamic environments

(2) Physical motion of the objects or the camera during the integration time for sampling

(3) Motion blurring errors : Two Types (lateral and axial motion)

(4) 2-D image sensor and a PMD camera is used in order to detect

(5) lateral motion artifact ( 2D 이미지의 Edge 로 보상)

(6) 다른 방법 : Average of positionally weighted neighboring pixels is recommended

(7) Lateral motion artifacts are identified first, by estimating optic flow from some

preprocessed phase-sampled images, afterwards, axial motion estimation approach and a

theoretical model for axial motion deviation errors.

Static hand

해결책 ; 빠름!! 빠름!!

Olleh!!Dynamic hand

Page 21: Time of Flight 3D Camera  사용법 및 한계

21

Page 22: Time of Flight 3D Camera  사용법 및 한계

결론

22

[1]-TOF카메라는 인간의 환경에 만족할 만한 장치이며 : Eye-safety, 비 접촉 측정, 비 Marker

[2]-Depth-Intensity의 각 2개의 Image는 각 특성을 잘살려 이용될 수 있을 것이다 (보상)

[3]- 2D Camera와 Data 융합하는 연구가 많이 되는데 더 많은 연구가 필요함 (삼성 Case조사)

[4]- Short Integration : Low SNR , Long Integration : Saturation // Trade Off

[5]- Non-ambiguity Range 의 극복: Multiple Modulation Frequency

[6]- 가장 중요한 것은 Ambient Light noise, Motion Artifacts( 다중 물체 간섭현상),

Low High Reflectivity Surface 해결

A 640×480 Image Sensor with Unified Pixel Architecture for 2D/3D Imaging in 0.11μm CMOS Seong-Jin Kim, James D. K. Kim, Sang-Wook Han, Byongmin Kang, Keechang Lee, Chang-Yeong Kim Samsung Advanced Institute of Technology

다양한 기술 :