기계 비전

Machine vision
1983년의 Early Automatix(현 Omron의 일부) 기계 비전 시스템 Autovision II가 무역 박람회에서 시연되었습니다.삼각대 위의 카메라는 조명 테이블을 아래로 향해서 화면에 보이는 백라이트 이미지를 생성하며, 그 후 블럽을 추출합니다.

기계 비전(MV)은 자동 검사, 프로세스 제어 및 로봇 안내와 같은 애플리케이션에서 영상 기반 자동 검사 및 분석을 제공하는 데 사용되는 기술 및 방법입니다.머신비전은 많은 테크놀로지, 소프트웨어 및 하드웨어 제품, 통합 시스템, 액션, 방법 및 전문지식을 말합니다.시스템 공학 분야로서의 기계 비전은 컴퓨터 과학의 한 형태인 컴퓨터 비전과 구별된다고 볼 수 있습니다.기존 기술을 새로운 방식으로 통합하고 실제 문제를 해결하기 위해 적용하려고 합니다.이 용어는 산업 자동화 환경에서 이러한 기능을 위해 널리 사용되는 용어이지만 다른 환경 차량 지침에서도 이러한 기능을 위해 사용된다.

전체적인 기계 비전 프로세스에는 요건과 프로젝트의 세부사항을 계획한 후 솔루션을 작성하는 작업이 포함됩니다.런타임 중에는 이미징부터 시작하여 이미지 자동 분석 및 필요한 정보 추출이 이루어집니다.

정의.

"머신 비전"이라는 용어의 정의는 다양하지만, 모두 다른 이미지인 이미지 처리와는 달리 자동으로 이미지에서 정보를 추출하는 데 사용되는 기술과 방법을 포함합니다.추출된 정보는 단순한 양호/불량 신호일 수도 있고 이미지 내의 각 개체의 ID, 위치 및 방향과 같은 복잡한 데이터 세트일 수도 있습니다.이 정보는 보안 모니터링 및 차량 [1][2][3]안내를 위해 업계 자동 검사, 로봇 및 프로세스 안내와 같은 애플리케이션에 사용할 수 있습니다.이 분야에는 다수의 테크놀로지, 소프트웨어 및 하드웨어 제품, 통합 시스템, 액션, 방법 및 [3][4]전문지식이 포함됩니다.기계 비전은 사실상 산업 자동화 애플리케이션에서 이러한 기능에 사용되는 유일한 용어이다. 이 용어는 보안 및 차량 안내와 같은 다른 환경에서 이러한 기능에 대해 덜 보편적이다.시스템 공학 분야로서 기계 시각 컴퓨터 비전 기본적인 컴퓨터 과학의 한 형태에서 뚜렷한;기계 시각 있는 산업 자동화와 유사한 응용 분야의 요건을 충족하는 방법으로 진정 세계 문제를 해결하기 위해 적용 새로운 방식으로 기존의 기술을 통합하려고 시도하다고 여겨질 수 있다.[3]:5[5]이 용어는 또한 Automated Imaging Association 및 European Machine Vision Association과 같은 박람회 및 무역 단체에서도 광범위하게 사용됩니다.이 광범위한 정의에는 이미지 [4]처리와 관련된 제품 및 애플리케이션도 포함됩니다.기계 비전의 주요 용도는 자동 검사와 산업용 로봇/공정 [6][7]: 6–10 [8]안내입니다.기계 비전에 대한 용어집을 참조하십시오.

이미지 기반 자동 검사 및 정렬

기계 비전의 주요 용도는 영상 기반 자동 검사 및 정렬 및 로봇 안내입니다.;[6][7]: 6–10 이 절에서 전자는 "자동 검사"로 약칭됩니다.전체적인 프로세스에는 요건과 프로젝트의 세부사항을 계획한 후 [9][10]솔루션을 작성하는 것이 포함됩니다.이 섹션에서는 솔루션 작동 중에 발생하는 기술 프로세스에 대해 설명합니다.

조작방법 및 순서

작동 자동 검사 시퀀스의 첫 번째 단계는 일반적으로 후속 처리에 필요한 차별화를 제공하도록 [11][12]설계된 카메라, 렌즈 및 조명을 사용하여 이미지를 획득하는 것입니다.그런 다음 MV 소프트웨어 패키지와 프로그램에서 개발된 프로그램은 필요한 정보를 추출하기 위해 다양한 디지털 이미지 처리 기술을 사용하며,[13] 추출된 정보에 기초하여 종종 (합격/실패와 같은) 결정을 내린다.

장비.

자동 검사 시스템의 구성 요소에는 일반적으로 조명, 카메라 또는 기타 이미저, 프로세서, 소프트웨어 및 출력 [7]: 11–13 장치가 포함됩니다.

이미징

영상 장치(예: 카메라)는 주 영상 처리 장치와 분리되거나 주 영상 처리 장치와 결합될 수 있습니다. 이 경우 이 조합을 일반적으로 스마트 카메라 또는 스마트 [14][15]센서라고 합니다.카메라와 같은 인클로저에 완전한 처리 기능을 포함시키는 것을 임베디드 [16]처리라고 부릅니다.분리하면 아날로그 또는 표준화된 디지털인터페이스(Camera Link, CoaXPres)[17][18][19][20]를 사용하여 컴퓨터 내의 특수한 중간 하드웨어, 커스텀 처리 어플라이언스 또는 프레임 그래버에 접속할 수 있습니다.MV 구현에서는 프레임 그래버 없이 FireWire, USB [20][21]또는 기가비트 이더넷 인터페이스를 통해 컴퓨터에 직접 연결할 수 있는 디지털 카메라도 사용합니다.

기존의 (2D 가시광선) 이미징이 MV에서 가장 일반적으로 사용되는 반면, 대안으로는 멀티 스펙트럼 이미징, 하이퍼 스펙트럼 이미징, 다양한 적외선 [22]밴드 이미징, 라인 스캔 이미징, 표면의 3D 이미징 및 X선 [6]이미징이 있습니다.MV 2D 가시광선 이미징의 주요 차이점은 단색 대 색상, 프레임 레이트, 해상도, 화상 전체에 걸친 동시 촬영 여부 등 이동 공정에 [23]적합하다.

대부분의 기계 비전 애플리케이션은 2차원 이미징을 사용하여 해결되지만,[24][25] 3D 이미징을 활용하는 기계 비전 애플리케이션은 업계에서 점점 더 틈새로 성장하고 있습니다.3D 영상촬영에 가장 많이 사용되는 방법은 영상촬영 과정에서 제품이나 이미지의 움직임을 활용하는 스캔 기반의 삼각 측량입니다.레이저를 물체 표면에 투사한다.기계 비전에서는, 스캔 모션, 공작물 이동, 또는 카메라 및 레이저 이미징 시스템의 이동에 의해서 실현됩니다.이 선은 다른 각도에서 카메라에 의해 표시되며, 선의 편차는 형상 변화를 나타냅니다.여러 스캔의 선은 깊이 지도 또는 점 [26]구름으로 조합됩니다.입체시력은 한 쌍의 [26]카메라의 두 뷰에 모두 존재하는 고유한 기능을 포함하는 특수한 경우에 사용됩니다.기계 비전에 사용되는 다른 3D 방법은 비행 시간과 그리드 [26][24]기반입니다.[27][28]가지 방법은 2012년경 Microsoft Kinect 시스템에서 채용된 의사 난수 구조 라이트 시스템을 사용하는 그리드 어레이 기반 시스템입니다.

이미지 처리

이미지가 획득되면 [19]처리됩니다.중앙 처리 기능은 일반적으로 CPU, GPU, FPGA 또는 이들의 [16]조합에 의해 수행됩니다.딥 러닝 트레이닝과 추론은 처리 퍼포먼스의 요건을 [29]높입니다.일반적으로 여러 처리 단계가 바람직한 결과로 끝나는 시퀀스로 사용됩니다.일반적인 시퀀스는 이미지를 수정하는 필터와 같은 도구에서 시작하여 객체를 추출한 다음 해당 객체에서 데이터를 추출(예: 측정, 코드 읽기)한 후 해당 데이터를 전달하거나 목표 값과 비교하여 "통과/실패" 결과를 생성하고 전달할 수 있습니다.기계 비전 영상 처리 방법에는 다음이 포함됩니다.

  • 연결/등록:인접한 2D 또는 3D [citation needed]영상 결합.
  • 필터링(예: 형태학적 필터링)[30]
  • 임계값 설정:임계값은 다음 단계에 도움이 되는 회색 값을 설정 또는 결정하는 것으로 시작합니다.그런 다음 이 값을 사용하여 이미지의 일부를 분리하거나 그레이스케일 [31]값보다 낮거나 큰지 여부에 따라 이미지의 각 부분을 단순히 흑백으로 변환할 수도 있습니다.
  • 픽셀 수: 명암 픽셀[citation needed]
  • 세그멘테이션: 디지털 이미지여러 세그먼트로 분할하여 이미지 표현을 심플화하거나 [32][33]분석하기 쉬운 것으로 변경합니다.
  • 에지 감지: 객체 에지 찾기
  • 색상 분석:색상을 사용하여 부품, 제품 및 품목을 식별하고 색상에서 품질을 평가하며 [6]색상을 사용하여 기능을 분리합니다.
  • 블럽 검출추출: 이미지 [35]랜드마크로서 연결된 픽셀(회색 물체의 블랙홀 등)의 개별 블럽이 없는지 이미지를 검사합니다.
  • 뉴럴넷/딥러닝/머신러닝 처리: 가중 및 자가훈련 다변수 의사 결정 Circa 2019는 딥러닝과 머신러닝을 사용하여 머신비전 능력을 대폭 확대하는 등 크게 확대되고 있습니다.이러한 처리의 가장 일반적인 결과는 분류입니다.분류의 예로는 식별된 객체의 "pass fail" 분류와 [36]OCR이 있습니다.
  • 템플릿 매칭을 포함한 패턴 인식.특정 패턴의 검색, 일치 및/또는 카운트.여기에는 회전할 수 있는 객체의 위치, 다른 객체에 의해 부분적으로 숨겨지거나 [37]크기가 변화하는 객체의 위치가 포함될 수 있습니다.
  • 바코드, 데이터 매트릭스 및 "2D 바코드" 판독치
  • 광학 문자 인식: 시리얼 번호 등의 텍스트 자동 읽기
  • 측정/측정: 물체 치수 측정(픽셀, 인치, 밀리미터 )
  • 목표값과 비교하여 "합격 또는 실패" 또는 "합격/불합격" 결과를 결정합니다.예를 들어 코드 또는 바코드 검증을 통해 판독값을 기억된 목표값과 비교한다.게이징의 경우 측정을 적절한 값 및 공차와 비교합니다.영숫자 코드 검증을 위해 OCR'd 값을 적정값 또는 목표값과 비교한다.흠집 검사는 흠집 크기를 품질기준에서 [38]허용하는 최대값과 비교할 수 있다.

출력

자동 검사 시스템의 일반적인 출력은 합격/[13]불합격 판정입니다.이러한 결정은 실패한 항목을 거부하거나 경보를 울리는 메커니즘을 트리거할 수 있습니다.기타 일반적인 출력에는 로봇 안내 [6]시스템의 객체 위치 및 방향 정보가 포함됩니다.또, 출력 타입은, 수치 측정 데이터, 코드나 문자로부터 읽어낸 데이터, 오브젝트의 카운트나 분류, 프로세스 또는 결과의 표시, 기억 화상, 자동 공간 감시 MV 시스템으로부터의 알람, 프로세스 제어 [9][12]신호를 포함한다.여기에는 사용자 인터페이스, 다중 컴포넌트 시스템 통합을 위한 인터페이스 및 자동화된 데이터 [41]교환도 포함됩니다.

딥 러닝

"딥 러닝"이라는 용어는 다양한 의미를 가지며, 그 대부분은 기계 비전에 20년 이상 사용된 기술에 적용될 수 있습니다.그러나 기계 비전에서 용어의 사용은 산업 기계 비전 공간의 [42]전체 이미지에 이러한 기술을 성공적으로 적용할 수 있는 기능이 등장하면서 2010년대 후반부터 시작되었다.기존의 기계 비전은 일반적으로 기계 비전의 자동 검사 솔루션의 "물리" 단계를 통해 신뢰할 수 있는 간단한 결점 분리를 생성해야 합니다."단순한" 차별화의 한 예는 결점이 어둡고 제품의 좋은 부분이 밝다는 것입니다.일부 어플리케이션을 실행할 수 없었던 일반적인 이유는 '간단함'을 실현할 수 없었던 경우입니다.심플한 학습은 기본적으로 인간처럼 오브젝트를 '보이는' 이 요건을 없애기 때문에 이제 이러한 [42]자동 어플리케이션을 실행할 수 있게 되었습니다.시스템은 교육 단계 중에 많은 양의 영상으로부터 학습한 다음 런타임 사용 중에 검사를 실행합니다. 이를 "추론"[42]이라고 합니다.

이미지 기반 로봇 안내

기계 비전은 일반적으로 로봇이 제품을 올바르게 잡을 수 있도록 위치 및 방향 정보를 로봇에 제공합니다.이 기능은 1축 또는 2축 모션 [6]컨트롤러와 같이 로봇보다 단순한 모션 유도에도 사용됩니다.전체적인 프로세스에는 요건과 프로젝트의 세부사항을 계획한 후 솔루션을 작성하는 것이 포함됩니다.이 섹션에서는 솔루션 작동 중에 발생하는 기술 프로세스에 대해 설명합니다.대부분의 공정 단계는 자동 검사와 동일하지만 결과적으로 [6]위치 및 방향 정보를 제공하는 데 초점을 맞춥니다.

시장.

2006년까지만 해도 한 업계 컨설턴트는 MV가 북미에서 [43]15억 달러의 시장을 대표한다고 보고했습니다.그러나 한 MV 무역잡지의 편집장은 "기계 비전은 산업 그 자체가 아니라 자동차나 소비재 제조,[4] 농업, 국방 등 진정한 산업에 도움이 되는 서비스나 응용 프로그램을 제공하는 기술과 제품의 통합"이라고 주장했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Steger, Carsten; Markus Ulrich; Christian Wiedemann (2018). Machine Vision Algorithms and Applications (2nd ed.). Weinheim: Wiley-VCH. p. 1. ISBN 978-3-527-41365-2. Retrieved 2018-01-30.
  2. ^ Beyerer, Jürgen; Puente León, Fernando & Frese, Christian (2016). Machine Vision - Automated Visual Inspection: Theory, Practice and Applications. Berlin: Springer. doi:10.1007/978-3-662-47794-6. ISBN 978-3-662-47793-9. Retrieved 2016-10-11.
  3. ^ a b c Graves, Mark & Bruce G. Batchelor (2003). Machine Vision for the Inspection of Natural Products. Springer. p. 5. ISBN 978-1-85233-525-0. Retrieved 2010-11-02.
  4. ^ a b c Holton, W. Conard (October 2010). "By Any Other Name". Vision Systems Design. 15 (10). ISSN 1089-3709. Retrieved 2013-03-05.
  5. ^ Owen-Hill, Alex (July 21, 2016). "Robot Vision vs Computer Vision: What's the Difference?". Robotics Tomorrow.
  6. ^ a b c d e f g Turek, Fred D. (June 2011). "Machine Vision Fundamentals, How to Make Robots See". NASA Tech Briefs. 35 (6): 60–62. Retrieved 2011-11-29.
  7. ^ a b c Cognex (2016). "Introduction to Machine Vision" (PDF). Assembly Magazine. Retrieved 9 February 2017.
  8. ^ Lückenhaus, Maximilian (May 1, 2016). "Machine Vision in IIoT". Quality Magazine.
  9. ^ a b West, Perry 머신 비전 시스템 구축 로드맵 1-35페이지
  10. ^ Dechow, David (January 2009). "Integration: Making it Work". Vision & Sensors: 16–20. Archived from the original on 2020-03-14. Retrieved 2012-05-12.
  11. ^ Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 427. ISBN 978-3-527-40584-8. Retrieved 2010-11-05.
  12. ^ a b Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. ISBN 3-540-66410-6.[페이지 필요]
  13. ^ a b Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 429. ISBN 978-3-527-40584-8. Retrieved 2010-11-05.
  14. ^ Belbachir, Ahmed Nabil, ed. (2009). Smart Cameras. Springer. ISBN 978-1-4419-0952-7.[페이지 필요]
  15. ^ Dechow, David (February 2013). "Explore the Fundamentals of Machine Vision: Part 1". Vision Systems Design. 18 (2): 14–15. Retrieved 2013-03-05.
  16. ^ a b Dave Rice의 Embedded Vision Design과 Laurin Publishing Co.에서 발행하는 Amber Thousand Photonics Spectra 잡지의 Critical 고려사항.2019년 7월호 60-64페이지
  17. ^ Wilson, Andrew (May 31, 2011). "CoaXPress standard gets camera, frame grabber support". Vision Systems Design. Retrieved 2012-11-28.
  18. ^ Wilson, Dave (November 12, 2012). "Cameras certified as compliant with CoaXPress standard". Vision Systems Design. Retrieved 2013-03-05.
  19. ^ a b 를 클릭합니다Davies, E.R. (1996). Machine Vision - Theory Algorithms Practicalities (2nd ed.). Harcourt & Company. ISBN 978-0-12-206092-2.[page needed].
  20. ^ a b Dinev, Petko (March 2008). "Digital or Analog? Selecting the Right Camera for an Application Depends on What the Machine Vision System is Trying to Achieve". Vision & Sensors: 10–14. Archived from the original on 2020-03-14. Retrieved 2012-05-12.
  21. ^ Wilson, Andrew (December 2011). "Product Focus - Looking to the Future of Vision". Vision Systems Design. 16 (12). Retrieved 2013-03-05.
  22. ^ Wilson, Andrew (April 2011). "The Infrared Choice". Vision Systems Design. 16 (4): 20–23. Retrieved 2013-03-05.
  23. ^ West, Perry High Speed, Real-Time Machine Vision CyberOptics, 1-38페이지
  24. ^ a b Murray, Charles J (February 2012). "3D Machine Vison Comes into Focus". Design News. Archived from the original on 2012-06-05. Retrieved 2012-05-12.
  25. ^ Davies, E.R. (2012). Computer and Machine Vision: Theory, Algorithms, Practicalities (4th ed.). Academic Press. pp. 410–411. ISBN 9780123869081. Retrieved 2012-05-13.
  26. ^ a b c 3D 이미징: Fred Turek & Kim Jackson Quality Magazine, 2014년 3월호, Volume 53/Number 3 Pages 6-8
  27. ^ http://research.microsoft.com/en-us/people/fengwu/depth-icip-12.pdf 확장 가능한 깊이 감지를 위한 HYBRID STRUCTED LIGHT(하이브리드 구조 라이트) Yuei Zhang, Zhiwei Xiong, 중국 펑우 과학기술대학, Hefei, China Microsoft Research Asia
  28. ^ R. Morano, C.오즈투르크, R.Conn, S.두빈, S.Zietz, J.Nissano, "의사 난수 코드를 사용한 구조화 빛", 패턴 분석 및 머신 인텔리전스에 관한 IEEE 트랜잭션 20(3) (1998)322–327
  29. ^ Mike Fusell Vision Systems Design 매거진 2019년 9월호 8-9페이지에 의한 기계 비전의 심층 학습 추론을 위한 최적의 하드웨어 찾기
  30. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 39. ISBN 3-540-66410-6.
  31. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 96. ISBN 3-540-66410-6.
  32. ^ 린다 G 샤피로와 조지 C.Stockman (2001) :"컴퓨터 비전", 페이지 279-325, 뉴저지, 프렌티스 홀, ISBN 0-13-030796-3
  33. ^ 로렌 바구트.퍼지-공간 택슨 컷을 사용한 시각적 택소메트릭 접근법 이미지 분할은 컨텍스트적으로 관련된 영역을 생성합니다.지식 기반 시스템의 불확실성 정보 처리 및 관리CCIS Springer-Verlag.2014
  34. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 108. ISBN 3-540-66410-6.
  35. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 95. ISBN 3-540-66410-6.
  36. ^ a b Turek, Fred D. (March 2007). "Introduction to Neural Net Machine Vision". Vision Systems Design. 12 (3). Retrieved 2013-03-05.
  37. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 111. ISBN 3-540-66410-6.
  38. ^ a b Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 125. ISBN 3-540-66410-6.
  39. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 132. ISBN 3-540-66410-6.
  40. ^ Demant C.; Streicher-Abel B. & Waszkewitz P. (1999). Industrial Image Processing: Visual Quality Control in Manufacturing. Springer-Verlag. p. 191. ISBN 3-540-66410-6.
  41. ^ Hornberg, Alexander (2006). Handbook of Machine Vision. Wiley-VCH. p. 709. ISBN 978-3-527-40584-8. Retrieved 2010-11-05.
  42. ^ a b c 머신비전 품질 매거진 2022년 5월호, 제6권, 제5호 BNP Media II 발행
  43. ^ Hapgood, Fred (December 15, 2006 – January 1, 2007). "Factories of the Future". CIO. 20 (6): 46. ISSN 0894-9301. Retrieved 2010-10-28.