유형 사용자 인터페이스

Tangible user interface
Reactable, 유형 사용자 인터페이스의 전자 악기 예.
샌프란시스코 어린이창의박물관에 설치된 샌드스케이프 장치

유형 사용자 인터페이스(TUI)는 물리적 환경을 통해 디지털 정보와 상호작용하는 사용자 인터페이스다.초기 이름은 더 이상 사용되지 않는, 파악 가능한 사용자 인터페이스였다.TUI 개발의 목적은 디지털 정보에 물리적 형태를 부여함으로써 협업, 학습, 디자인에 힘을 실어줌으로써 물리적 물체와 물질을 파악하고 조작하는 인간의 능력을 이용하는 것이다.[1]

유형 사용자 인터페이스의 선구자 중 한 명은 MIT 미디어 랩에서 유형 미디어 그룹을 이끌고 있는 이시이 히로시 MIT 교수다.유형 비트로 불리는 유형 UI에 대한 그의 특별한 비전은 디지털 정보에 물리적 형태를 부여하여 비트를 직접 조작하고 인지할 수 있게 만드는 것이다.유형 비트는 물리적 개체와 가상 데이터 간의 원활한 결합을 추구한다.

특성.

  1. 물리적 표현은 기초적인 디지털 정보와 계산적으로 결합된다.
  2. 물리적 표현은 상호작용 제어를 위한 메커니즘을 구현한다.
  3. 물리적 표현은 능동적인 매개 디지털 표현과 지각적으로 결합된다.
  4. 디지털 시스템 상태의 주요 측면을 구현하는 탱커블의 물리적 상태

김미정, 메리 루 마허에 따르면 유형 사용자 인터페이스의 5가지 기본 정의 속성은 다음과 같다.[2]

  1. 입력과 출력을 모두 공간 절약
  2. 인터페이스 구성요소의 동시 액세스 및 조작
  3. 강력한 특정 장치
  4. 공간적으로 인지하는 계산 장치
  5. 장치의 공간 재조정성.

차이점:유형 및 그래픽 사용자 인터페이스

유형 사용자 인터페이스는 그래픽 사용자 인터페이스(GUI)로 구별되어야 한다.그래픽 사용자 인터페이스는 TUI가 디지털과 물리적 세계를 연결하는 디지털 세계에만 존재한다.예를 들어, 화면에는 디지털 정보가 표시되는데, 마우스로는 우리가 이 디지털 정보와 직접 상호작용할 수 있게 해준다.[3]또한 유형 사용자 인터페이스는 그래픽 사용자 인터페이스와 달리 물리적 세계의 입력을 나타내며 디지털 정보를 직접 파악할 수 있게 한다.[4]

유형 사용자 인터페이스는 가능한 응용 프로그램 영역의 범위가 낮기 때문에 일반적으로 하나의 특정 대상 그룹을 위해 구축된다.따라서, 인터페이스의 설계는 대상 그룹과 함께 개발되어야만 좋은 사용자 경험을 보장할 수 있다.[5]

TUI와 비교했을 때, 그래픽 사용자 인터페이스는 하나의 인터페이스에서 광범위한 사용법을 가지고 있다.그 때문에 그것은 가능한 많은 사용자 그룹을 대상으로 한다.[5]

유형 사용자 인터페이스의 한 가지 장점은 사용자와 인터페이스 자체 간에 물리적 상호작용이 발생하기 때문에 사용자 경험이다(예:SandScape: 모래로 자신만의 경관을 만드는 것).또 다른 장점은 사용자가 물리적 물체의 기능을 알고 인터페이스 사용법을 직관적으로 알고 있기 때문에 가용성이다.따라서 사용자는 기능을 배울 필요가 없다.그래서 유형 사용자 인터페이스는 종종 노인들이 기술에 더 쉽게 접근할 수 있도록 하기 위해 사용된다.[4]

인터페이스 유형/특성 유형 사용자 인터페이스 그래픽 사용자 인터페이스
가능한 적용 영역의 양 특정 응용 프로그램 영역 하나에 맞게 구축 다양한 종류의 애플리케이션 영역에 맞게 구축
시스템 구동 방식 마우스나 키보드와 같은 물리적 물체 화면의 픽셀과 같은 그래픽 비트를 기반으로 함
인지 비트와 물리적 출력 사이의 결합 미제공접속 간접연결
사용자 경험 추진 방식 사용자는 물리적 객체의 기능을 알고 인터페이스의 기능을 이미 알고 있음 사용자는 인터페이스의 기능을 탐색한다.
시스템 접근 시 사용자 동작 직감 인식

[5]

유형 UI의 간단한 예는 컴퓨터 마우스:마우스를 평평한 표면 위로 끌면 그에 따라 화면의 포인터가 움직인다.시스템이 보여주는 행동과 마우스의 움직임에는 매우 명확한 관계가 있다.그 밖의 예는 다음과 같다.

  • 더렐 비숍의 대리석 응답기(1992)[6]대리석자동응답기에 남겨진 하나의 메시지를 나타낸다.대리석을 접시에 떨어뜨리면 관련 메시지가 재생되거나 전화를 건 사람에게 다시 전화한다.
  • 토포보 시스템.토포보에 있는 블록들은 함께 잘릴 수 있는 레고 블록과 같지만, 모터로 만들어진 부품을 사용하여 스스로 움직일 수도 있다.사람은 이 블록들을 밀고 당기고 비틀 수 있으며, 블록들은 이러한 움직임을 외우고 재생할 수 있다.[7]
  • 사용자가 실제 유형의 펜으로 시스템 테이블 상판의 그림을 스케치할 수 있는 구현.사용자는 손 제스처를 사용하여 이미지를 복제하고 페인트 프로그램에서처럼 X축과 Y축으로 확장할 수 있다.이 시스템은 비디오 카메라를 제스처 인식 시스템과 통합할 것이다.
  • Jive. TUI의 구현은 이 제품을 나이든 사용자들이 더 쉽게 접근할 수 있도록 도와주었다.'친구' 패스는 제품과의 다양한 상호작용을 활성화하는 데도 사용될 수 있다.[8]
  • 투영 증강 모형
  • SandScape:TUI로 조경 설계.이 인터페이스는 사용자가 테이블 위의 모래로 경관을 형성할 수 있도록 한다.모래 모델은 표면에 투사된 지형을 나타낸다.실시간으로 모델은 모래의 변형을 투영한다.[4]

TUI를 위한 일반적인 미들웨어를 확립하기 위해 몇 가지 접근법이 만들어졌다.그들은 배치된 센서 기술의 측면에서 유연성은 물론 애플리케이션 도메인의 독립성을 목표로 한다.예를 들어, 시프터블은 작은 동작에 민감한 디스플레이가 인간과 컴퓨터 인터페이스를 형성하기 위해 함께 작용하는 애플리케이션 플랫폼을 제공한다.

협업 지원을 위해 TUI는 공간 분포, 비동기 활동, TUI 인프라의 동적 수정을 가장 두드러진 것으로 명명할 수 있어야 한다.이 접근방식은 이러한 요건을 충족시키기 위한 린다 튜플 공간 개념에 기초한 프레임워크를 제시한다.구현된 TUIpist 프레임워크는 분산 환경의 모든 유형의 애플리케이션과 액추에이터에 임의의 센서 기술을 배치한다.[9]

예술 상태

유형 사용자 인터페이스(TUI)에 대한 관심은 1990년대 이후 지속적으로 증가해왔으며, 매년 더 많은 유형 시스템이 나타나고 있다.2017년 백서는 터치 테이블 경험을 위한 TUI의 진화를 개략적으로 설명하고 실험과 개발에 대한 새로운 가능성을 제기한다.[10]

1999년 게리 잘레스키는 철자법과 문장 구성을 가르치기 위한 센서와 디스플레이를 포함하는 이동 가능한 아동용 블록 시스템에 특허를 얻었다.[11]

유형 엔진은 예상 용량성 터치 테이블의 객체 인식 인터페이스를 구축하는 데 사용되는 독점적인 저작 애플리케이션이다.유형 엔진 미디어 크리에이터는 코딩 경험이 없거나 적은 사용자들이 TUI 기반 경험을 빠르게 만들 수 있도록 한다.

이시 히로시가 이끄는 MIT 유형 미디어 그룹은 많은 테이블 상판 어플리케이션을 포함한 TUI를 지속적으로 개발하고 실험하고 있다.[12]

Urp[13] 시스템과 더욱 발전된 증강 도시 계획 워크벤치는[14] 테이블 표면에서 건물의 물리적 모델의 위치와 방향에 기반한 공기 흐름, 그림자, 반사 및 기타 데이터의 디지털 시뮬레이션을 가능하게 한다.

새로운 개발은 한 걸음 더 나아가 점토(점토[15])나 모래(모래스케이프[16])로 경관을 형성할 수 있게 함으로써 세 번째 차원을 통합한다.다시 한번 다른 시뮬레이션을 통해 섀도, 높이 지도, 경사 및 상호작용적으로 형성 가능한 지형의 다른 특성을 분석할 수 있다.

InfrActables는 상태 인식을 통합한 TUI를 사용하여 상호작용이 가능한 백 프로젝션 협업 테이블이다.TUI에 다른 버튼을 추가하면 TUI와 관련된 추가적인 기능을 할 수 있다. LC 매트릭스 뒤에 있는 적외선 센서를 사용하여 LC-디스플레이에[17] 새로운 기술을 통합할 수도 있다.

유형재해는[18] 사용자가 재해 대책을 분석하고, 협업 계획 세션에서 다양한 종류의 재해(화재, 홍수, 쓰나미)와 대피 시나리오를 시뮬레이션할 수 있도록 한다.물리적 물체는 대화형 지도에 배치하고 거기에 부착된 다이얼을 이용해 매개변수(즉, 척도)를 추가로 튜닝해 재난 위치를 파악할 수 있다.

TUI의 상업적 잠재력은 최근에 확인되었다.반복적으로 수여된 인터랙티브 유형의 테이블톱 악기 [19]리액티브(Reactiveable)는 현재 폼페우 파브라 대학의 스핀오프 회사인 리액티브(Reactive) 시스템즈가 개발하여 상업적으로 보급하고 있다.Reactable 사용자는 물리적으로 서로 다른 물체(오실레이터, 필터, 조절기...)를 배치하고 회전하고 터치 입력을 사용하여 파라메타를 발생시킴으로써 상호작용적으로 자신의 계측기를 설정할 수 있다.

마이크로소프트는 2009년부터 새로운 윈도우 기반 플랫폼인 마이크로소프트 서피스[20](현 마이크로소프트 픽셀센스)를 보급하고 있다.손가락의 멀티 터치 추적 외에도, 플랫폼은 발자국에 의한 물리적 물체의 인식을 지원한다.주로 상업적 공간에서의 사용을 위한 몇 가지 응용 프로그램이 제시되었다.스노보드나 스케이트보드를 위한 독자적인 그래픽 레이아웃 설계부터 테이블 위에 와인을 놓고 터치식 입력을 통해 메뉴를 탐색해 레스토랑에서 와인의 디테일을 연구하는 것까지 그 예가 다양하다.테이블 위에 한 번 올려놓으면 매끄럽게 연결되는 핸디캠이나 휴대폰에서 사진의 공동 탐색과 같은 상호 작용도 지원된다.

또 다른 주목할 만한 인터랙티브 설치는 게임, 음악, 건축, 협업적인 측면을 결합한 즉석 도시다[21].사용자가 3차원 구조물을 만들고 직사각형의 건물 블록으로 도시를 설정할 수 있게 해, 동시에 서로 다른 작곡가의 음악 단편들이 상호적으로 조립되는 결과를 낳는다.

리액터블의 개발 및 추적기술의 후속 출시TUIO 프로토콜의 공개 사양뿐만 아니라 GNU/GPL에 따른 TIVision은[22] 이 기술을 기반으로 한 엄청난 양의 개발을 촉발시켰다.

최근 몇 년 동안 학계와 상업 이외의 많은 아마추어 및 세미 프로페셔널 프로젝트가 시작되었다.오픈 소스 추적 기술(reacTivision)[22]과 최종 소비자가 이용할 수 있는 계속 증가하는 컴퓨팅 파워로 인해, 이제 거의 모든 사람들이 필요한 인프라를 이용할 수 있게 되었다.표준 PC, 웹캠, 그리고 일부 수공예 작품들은 개인들이 최소한의 프로그래밍과 재료 노력으로 유형 시스템을 설정할 수 있게 해준다.이것은 인간과 컴퓨터의 상호작용을 지각하는 새로운 방법들에 대한 문을 열고 대중들이 실험할 수 있는 새로운 형태의 창조성을 허용한다.[citation needed]

이러한 모든 시스템과 도구의 수가 급격히 증가하는 것을 추적하고 간과하기는 어렵지만, 이들 중 많은 수가 이용 가능한 기술만을 활용하는 것처럼 보이고 일부 기초적인 아이디어로 초기 실험과 시험이나 기존 시스템만 재생산하는 것에 한정되어 있는 반면, 이들 중 몇몇은 새로운 인터페이스와 상호작용에 개방되어 있고, 또 다른 몇몇은 새로운 인터페이스와 상호작용에 개방되어 있다.공공 공간에 배치되거나 예술 시설에 내장되어 있다.[23]

유형적 공장계획은[24] 리액션을 기반으로 한 유형적 표다.새로운 공장 건물의 계획과 조합하여 생산 공정을 공동으로 계획하고 시각화할 수 있는 TIVision은[22] 졸업장 논문 내에서 개발되었다.

많은 리AC의 또 다른 예티비시온 기반 태블릿톱은 임펄스바우하우스-인터랙티브 테이블로[25] 바우하우스 설립 90주년을 맞아 바이마르 바우하우스-대학에서 전시됐다.방문객들은 그 운동의 회원들 사이의 전기, 복잡한 관계, 소셜 네트워크를 탐색하고 탐색할 수 있었다.

내재된 인식, 인지 부하 이론, 구현된 설계 TUI에서 도출된 원리를 활용하면 멀티모달 피드백을 제공함으로써 학습 성과를 높이는 것으로 나타났다.[26]그러나 학습에 대한 이러한 이점은 학습에 가능한 많은 인지 능력을 남기는 상호작용 설계의 형태를 필요로 한다.

물리적 아이콘

물리적 아이콘 또는 피콘은 기존의 그래픽 사용자 인터페이스 또는 GUI에서 아이콘과 동등한 유형 컴퓨팅이다.피콘은 어떤 디지털 사물에 대한 참조를 가지고 있어서 의미를 전달한다.[27][28][29]

역사

물리적 아이콘은 1997년 MIT의 이시이 히로시 교수의 유형 비트 연구 그룹에 의해 구축된 메타데스크 프로젝트에서 유형 인터페이스로 처음 사용되었다.[30][31]메타데스크는 뒷면이 투사된 비디오 이미지를 보여주는 테이블로 구성됐다.표에 피콘을 놓으면 비디오 투영을 변경하는 센서가 트리거된다.[32]

참고 항목

참조

  1. ^ Ishii, Hiroshi (2008). "Tangible bits". Proceedings of the 2nd international conference on Tangible and embedded interaction - TEI '08. pp. xv. doi:10.1145/1347390.1347392. ISBN 978-1-60558-004-3. S2CID 18166868.
  2. ^ Kim, Mi Jeong; Maher, Mary Lou (30 May 2008). "The Impact of Tangible User Interfaces on Designers' Spatial Cognition". Human–Computer Interaction. 23 (2): 101–137. doi:10.1080/07370020802016415. S2CID 1268154.
  3. ^ http://tmg-trackr.media.mit.edu:8020/SuperContainer/RawData/Papers/485-Radical%20Atoms%20Beyond%20Tangible/Published/PDF Wayback Machine[full citation needed] 2012년 9월 19일 보관
  4. ^ a b c Ishii, Hiroshi (2007). "Tangible User Interfaces". The Human-Computer Interaction Handbook. pp. 495–514. doi:10.1201/9781410615862-35. ISBN 978-0-429-16397-5.
  5. ^ a b c Campbell, John; Carandang, Xharmagne (29 July 2012). "Comparing Graphical and Tangible User Interfaces for a Tower Defense Game". AMCIS 2012 Proceedings. CiteSeerX 10.1.1.924.6112.
  6. ^ "Internet-of-Things answering machine from 1992, with marbles / Boing Boing". boingboing.net. 21 March 2013.
  7. ^ "Topobo construction kit with kinetic memory". www.topobo.com.
  8. ^ "jive - social networking for your gran". jive.benarent.co.uk.
  9. ^ http://www.cs.rit.edu/~pns6910/docs/Tuple%20Space/A%20Tuple-Space%20Based%20%Collaborative%20User%20Interfaces.pdf[데드링크][전체 인용 필요]
  10. ^ "The Evolution of Tangible User Interfaces on Touch Tables Ideum". Ideum - exhibit design touch tables interactive exhibits. Retrieved 31 October 2017.
  11. ^ "Wireless I/O apparatus and method of computer-assisted instruction".
  12. ^ "Tangible Media". www.media.mit.edu. MIT Media Lab. Retrieved 10 December 2014.
  13. ^ Underkoffler, John; Ishii, Hiroshi (1999). "Urp". Proceedings of the SIGCHI conference on Human factors in computing systems the CHI is the limit - CHI '99. pp. 386–393. doi:10.1145/302979.303114. ISBN 978-0-201-48559-2. S2CID 52817952.
  14. ^ Ishii, H.; Underkoffler, J.; Chak, D.; Piper, B.; Ben-Joseph, E.; Yeung, L.; Kanji, Z. (2002). "Augmented urban planning workbench: Overlaying drawings, physical models and digital simulation". Proceedings. International Symposium on Mixed and Augmented Reality. pp. 203–211. CiteSeerX 10.1.1.19.4960. doi:10.1109/ISMAR.2002.1115090. ISBN 978-0-7695-1781-0. S2CID 2303022.
  15. ^ Piper, Ben; Ratti, Carlo; Ishii, Hiroshi (2002). "Illuminating clay". Proceedings of the SIGCHI conference on Human factors in computing systems Changing our world, changing ourselves - CHI '02. p. 355. doi:10.1145/503376.503439. ISBN 978-1-58113-453-7. S2CID 7146503.
  16. ^ Ishii, Hiroshi (June 2008). "The tangible user interface and its evolution". Communications of the ACM. 51 (6): 32–36. doi:10.1145/1349026.1349034. S2CID 29416502.
  17. ^ Hofer, Ramon; Kaplan, Patrick; Kunz, Andreas (2008). "Mighty Trace". Proceeding of the twenty-sixth annual CHI conference on Human factors in computing systems - CHI '08. p. 215. doi:10.1145/1357054.1357091. ISBN 978-1-60558-011-1. S2CID 12977345.
  18. ^ Alexa, Marc (5 August 2007). Tangible user interface for supporting disaster education. Siggraph '07. pp. 144–es. doi:10.1145/1280720.1280877 (inactive 28 February 2022). ISBN 9781450318280.{{cite book}}: CS1 maint : 2022년 2월 현재 DOI 비활성화(링크)
  19. ^ Jordà, Sergi; Geiger, Günter; Alonso, Marcos; Kaltenbrunner, Martin (2007). "The reac Table". Proceedings of the 1st international conference on Tangible and embedded interaction - TEI '07. p. 139. CiteSeerX 10.1.1.81.1645. doi:10.1145/1226969.1226998. ISBN 978-1-59593-619-6. S2CID 17384158.
  20. ^ Wall, Josh (2009). "Demo I Microsoft Surface and the Single View Platform". 2009 International Symposium on Collaborative Technologies and Systems. pp. xxxi–xxxii. doi:10.1109/CTS.2009.5067436. ISBN 978-1-4244-4584-4.
  21. ^ Hauert, Sibylle; Reichmuth, Daniel; Böhm, Volker (2007). "Instant city". Proceedings of the 7th international conference on New interfaces for musical expression - NIME '07. p. 422. doi:10.1145/1279740.1279846. S2CID 22458111.
  22. ^ a b c Kaltenbrunner, Martin; Bencina, Ross (2007). "ReacTIVision". Proceedings of the 1st international conference on Tangible and embedded interaction - TEI '07. p. 69. doi:10.1145/1226969.1226983. ISBN 978-1-59593-619-6. S2CID 459304.
  23. ^ "Sourceforge TUIO User Exhibition".
  24. ^ Daniel Guse, http://www.danielguse.de/tangibletable.php의 유형적 공장 계획, 졸업장 논문
  25. ^ "Interactive Table with reacTIVision : ImpulsBauhaus".
  26. ^ Skulmowski, Alexander; Pradel, Simon; Kühnert, Tom; Brunnett, Guido; Rey, Günter Daniel (January 2016). "Embodied learning using a tangible user interface: The effects of haptic perception and selective pointing on a spatial learning task". Computers & Education. 92–93: 64–75. doi:10.1016/j.compedu.2015.10.011.
  27. ^ 피달고, F, 실바, P, 레알리뉴, V.: "유비쿼터스 컴퓨팅과 조직" 201페이지.기술지원 교육현황, 2006
  28. ^ Michitaka Hirose (2001). Human-computer Interaction: INTERACT '01 : IFIP TC.13 International Conference on Human-Computer Interaction, 9th-13th July 2001, Tokyo, Japan. IOS Press. pp. 337–. ISBN 978-1-58603-188-6.
  29. ^ Hamid Aghajan; Juan Carlos Augusto; Ramon Lopez-Cozar Delgado (25 September 2009). Human-Centric Interfaces for Ambient Intelligence. Academic Press. pp. 15–. ISBN 978-0-08-087850-8.
  30. ^ Howard Rheingold (21 March 2007). Smart Mobs: The Next Social Revolution. Basic Books. pp. 104–. ISBN 978-0-465-00439-3.
  31. ^ Paul Dourish (2004). Where the Action is: The Foundations of Embodied Interaction. MIT Press. pp. 45–. ISBN 978-0-262-54178-7.
  32. ^ Mary Beth Rosson; John Millar Carroll (2002). Usability Engineering: Scenario-based Development of Human-computer Interaction. Morgan Kaufmann. pp. 316–. ISBN 978-1-55860-712-5.

외부 링크