하이퍼비디오
Hypervideo이 글은 광고처럼 쓰인 내용을 담고 있다. (2010년 8월)(이과 시기 |
하이퍼비디오(Hypervideo, 또는 하이퍼링크된 비디오)는 비디오와 다른 하이퍼미디어 요소들 사이를 탐색할 [1]수 있도록 내장된 대화형 앵커들을 포함하는 전시된 비디오 스트림이다. 따라서 하이퍼비디오는 하이퍼텍스트와 유사하다. 하이퍼텍스트는 독자가 한 문서에서 단어를 클릭하고 다른 문서 또는 같은 문서의 다른 위치에서 정보를 검색할 수 있다. 하이퍼비디오는 비디오와 비선형 정보 구조를 결합해 사용자가 동영상의 내용과 사용자의 관심사에 따라 선택할 수 있도록 했다.
하이퍼비디오와 하이퍼텍스트의 결정적인 차이는 시간의 요소다. 텍스트는 일반적으로 정적인 반면 비디오는 반드시 동적인 반면, 비디오의 내용은 시간에 따라 변한다. 결과적으로, 하이퍼비디오는 정적 하이퍼텍스트 페이지와는 다른 기술적, 미학적, 수사학적 요건이 있다. 예를 들어, 하이퍼비디오는 특정 기간 동안만 볼 수 있는 비디오의 개체로부터 링크를 생성하는 것을 포함할 수 있다. 따라서 비디오를 적절하게 세분화하고 프레임 또는 심지어 객체로부터 링크하는 데 필요한 메타데이터를 비디오의 다른 미디어 양식의 관련 정보에 추가하는 것이 필요하다.
역사
키노우토마트(1967)는 세계 최초의 인터랙티브 영화였다. 현대 하이퍼비디오 시스템은 이 영화의 핵심 개념들 중 일부를 구현한다. 예를 들어 비선형 서술과 상호작용.
비디오-비디오 연결은 MIT 미디어 랩의 인터랙티브 시네마 그룹에 의해 시연되었다. Elastic Charles는[2] 1988년과 1989년 사이에 개발된 하이퍼미디어 저널로, "미콘"이라고 불리는 주석을 비디오 안에 넣어 다른 콘텐츠와의 연결을 표시했다. 인터랙티브 콘-티키 박물관을 구현할 때,[3] Listol은 비디오 각주를 나타내기 위해 마이크로폰을 사용했다. 비디오 각주는 비디오 주석 달기에 적용된 문학 각주를 의도적으로 확장한 것으로서, 전통적인 텍스트와 초기 하이퍼 비디오 사이의 연속성을 제공한다.[4] 1993년, 히라타 외에서는 미디어의 검색 대상과 동일한 유형의 미디어가 쿼리로 사용되는 하이퍼미디어 시스템의 미디어 기반 내비게이션을 고려했다.[5] 예를 들어, 이미지의 일부(예: 모양 또는 색상으로 정의됨)는 관련 이미지에 연결될 수 있다. 이 접근방식에서, 비디오의 콘텐츠는 다른 관련 콘텐츠와의 연결을 형성하는 기초가 된다.
HotVideo는 1996년 IBM의 China Research Laboratory에서 개발된 이와 같은 종류의 하이퍼 비디오의 구현이었다.[6] 비디오에서 동적 객체를 클릭하여 관련 리소스에 대한 탐색을 수행했다. 1997년 MIT 미디어랩의 오브젝트 기반 미디어 그룹인 하이퍼소프(HyperSoap) 프로젝트가 이 개념을 더욱 발전시켰다. 동영상 속 사물에 대한 리모컨을 강화한 채 클릭해 사물을 구매할 수 있는 정보를 찾는 짧은 연속극 프로그램이었다. 워치포인트 미디어는 관련된 기술을 상품화하기 위해 결성되었고, 그 결과 스토리텔러라는 제품이 인터랙티브 텔레비전을 지향하게 되었다.
하이퍼텍스트에서 하이퍼비디오로의 진행을 설명하면서,[7] 하이퍼텍스트 쓰기 환경인 스토리 스페이스는 링크를 표시하는 공간적 은유를 사용한다. 콘텐츠에 대한 일반 컨테이너인 '쓰기 공간'을 활용해 다른 쓰기 공간으로 연결한다. 1996년에 하이퍼비디오의 인기 있는 실험 프로토타입인 [8]HyperCafe는 "해외 비디오 공간"을 만들기 위해 이 도구를 사용했다. 하이퍼비디오 시스템의 초기 모델로 개발돼 사용자가 동영상과 역동적으로 상호작용하는 가상 카페에 사용자를 배치해 서로 다른 대화를 따라간다.
1997년 이스라엘의 소프트웨어 회사인 Ephix Technologies는 최초의 하이퍼비디오용 상업용 객체 기반 저작 시스템 중 하나인 [9]v-active라는 제품을 출시했다. 그러나 이 기술은 성공적이지 못했다. Ephyx는 1999년에 Veon으로 이름을 바꾸었고, 그 때 그것은 하이퍼비디오에서 웹과 광대역 컨텐츠를 위한 개발 도구의 제공으로 초점을 옮겼다.[10]
1999년에 설립된 Eline Technologies는 VideoClix라는 하이퍼비디오 솔루션을 개발했다. 오늘날 VideoClix는 웹과 모바일 기기에서 클릭 가능한 비디오를 배포하고 수익을 창출하는 중고 SaaS(Software as a Service) 솔루션이다.[citation needed] 퀵타임, 플래시 등 인기 동영상 플레이어는 물론 브라이트코브, 더플랫폼, 오오얄라 등 다중 온라인 동영상 플랫폼에서도 재생할 수 있다는 장점이 있다. VideoClix는 Quicktime, Flash, MPEG-4, HTML5를 기반으로 모든 타사 플레이어에 통합할 수 있는 기술도 제공한다.
하이퍼비디오의 출현
1980년대 후반에 하이퍼비디오의 첫 단계가 이루어졌기 때문에, 하이퍼비디오가 그것의 잠재력을 깨닫는데 예상외로 오래 걸리는 것처럼 보일 것이다. 많은 실험(HyperCafe, HyperSoap)이 광범위하게 추적되지 않았으며, 저작 도구는 현재 소수의 제공자만 사용할 수 있다.
동영상 콘텐츠의 양이 늘어나고 이용이 가능해짐에 따라 동영상 연계 가능성은 더욱 빨라진다. 디지털 도서관은 끊임없이 성장하고 있으며, 그 중 비디오는 중요한 부분이다. 뉴스 매체들은 교육과 역사 연구에 유용할 수 있는 방대한 비디오 자료들을 축적해 왔다.[1] 텍스트 색인화 및 검색보다 훨씬 어려운 작업인 사진이나 비디오의 직접 검색은 하이퍼비디오 방식으로 크게 촉진될 수 있다.
개념 및 기술적 당면 과제
하이퍼비디오는 노드 세분화에서 나타나는 독특한 어려움, 즉 알고리즘적으로 식별 가능하고 연결 가능한 콘텐츠로 비디오를 분리하기 때문에 하이퍼링크된 텍스트와 비교했을 때 도전적이다.
가장 기본적인 비디오는 단순히 2차원적인 색 정보 배열로 되어 있는 영상의 시간 순서다. 동영상을 의미 있는 조각(영상의 객체 또는 동영상 내의 장면)으로 나누기 위해서는 이 영상 시퀀스에서 의미 있는 요소를 추출하기 위해 공간과 시간 모두에서 컨텍스트를 제공할 필요가 있다. 인간은 당연히 이 일을 수행할 수 있지만 알고리즘적으로 하는 것이 바람직하다. 그러나 이를 달성하기 위한 방법을 개발하는 것은 복잡한 문제다. 초당 30프레임의 NTSC 프레임률에서는 30초의 짧은 비디오라도 900프레임으로 구성된다.[11] 만약 모든 프레임에 인간의 개입이 요구된다면 뚜렷한 비디오 요소의 식별은 지루할 것이다. 적당한 양의 비디오 자료의 경우 수동 분할은 분명히 비현실적이다.
시간의 관점에서 볼 때, 비디오의 가장 작은 단위는 하나의 프레임이다.[4] 노드 분할은 프레임 수준에서 수행될 수 있다. 프레임과 같은 간단한 작업은 쉽게 식별할 수 있다. 그러나 비디오는 반드시 동적인 것이기 때문에 하나의 프레임은 비디오 정보를 포함할 수 없다. 이와 유사하게, 텍스트에서 분리된 단 하나의 단어는 의미를 전달하지 않는다. 따라서 다음 단계의 시간적 조직인 현장을 고려할 필요가 있다. 씬(scene)은 의미를 전달하는 프레임의 최소 순차 집합으로 정의할 수 있다. 이것은 하이퍼비디오에 있어서 중요한 개념으로, 하이퍼비디오 링크가 다음 장면에서는 아니지만 한 장면에서 활성화되기를 바랄 수 있다. 그러므로 장면의 세분성은 하이퍼 비디오의 제작에서 자연스러운 것이다. 따라서 하이퍼비디오에는 씬(scene) 전환을 탐지할 수 있는 알고리즘이 필요하다. 사람들은 시간적 구성의 더 높은 수준을 상상할 수 있다: 장면들은 함께 그룹화되어 서술적 순서를 형성할 수 있고, 차례로 그룹화되어 비디오를 형성할 수 있다. 그러나 노드 분할의 관점에서 볼 때 이러한 개념은 그리 중요한 것이 아니다.
프레임이 가장 작은 시간 단위라고 해도 여전히 영상을 서브프레임 수준에서 공간적으로 분할하여 프레임 영상을 구성 객체로 분리할 수 있다. 이는 개체 수준에서 노드 분할을 수행할 때 필요하다. 시간은 또한 이 경우에 복잡성을 도입하는데, 어떤 물체가 하나의 프레임에서 구별된 후에도 대개 일련의 프레임을 통해 동일한 물체를 따라가야 하기 때문이다. 개체 추적이라고 알려진 이 과정은 동영상의 개체로부터 링크를 만드는 데 필수적이다. 예를 들어, 물체의 공간 분할은 가장자리 탐지를 위한 강도 그라데이션, 지역에 맞는 색상 히스토그램,[1][12] 움직임 감지 또는 이러한 방법과 다른 방법의 조합을 통해 달성될 수 있다.
필요한 노드를 세분화하고 관련 링크 정보와 결합한 후, 이 메타데이터를 재생하기 위해 원본 비디오와 통합해야 한다. 메타데이터는 개념적으로 영상 위에 레이어, 즉 트랙으로 배치된다. 그리고 나서 이 레이어드 구조물은 사용자에게 보여서 보고 상호작용을 한다. 따라서 하이퍼비디오 콘텐츠를 만들 때 디스플레이 기술인 하이퍼비디오 플레이어를 소홀히 해서는 안 된다. 예를 들어, 추적된 물체와 관련된 영역의 기하학적 구조를 특정 키프레임에만 저장하고, 플레이어가 HotVideo용으로 개발된 것처럼 이들 키프레임 사이에 보간할 수 있도록 허용함으로써 효율성을 얻을 수 있다.[13] 게다가, 비디오클릭스의 제작자들은 그것의 콘텐츠가 퀵타임과 플래시 같은 표준 플레이어들에게 되돌아간다는 사실을 강조한다. 성숙기 시장에서 인터넷 지원 데스크톱의 98% 이상에 플래시 플레이어만 설치된다고 생각하면,[14] 이것이 아마도 현 시장에서 이 제품이 성공한 이유일 것이다.
해설
비디오 콘텐츠에 대한 사용자 응답은, 전통적으로 비디오의 재생 순서에 내장되지 않는 텍스트 또는 이미지 링크의 형태로, Viddler와 같은 비디오 호스팅 서비스를 통해 비디오의 이미지와 재생의 일부에 모두 포함되도록 허용되었다.ider 요소); 이 기능은 "비디오 주석" 또는 "가상 주석"으로 알려져 있다.
상업적 착취
아마도 하이퍼비디오의 가장 중요한 결과는 상업 광고에서 나올 것이다. 비디오를 수익화하기 위해 비즈니스 모델을 고안하는 것은 악명높게도 어려운 것으로 입증되었다. 비디오에 광고를 도입하는 등의 전통적인 광고 방법의 적용은 온라인 커뮤니티에 의해 거부될 가능성이 높은 반면, 비디오 공유 사이트에서 광고를 판매함으로써 얻는 수익은 지금까지 유망하지 않았다.[15]
하이퍼비디오는 다른 방법으로 비디오를 수익화할 수 있는 방법을 제공함으로써 광고나 전자상거래 사이트에 오브젝트가 연결되는 비디오 클립을 만들거나 특정 제품에 대한 더 많은 정보를 제공할 수 있다. 이 새로운 광고 모델은 덜 거슬리고, 사용자가 비디오에서 사물을 클릭함으로써 선택을 할 때에만 광고 정보를 표시한다. 그리고 제품 정보를 요청한 사람이기 때문에 이러한 유형의 광고는 더 잘 타겟팅되고 더 효과적일 가능성이 있다.
참고 항목
참조
- ^ Jump up to: a b c Smith, Jason 및 Stotts, David, 실시간 및 저장된 비디오 스트림에서의 하이퍼링크를 위한 확장 가능한 객체 추적 아키텍처, 컴퓨터 과학 학부, North Caroline 및 Chapel Hill의 Univ.
- ^ Brøndmo H; Davenport G (1989). "Elastic Charles: A Hyper-Media Journal". MIT Interactive Cinema group. Retrieved 2007-03-12.CS1 maint: 여러 이름: 작성자 목록(링크)
- ^ 리에스톤, 건너. 하이퍼미디어의 비디오 연결에 관한 미학적 측면과 수사학적 측면
- ^ Jump up to: a b Luis Francisco-Revilla (1998). "A Picture of Hypervideo Today". CPSC 610 Hypertext and Hypermedia. Center for the Study of Digital Libraries: Texas A&M University. Retrieved 2007-03-12.
- ^ 히라타, K, 하라, Y, 시바타, N, 히라바야시, F, 1993, 하이퍼텍스트 '93 Procedures에서 하이퍼미디어 시스템을 위한 미디어 기반 내비게이션.
- ^ "New Initiatives - HotVideo: The Cool Way to Link". Research News. IBM. Retrieved 2008-09-30.
- ^ 스토리 스페이스
- ^ HyperCafe: 하이퍼비디오, Nitin Nick Sawney, David Balcom, Ian Smith, UK Conference on Hypertext.
- ^ Tania Hershman (July 1997). "Internet Innovations from Israel". BYTE. Archived from the original on 2008-12-27. Retrieved 2008-10-01.
- ^ "Ephyx Changes Name To Veon". Computergram International. 1998-04-29. Retrieved 2008-10-01.
- ^ NTSC Basics Wayback Machine에 2007-02-05 보관
- ^ Khan, Sohaib and Shah, 무바라크, 컬러, 동작 및 공간 정보를 사용한 비디오의 객체 기반 세분화, 컴퓨터 비전 연구소, 중부 플로리다 대학교
- ^ 미국 특허 6912726
- ^ Adobe - 2011년 9월 25일 웨이백 시스템에 보관된 Flash Player 통계
- ^ 이코노미스트, 2006년 8월 31일 유튜브와의 트러블