고도의 비디오 코딩

Advanced Video Coding
어드밴스드 비디오 코딩 / H.264 / MPEG-4 Part 10
범용 시청각 서비스를 위한 고급 비디오 코딩
H.264, MPEG-4 AVC logo.svg
상황실시중
시작한 해2003
초판2004년 8월 17일 (2004-08-17)
최신 버전14.0
2021년 8월 22일 (2021-08-22)
조직ITU-T, ISO, IEC
위원회.SG16(VCEG), MPEG
기본 규격H.261, H.262(MPEG-2 비디오라고도 함), H.263, MPEG-1
관련 기준H.265(HEVC라고도 함), H.266(VVC라고도 함)
도메인비디오 압축
면허증.MPEG LA[1]
웹 사이트www.itu.int/rec/T-REC-H.264
지각 품질 점수를 가진 H.264 인코더의 비디오 부호화 층 블록 다이어그램

Advanced Video Coding (AVC; 어드밴스드 비디오 코딩)[2] (H.264 또는 MPEG-4 Part 10)은 블록 지향 모션 보상 코딩을 기반으로 하는 비디오 압축 표준입니다.2019년 [3][4]9월 현재 비디오 산업 개발자의 91%가 사용하는 비디오 컨텐츠의 녹화, 압축 및 배포에 가장 일반적으로 사용되는 형식입니다.최대 8K [5][6]UHD 해상도를 지원합니다.

H.264/AVC 프로젝트의 목적은 설계 복잡성을 증가시키지 않고 기존 표준(즉 MPEG-2, H.263 또는 MPEG-4 Part 2의 절반 이하 비트레이트)보다 상당히 낮은 비트환율로 우수한 비디오 품질을 제공할 수 있는 표준을 만드는 것이었습니다.이는 복잡도 감소 정수 이산 코사인 변환(integer DCT),[6][7][8] 가변 블록 크기 분할, 멀티픽처 간 예측 등의 기능을 통해 실현되었습니다.또 다른 목표는 저비트레이트 및 고비트레이트, 저해상도 비디오, 브로드캐스트, DVD 스토리지, RTP/IP 패킷 네트워크, ITU-T 멀티미디어 텔레포니 시스템 등 다양한 네트워크 및 시스템의 다양한 애플리케이션에 표준이 적용될 수 있도록 하는 것이었습니다.H.264 표준은 다수의 다른 프로파일로 구성된 "표준 패밀리"로 볼 수 있지만, 그 "높은 프로파일"은 단연코 가장 일반적으로 사용되는 형식입니다.특정 디코더는 적어도1개의 프로파일을 디코딩하지만 반드시 모든 프로파일을 디코딩할 필요는 없습니다.이 규격은 부호화 데이터의 포맷과 데이터의 디코딩 방법을 기술하고 있지만, 비디오 인코딩에 관한 알고리즘은 규정되어 있지 않습니다.이것은 인코더 설계자가 스스로 선택할 수 있는 문제로서 개방되어 있으며, 다양한 부호화 방식이 개발되고 있습니다.H.264는 일반적으로 손실 압축에 사용되지만, 손실 코딩된 사진 내에 진정한 손실 코딩 영역을 만들거나 전체 인코딩이 손실되지 않는 드문 사용 사례를 지원할 수도 있습니다.

H.264는 ISO/IEC JTC1 동영상 전문가 그룹(MPEG)과 함께 스터디 그룹 16ITU-T 비디오 코딩 전문가 그룹(VCEG)에 의해 표준화되었습니다.프로젝트 파트너십의 대처는 JVT(Joint Video Team)라고 불립니다.ITU-T H.264 표준과 ISO/IEC MPEG-4 AVC 표준(공식적으로는 ISO/IEC 14496-10– MPEG-4 Part 10, Advanced Video Coding)은 동일한 기술 내용을 가지도록 공동으로 유지됩니다.표준의 첫 번째 버전에 대한 최종 기초 작업은 2003년 5월에 완료되었으며, 이후 판에서 다양한 기능 확장이 추가되었다.HEVC(High Efficiency Video Coding), a.k.a. H.265 및 MPEG-H Part 2는 동일한 조직에서 개발한 H.264/MPEG-4 AVC의 후속 제품으로 이전 표준이 여전히 일반적으로 사용되고 있습니다.

H.264는 Blu-ray 디스크에서 가장 일반적으로 사용되는 비디오 인코딩 포맷으로 가장 잘 알려져 있습니다.또한 Netflix, Hulu, Amazon Prime Video, Vimeo, YouTube 및 iTunes Store의 비디오 스트리밍, Adobe Flash PlayerMicrosoft Silverlight 등의 웹 소프트웨어, 지상파(ATSC, is DB-T)를 통한 다양한 HDTV 방송에도 널리 사용됩니다.시스템들.

H.264는 다양한 당사자가 소유한 특허에 의해 제한됩니다.H.264에 필수적인 대부분의 특허(전부는 아님)에 관한 라이선스는 MPEG [9]LA에 의해 관리되는 특허 풀에 의해 관리됩니다.

특허받은 H.264 기술을 상업적으로 사용하려면 MPEG LA 및 기타 특허 소유자에게 로열티를 지불해야 합니다.MPEG LA에서는 최종 사용자가 자유롭게 사용할 수 있는 인터넷비디오 스트리밍에 H.264 테크놀로지를 무료로 사용할 수 있게 되어 시스코 시스템즈는 오픈소스 H.264 인코더의 바이너리 사용자를 대신하여 MPEG LA에 로열티를 지불하고 있습니다.

명명

H.264 이름은 ITU-T 명명 규칙을 따릅니다.여기서 표준은 VCEG 비디오 코딩 표준의 H.26x 라인의 멤버입니다.MPEG-4 AVC 이름은 ISO/IEC MPEG에서의 명명 규칙과 관련지어집니다.여기서 표준은 ISO/IEC 14496 스위트라고 불립니다.이 표준은 VCEG 프로젝트인 H.26L로 ITU-T에서 초기 개발 작업을 거친 후 VCEG와 MPEG의 파트너십으로 공동 개발되었습니다.따라서 공통의 유산을 강조하기 위해 H.264/AVC, AVC/H.264, H.264/MPEG-4 AVC, MPEG-4/H.264 AVC 등의 이름으로 표준을 참조하는 것이 일반적입니다.JVT 코덱이라고도 불리며, JVT를 개발한 조인트 비디오 팀(JVT)의 조직을 가리킵니다(이러한 파트너십과 복수의 명칭 지정은 드물지 않습니다).예를 들어 MPEG-2로 알려진 비디오 압축 규격도 MPEG와 ITU-T의 파트너십에서 비롯되었습니다.MPEG-2 비디오는 ITU-T 커뮤니티에서 H.262로 알려져 있습니다.[10]VLC 미디어 플레이어 등) 일부 소프트웨어 프로그램은 내부적으로 이 표준을 AVC1로 식별합니다.

역사

전체 이력

1998년 초, Video Coding Experts Group(VCEG – ITU-T SG16 Q.6)은 H.26L이라고 불리는 프로젝트에 대한 제안서를 발행했습니다.이는 광범위한 어플리케이션의 기존 비디오 코딩 표준과 비교하여 코딩 효율을 2배로 하는 것을 목표로 하고 있습니다.VCEGGary Sullivan(Microsoft, Picture)이 의장을 맡았습니다.Tel, 미국)그 새로운 표준에 대한 첫 번째 초안 디자인은 1999년 8월에 채택되었다.2000년에 토마스 비간드(하인리히 헤르츠 연구소, 독일)가 VCEG의 공동 의장이 되었다.

2001년 12월 VCEG와 Moving Picture Experts Group(MPEG – ISO/IEC JTC 1/SC 29/WG 11)은 비디오 코딩 [11]표준을 확정하기 위한 헌장과 함께 합동 비디오 팀(JVT)을 결성했습니다.사양의 정식 승인은 2003년 3월에 이루어졌다.JVT는 Gary Sullivan, Thomas Wiegand 및 Ajay Luthra(미국, 모터롤라: 이후 미국, 아리스)가 의장을 맡았다.2004년 7월에 FREXT(Fidelity Range Extensions) 프로젝트가 완료되었습니다.2005년 1월부터 2007년 11월까지 JVT는 Scalable Video Coding(SVC; 스케일러블 비디오 코딩)이라고 불리는 Annex(G)에 의한 scalability를 향한 H.264/AVC의 확장에 임하고 있었습니다.JVT 관리팀은 독일 RWTH Aachen University(RWTH Aachen University)에 의해 확장되었습니다.2006년 7월부터 2009년 11월까지 JVT는 H.264/AVC를 3D TV 및 제한된 범위의 자유시점 TV로 확장한 Multipreview Video Coding(MVC)을 개발했습니다.이 작업에는 두 가지 새로운 표준 프로파일, 즉 멀티뷰 하이 프로파일과 스테레오 하이 프로파일의 개발이 포함되었습니다.

표준 개발 전반에 걸쳐 보충 강화 정보(SEI)를 포함하기 위한 추가 메시지가 개발되었습니다.SEI 메시지에는 비디오 사진의 타이밍을 나타내는 다양한 유형의 데이터, 코드화된 비디오의 다양한 속성, 사용 방법 또는 확장 방법을 설명하는 데이터가 포함될 수 있습니다.임의의 사용자 정의 데이터를 포함할 수 있는 SEI 메시지도 정의됩니다.SEI 메시지는 코어 디코딩 프로세스에 영향을 주지 않지만 비디오를 후처리 또는 표시하는 방법을 나타낼 수 있습니다.비디오 컨텐츠의 그 외의 상위 레벨의 속성은, 비디오 컨텐츠의 해석을 위한 색공간의 표시 등, 비디오 유저빌리티 정보(VUI)에 의해서 전달된다.높은 다이내믹 레인지와 넓은 색역 비디오새로운 색공간이 개발됨에 따라 이를 나타내는 VUI 식별자가 추가되었다.

충실도 범위 확장 및 프로페셔널 프로파일

H.264/AVC의 첫 번째 버전은 2003년 5월에 표준화가 완료되었다.최초 표준을 확장하는 첫 번째 프로젝트에서 JVT는 FREXT(Fidelity Range Extensions)라고 불리는 것을 개발했습니다.이러한 확장에 의해, 샘플 비트 심도의 정밀도가 향상해, Y'CCBR 4:2:2(a.k.a)라고 불리는 샘플링 구조를 포함한 고해상도 컬러 정보를 서포트하는 것으로, 고품질의 비디오 코딩이 가능하게 되었습니다.YUV 4:2:2) 및 4:4:4 입니다.FRExt 프로젝트에는 4×4 변환과 8×8 변환 사이의 적응적 전환이 가능한 8×8 정수 이산 코사인 변환(integer DCT), 인코더 지정 지각 기반 양자화 가중치 매트릭스, 효율적인 영상 간 무손실 코딩, 추가 색 공간 지원 등 몇 가지 다른 기능도 포함되어 있습니다.FREXT 프로젝트의 설계 작업은 2004년 7월에 완료되어 2004년 9월에 완성되었습니다.

그 후 주로 프로페셔널 애플리케이션을 대상으로 한5개의 새로운 프로파일(아래 버전7 참조)이 개발되었습니다.확장 색공간 지원 추가, 애스펙트비 인디케이터 추가, 2종류의 추가 기능 강화 정보(포스트 필터 힌트 및 톤 맵핑) 정의 및 이전 FREx 중 하나 폐지t프로파일[by whom?](높은4:4:4 프로파일)은 업계의 피드백에 따라 다르게 설계되어야 합니다.

확장 가능한 비디오 코딩

다음으로 표준으로 추가된 주요 기능은 Scalable Video Coding(SVC; 스케일러블 비디오 코딩)입니다.H.264/AVC의 Annex G에서 규정되어 있는SVC에서는 표준에도 준거한 서브비트스트림의 레이어를 포함하는 비트스트림을 구축할 수 있습니다.여기에는 SVC를 지원하지 않는H.264/AVC 코덱에 의해 디코딩될 수 있는 '베이스 레이어'라고 불리는 비트스트림도 포함됩니다.시간 비트스트림의 scalability(즉 메인 비트스트림보다 작은 시간 샘플링 레이트를 가진 서브비트스트림의 존재)를 위해 서브비트스트림을 도출할 때 완전한 접근유닛이 비트스트림에서 삭제된다.이 경우 비트스트림의 상위 구문 및 예측 간 참조 픽처가 그에 따라 구성됩니다.한편 공간 및 품질 비트스트림의 확장성(즉 메인 비트스트림보다 공간 분해능/품질이 낮은 서브비트스트림의 존재)을 위해 NAL(Network Abstraction Layer)은 서브비트스트림을 도출할 때 비트스트림에서 제거된다.이 경우 효율적인 부호화를 위해 일반적으로 층간 예측(즉, 낮은 공간 분해능/품질 신호의 데이터에서 높은 공간 분해능/품질 신호의 예측)이 사용된다.Scalable Video Coding 확장 기능은 2007년 11월에 완료되었습니다.

멀티뷰 비디오 코딩

표준에 추가된 다음 주요 기능은 멀티뷰 비디오 코딩(MVC)이었습니다.MVC는 H.264/AVC의 Annex H에 지정되어 있어 비디오 장면의 여러 뷰를 나타내는 비트스트림을 구축할 수 있습니다.이 기능의 중요한 예로는 입체 3D 비디오 코딩이 있습니다.MVC 작업에서는 두 가지 프로파일이 개발되었습니다.멀티뷰 하이 프로파일은 임의의 수의 뷰를 지원하며 스테레오 하이 프로파일은 2뷰 입체 비디오용으로 특별히 설계되었습니다.멀티뷰 비디오 코딩 확장은 2009년 11월에 완료되었다.

3D-AVC 및 MFC 입체 부호화

이후 깊이 지도와 텍스처의 공동 코딩(3D-AVC로 표기), 다중 해상도 프레임 호환(MFC) 입체 및 3D-MFC 코딩, 다양한 기능의 추가 조합, 더 높은 프레임 크기와 프레임 레이트를 포함하는 추가 확장 기능이 개발되었습니다.

버전

H.264/AVC 표준의 버전에는 다음과 같은 완성된 개정, 교정 및 수정이 포함된다(날짜는 ITU-T의 최종 승인일이며 ISO/IEC의 최종 "국제 표준" 승인일은 다소 다르고 대부분의 경우 약간 늦다).각 버전은 텍스트에 통합된 다음 하위 버전과 관련된 변경을 나타냅니다.

  • 버전 1(에디션 1) : (2003년 5월 30일) 베이스라인,[12] 메인 및 확장 프로파일을 포함한 H.264/AVC의 첫 번째 승인된 버전.
  • 버전 2(Edition 1.1): (2004년 5월 7일) 다양한 사소한 [13]수정을 포함한 교정본.
  • 버전 3 (2판): (2005년 3월 1일)제1차 수정안을 포함한 주요 추가, FREXT(Fidelity Range Extensions)의 확립.이 버전에서는 High, High 10, High 4:2:2, High 4:4:[14]4 프로파일이 추가되었습니다.몇 년 후, High 프로파일은 표준에서 가장 일반적으로 사용되는 프로파일이 되었습니다.
  • Version 4 (Edition 2.1): (2005년 9월 13일) 다양한 사소한 수정과 3개의 석면비 인디케이터를 [15]추가한 Corrigendum.
  • 버전 5(편집 2.2): (2006년 6월 13일) 이전 하이 4:4:4 프로파일 삭제로 구성된 개정안(ISO/[16]IEC에서 교정본으로 처리됨).
  • Version 6 ( Edition 2.2 ) : (2006년 6월 13일)확장 색공간 지원 등 마이너 확장으로 이루어진 개정판 (ISO/[16]IEC에서 상기의 석면비 표시기와 번들)
  • 버전 7(에디션 2.3): (2007년 4월 6일)4:4 예측 프로파일과 4개의 Intra-only 프로파일(High 10 Intra, High 4:2:2 Intra, High 4:4:4 Intra 및 CAVLC 4:4 Intra)[17]의 추가를 포함한 개정.
  • Version 8 (Edition 3) (2007년 11월 22일)스케일러블 베이스라인, 스케일러블 하이 및 스케일러블 하이 인트라 [18]프로파일을 포함한 스케일러블 비디오 코딩(SVC)의 개정을 포함한 H.264/AVC의 메이저 추가.
  • 버전 9(편집 3.1): (2009년 1월 13일) 경미한 [19]수정을 포함한 교정본.
  • 버전 10(편집 4): (2009년 3월 16일) 이전에 지정된 다양한 [20]프로파일에서 지원되는 기능의 공통 서브셋만 포함하는 새로운 프로파일(제한된 기준선 프로파일)의 정의를 포함하는 개정.
  • Version 11 (Edition 4): (2009년 3월 16일)멀티뷰 하이 [20]프로파일을 포함한 멀티뷰 비디오 코딩(MVC) 확장에 관한 개정 내용을 포함한 H.264/AVC에 대한 주요 추가.
  • 버전 12(편집 5): (2010년 3월 9일) 인터레이스 부호화 툴을 지원하여 2뷰 비디오 부호화를 위한 새로운 MVC 프로파일(스테레오 하이 프로파일)의 정의를 포함한 개정 및 프레임 패킹 배치 [21]SEI 메시지라고 하는 추가 보충 확장 정보(SEI) 메시지를 지정합니다.
  • 버전 13(편집 5): (2010년 3월 9일) 경미한 [21]수정을 포함한 교정본.
  • Version 14(Edition 6): (2011년 6월 29일) 개정에서는 초당 최대 매크로 블록 수에서 높은 처리 속도를 지원하는 새로운 수준(Level 5.2) 및 이전에 지정된 [22]높은 프로파일의 프레임 코딩 도구만 지원하는 새로운 프로파일(Progressive High profile)을 지정합니다.
  • 버전 15(편집 6): (2011년 6월 29일) 경미한 수정을 포함한 교정본.[22]
  • Version 16(Edition 7): (2012년 1월 13일) 주로 실시간 통신 애플리케이션을 대상으로 하는 3가지 새로운 프로파일 정의를 포함하는 개정판: Constrainted High,[23] Scalable Constrainted Baseline 및 Scalable Constrainted High 프로파일.
  • 버전 17(Edition 8): (2013년 4월 13일) 추가 SEI 메시지 표시기를 포함한 개정.[24]
  • 버전 18(Edition 8): (2013년 4월 13일) [24]멀티뷰 깊이 높은 프로파일을 포함한 3D 입체 비디오의 깊이 지도 데이터의 부호화를 규정하는 개정.
  • 버전 19(Edition 8): (2013년 4월 13일) 멀티뷰 비디오의 [24]서브비트스트림 추출 프로세스의 오류를 수정하기 위한 Corrigendum.
  • 버전 20(Edition 8): (2013년 4월 13일) 톤 맵핑 정보 SEI [24]메시지에서 추가 색공간 식별자(UHDTV에 대한 ITU-R 권장 BT.2020 지원 포함) 및 추가 모델 유형을 지정하도록 수정.
  • Version 21(Edition 9): (2014년 2월 13일) 향상된 다중 뷰 깊이 프로파일을 [25]지정하기 위한 개정.
  • Version 22(Edition 9): (2014년 2월 13일) 3D 입체 비디오, MFC High 프로파일 및 마이너 [25]보정에 대한 MFC(Multi-Resolution Frame Compatible) 확장을 지정하는 개정.
  • Version 23 (Edition 10) : (2016년 2월 13일)심도 맵, MFC Depth High 프로파일, 마스터링 디스플레이 컬러 볼륨 SEI 메시지 및 추가 컬러 관련 VUI 코드 포인트 [26]식별자를 포함한 MFC 입체 비디오를 지정하기 위한 개정.
  • Version 24(Edition 11): (2016년 10월 14일) 더 큰 이미지 크기(레벨 6, 6.1 및 6.2), 녹색 메타데이터 SEI 메시지, 대체 깊이 정보 SEI 메시지 및 추가 색상 관련 VUI 코드 포인트 [27]식별자를 지원하는 추가 디코더 기능 레벨을 지정하도록 수정.
  • 버전 25(편집 12): (2017년 4월 13일) 프로그레시브 하이10 프로파일, 하이브리드로그감마(HLG) 및 기타 색상 관련 VUI 코드 포인트 및 SEI [28]메시지를 지정하기 위한 개정.
  • Version 26 (Edition 13) : (2019년 6월 13일)주변 뷰 환경, 컨텐츠 라이트 레벨 정보, 컨텐츠 색량, 등각 투영, 큐브 맵 투영, 구면 회전, 지역별 패킹, 전방향 뷰 포트, SEI 매니페스트 및 SEI [29]프리픽스에 대한 추가 SEI 메시지를 지정하기 위한 개정.
  • Version 27 (Edition 14) : (2021년 8월 22일)주석 영역 및 셔터 간격 정보 및 기타 사소한 수정 및 설명에 [30]대한 추가 SEI 메시지를 지정하기 위한 개정.

특허권자

다음 조직은 MPEG LA의 H.264/AVC 특허 풀에 하나 이상의 특허를 보유하고 있습니다.

H.264/AVC 특허권자(2020년 [31]11월 기준)
조직[32] 액티브 특허 유효기간이 지난 특허 특허의[31] 합계
파나소닉 1,135 62 1,197
고도카이샤 IP브릿지 1,111 19 1,130
LG전자 875 115 990
돌비 연구소 754 21 775
도시바 357 34 391
마이크로소프트 176 39 215
일본전신전화(NTT도코모 포함) 187 2 189
소니 116 31 147
프라운호퍼 협회 125 16 141
구글 136 3 139
GE 비디오 압축 136 0 136
후지쯔 92 14 106
미쓰비시 전기 54 50 104
타기반 II LLC 77 0 77
삼성전자 23 40 63
맥셀 51 2 53
필립스 5 39 44
비도 41 2 43
에릭슨 34 0 34
한국전자통신연구원 32 0 32

적용들

H.264 비디오 포맷은 매우 넓은 애플리케이션 범위를 가지고 있으며, 저비트레이트 인터넷 스트리밍 애플리케이션부터 거의 무손실 코딩으로 HDTV 방송 및 디지털 시네마 애플리케이션에 이르기까지 모든 형태의 디지털 압축 비디오를 커버합니다.H.264를 사용하면 MPEG-2 Part 2와 비교하여 비트환율이 50% 이상 절감되는 것으로 보고되었습니다.예를 들어 H.264는 비트환율이 절반 미만인 현재의 MPEG-2 구현과 동일한 Digital Satellite TV 품질을 제공하는 것으로 보고되었으며, 현재 MPEG-2 구현은 약 3.5 Mbit/s,[33] H.264는 1.5 Mbit/s에서만 작동합니다.소니는 9 Mbit/s AVC 녹화 모드가 약 18-25 Mbit/[34]s를 사용하는 HDV 형식의 화질과 동등하다고 주장합니다.

H.264/AVC의 호환성과 문제없이 채택할 수 있도록 많은 표준 기관이 비디오 관련 표준을 개정 또는 추가했습니다.이러한 표준의 사용자는 H.264/AVC를 사용할 수 있습니다.Blu-ray 디스크 형식과 현재 단종된 HD DVD 형식 모두 H.264/AVC 하이 프로파일이 3가지 필수 비디오 압축 형식 중 하나로 포함되어 있습니다.디지털 비디오 방송 프로젝트(DVB)는 2004년 말 방송용 TV에 H.264/AVC 사용을 승인했습니다.

미국 ATSC(Advanced Television Systems Committee) 표준 기구는 2008년 7월에 H.264/AVC의 방송용 사용을 승인했지만, 이 표준은 아직 미국 [35][36]내 고정 ATSC 방송에는 사용되지 않습니다.또한 H.264의 [37]AVC 및 SVC 부분을 사용하여 최신 ATSC-M/H(모바일/핸드헬드) 표준과 함께 사용하도록 승인되었습니다.

CCTV와 비디오 감시 시장은 많은 제품에 이 기술을 포함시켰다.

많은 일반적인 DSLR에서는 QuickTime MOV 컨테이너로 포장된H.264 비디오를 네이티브 녹화 포맷으로 사용합니다.

파생 형식

AVCHDSony와 Panasonic이 설계한 고화질 레코딩 포맷으로 H.264를 사용합니다(어플리케이션 고유의 기능과 구속조건을 추가하면서 H.264에 대응합니다).

AVC-Intra는 Panasonic이 개발프레임 내 전용 압축 형식입니다.

XAVC는 소니가 설계한 녹음 포맷으로, H.264/MPEG-4 AVC의 레벨 5.2를 사용합니다.이것은, 이 비디오 [38][39]규격이 서포트하는 최고 레벨입니다.XAVC는 최대 60프레임/초(fps)[38][39]4K 해상도(4096 × 2160 및 3840 × 2160)를 지원할 수 있습니다.Sony는 XAVC를 지원하는 카메라에는 Sony PMW-F55와 [40]Sony PMW-F5라는 두 개의 CineAlta 카메라가 포함된다고 발표했다.Sony PMW-F55는 300Mbit/s에서 30fps, 100Mbit/[41]s에서 30fps의 2K 해상도로 4K 해상도의 XAVC를 기록할 수 있습니다.XAVC는 60fps에서 4K 해상도를 기록할 수 있으며 600Mbit/[42][43]s에서 4:2:2 크로마 샘플링이 가능합니다.

설계.

특징들

H.264 블록도

H.264/AVC/MPEG-4 제10부에는, 종래의 표준보다 훨씬 효율적으로 비디오를 압축해, 다양한 네트워크 환경에의 애플리케이션의 유연성을 높이는 신기능이 다수 포함되어 있습니다.특히 이러한 주요 기능은 다음과 같습니다.

  • 다음 기능을 포함한 멀티픽처간 예측:
    • 과거 표준보다 훨씬 유연한 방식으로 이전에 인코딩된 사진을 참조로 사용하여 경우에 따라 최대 16개의 참조 프레임(인터레이스 인코딩의 경우 32개의 참조 필드)을 사용할 수 있습니다.비 IDR 프레임을 지원하는 프로파일에서는 대부분의 레벨에서는 최대 해상도로 최소4 또는 5개의 참조 프레임을 허용하기에 충분한 버퍼링을 사용할 수 있어야 한다고 명시되어 있습니다.이는 한도가 일반적으로 1이었던 이전 표준과 대조적이며, 기존의 "B 사진"(B-프레임)의 경우 2이다.
    • 블록 크기가 16×16, 4×4인 가변 블록 크기 모션 보상(VBSMC)으로 이동 영역을 정밀하게 분할할 수 있습니다.지원되는 Luma 예측 블록 크기는 16×16, 16×8, 8×16, 8×8, 8×4, 4×8 및 4×4이며, 많은 경우 단일 매크로 블록에서 함께 사용할 수 있습니다.채도 예측 블록 사이즈는 채도 서브샘플링을 사용하면 그에 따라 작아집니다.
    • 16개의 4×4 파티션으로 구성된 B 매크로 블록의 경우 매크로 블록당 최대 32개의 여러 모션 벡터를 사용할 수 있습니다(파티션당 1개 또는 2개).8×8 이상의 파티션 영역에 대한 움직임 벡터는 서로 다른 참조 사진을 가리킬 수 있습니다.
    • I-macroblock을 포함한 B-frame의 매크로 블록유형을 사용할 수 있기 때문에 B-frame을 사용할 때 부호화가 훨씬 효율화됩니다. 기능은 MPEG-4 ASP에서 제외되었습니다.
    • 하프펠루마 샘플 예측 도출을 위한 6탭 필터링으로 더 선명한 서브픽셀 모션 보정을 실현합니다.1/4 픽셀 모션은 처리 능력을 절약하기 위해 하프 픽셀 값의 선형 보간으로 도출됩니다.
    • 움직임 보정을 위한 1/4 픽셀의 정밀도로, 이동 영역의 변위를 정확하게 설명할 수 있습니다.채도의 경우 해상도는 일반적으로 수직 및 수평으로 절반(4:2:0 참조)이므로 채도의 움직임 보정에는 8분의 1의 채도 픽셀 그리드 단위가 사용됩니다.
    • 가중치 예측: 동작 보정 실행 시 인코더가 스케일링 및 오프셋 사용을 지정할 수 있으며 페이드 투 블랙, 페이드 인, 크로스 페이드 전환 등 특수한 경우 성능에 큰 이점을 제공합니다.여기에는 B 프레임에 대한 암묵적 가중치 예측과 P 프레임에 대한 명시적 가중치 예측이 포함됩니다.
  • MPEG-2 Part 2에서 볼 수 있는 "DC"만의 예측과 H.263v2 및 MPEG-4 Part 2에서 볼 수 있는 변환 계수 예측이 아닌 "내부" 부호화를 위한 인접 블록의 가장자리로부터의 공간 예측.여기에는 16×16, 8×8 및 4×4의 Luma 예측 블록 크기가 포함됩니다(각 매크로 블록 내에서 한 가지 유형만 사용할 수 있습니다).
  • 정수 이산 코사인 변환(integer DCT)[6][8][44]은 이산 코사인 변환(DCT)[8]의 일종으로, 변환은 표준 DCT의 [45]정수 근사치입니다.블록 크기를[7] 선택할 수 있고 다음과 같은 복잡성을 줄이기 위해 완전 일치 정수 계산이 있습니다.
    • 완전 일치 정수 4×4 공간 블록 변환으로, 이전 코덱 설계에서 흔히 볼 수 있는 "링잉"이 거의 없이 잔여 신호를 정확하게 배치할 수 있습니다.이전 표준에서 사용된 표준 DCT와 유사하지만 더 작은 블록 크기와 단순한 정수 처리를 사용합니다.이전의 표준(H.261이나 MPEG-2 등)에서 표현된 코사인 베이스의 공식이나 공차와는 달리, 정수 처리는 정확하게 지정된 디코딩 결과를 제공합니다.
    • 정확히 일치하는 정수 8×8 공간 블록 변환으로, 4×4 변환보다 상관성이 높은 영역을 더 효율적으로 압축할 수 있습니다.이 설계는 표준 DCT를 기반으로 하지만 정확하게 지정된 디코딩을 제공하도록 단순화 및 제작되었습니다.
    • 정수 변환 연산을 위한 4×4 및 8×8 변환 블록 크기 사이에서 적응형 인코더 선택.
    • 2차 아다마르 변환은 채도 DC계수(및 특별한 경우에는 루마)에 적용되는 1차 공간 변환의 "DC"계수에 대해 수행되며 부드러운 영역에서 더 많은 압축을 얻습니다.
  • 다음과 같은 무손실 매크로 블록 코딩 기능:
    • 비디오 데이터 샘플이 직접 [46]표현되는 무손실 "PCM 매크로 블록" 표현 모드. 특정 영역을 완벽하게 표현할 수 있으며 각 매크로 블록에 대해 코드화된 데이터의 양에 엄격한 제한을 둘 수 있습니다.
    • 일반적으로 PCM 모드보다 훨씬 적은 비트를 사용하면서 특정 영역을 완벽하게 표현할 수 있는 향상된 무손실 매크로 블록 표현 모드입니다.
  • 다음과 같은 유연한 인터레이스 스캔 비디오 코딩 기능:
    • 프레임으로 코딩된 그림에 매크로 블록 페어 구조를 사용하는 매크로 블록 적응형 프레임 필드(MBAFF) 코딩은 필드 모드에서 16×16 매크로 블록을 허용합니다(프레임으로 코딩된 그림에서 필드 모드 처리가 16×8 하프 매크로 블록을 처리하는 MPEG-2와 비교).
    • PAFF 또는 PicAFF(픽처 적응형 프레임 필드 부호화)로, 양쪽 필드가 부호화용으로 조합된 완전한 프레임 또는 개별 단일 필드로 자유롭게 코드화된 이미지를 혼합할 수 있습니다.
  • 다음을 포함한 양자화 설계:
    • 로그 스텝사이즈 제어로 인코더를 통한 비트레이트 관리가 용이해지고 역양자화 스케일링이 심플화됩니다.
    • 지각 기반 양자화 최적화를 위해 인코더에 의해 선택된 주파수 맞춤형 양자화 스케일링 매트릭스
  • 다른 DCT 기반 이미지 압축 기술에 공통되는 차단 아티팩트를 방지하여 시각적 외관 및 압축 효율을 향상시키는 루프디블로킹 필터
  • 다음을 포함하는 엔트로피 코딩 설계:
    • 컨텍스트 적응형 바이너리 산술 부호화(CABAC)는 비디오 스트림 내의 구문 요소를 무손실 압축하는 알고리즘으로 주어진 컨텍스트 내의 구문 요소의 확률을 인식합니다.CABAC는 CAVLC보다 데이터를 더 효율적으로 압축하지만 디코딩에는 상당히 많은 처리가 필요합니다.
    • Context-Adaptive Variable-Length Coding(CAVLC; 컨텍스트 적응형 가변 길이 부호화) CAB 대체 수단양자화된 변환 계수 값의 부호화를 위한 AC.CABAC보다 복잡도는 낮지만 CAVLC는 다른 이전 설계에서 계수를 코드화하기 위해 일반적으로 사용되는 방법보다 더 정교하고 효율적입니다.
    • CABAC 또는 CAVLC에 의해 부호화되지 않은 많은 구문 요소에 대한 일반적인 단순하고 고도로 구조화된 Variable Length Coding(VLC; 가변 길이 부호화) 기술로, 지수-골롬 부호화(Exp-Golomb)라고 불립니다.
  • 다음과 같은 손실 복원 기능:
    • Network Abstraction Layer(NAL; 네트워크 추상화층) 정의.많은 네트워크 환경에서 동일한 비디오 구문을 사용할 수 있습니다.H.264의 가장 기본적인 설계 개념 중 하나는 MPEG-4의 Header Extension Code(HEC;[47] 헤더 확장 코드)와 같이 자기 완결형 패킷을 생성하여 헤더 중복을 제거하는 것입니다.이는 미디어 스트림에서 둘 이상의 슬라이스와 관련된 정보를 분리함으로써 달성되었습니다.상위 수준의 매개 변수 조합을 매개 변수 [47]세트라고 합니다.H.264 사양에는 시퀀스 파라미터 세트(SPS)와 픽처 파라미터 세트(PPS)의 2종류의 파라미터 세트가 포함되어 있습니다.액티브 시퀀스 파라미터 세트는 부호화된 비디오 시퀀스 전체에서 변경되지 않은 상태로 유지되며 액티브픽처 파라미터 세트는 부호화된 픽처 내에서 변경되지 않은 상태로 유지됩니다.시퀀스 및 그림 매개변수 세트 구조에는 그림 크기, 사용된 선택적 코딩 모드, 슬라이스 그룹 [47]맵에 대한 매크로 블록과 같은 정보가 포함됩니다.
    • 슬라이스 그룹이라고도 하는 유연한 매크로 블록 순서(FMO)와 사진의 기본 영역(매크로 블록) 표현 순서를 재구성하는 기술인 임의 슬라이스 순서(ASO)입니다.일반적으로 오류/손실 건전성 기능으로 간주되는 FMO 및 ASO는 다른 용도로도 사용할 수 있습니다.
    • Data Partitioning(DP; 데이터 파티션)은 보다 중요도가 높고 덜 중요한 구문 요소를 다른 데이터 패킷으로 분리하는 기능을 제공합니다.이를 통해 EEP(Equal Error Protection) 및 기타 유형의 오류/손실 건전성을 개선할 수 있습니다.
    • 용장 슬라이스(RS)는, 에러/손실 견고성 기능.인코더로 화상 영역(일반적으로 낮은 충실도로)의 추가 표현을 송신할 수 있도록 합니다.이 기능은 프라이머리 표현이 파손 또는 상실되었을 경우에 사용할 수 있습니다.
    • 프레임 번호부여, 「서브 시퀀스」를 작성할 수 있는 기능.다른 화상간에 추가 화상을 옵션으로 포함시켜 일시적인 확장성을 실현합니다.또, 네트워크 패킷의 손실이나 채널 에러에 의해서 발생할 가능성이 있는 화상 전체의 손실의 검출과 은폐를 가능하게 합니다.
  • 슬라이스(SP 및 SI 슬라이스)를 스위칭하면 비디오 스트리밍 비트레이트 스위칭 및 "트릭 모드" 조작 등의 목적으로 디코더가 진행 중인 비디오 스트림에 뛰어들도록 지시할 수 있습니다.SP/SI 기능을 사용하여 디코더가 비디오스트림의 중앙에 뛰어들면 스위치 전에 다른 이미지를 사용하거나 전혀 이미지가 없는 경우에도 비디오스트림의 그 위치에서 디코딩된 이미지와 정확하게 일치시킬 수 있습니다.
  • 시작 코드의 우발적인 에뮬레이션을 방지하기 위한 간단한 자동 프로세스.이 프로세스는 코드화된 데이터 내의 비트의 특수한 시퀀스로 바이트 동기화가 손실될 수 있는 시스템에서 비트 스트림에 랜덤하게 액세스하여 바이트 정렬을 복구할 수 있습니다.
  • Supplemental Enhancement Information(SEI; 보충 확장 정보) 및 Video Usability Information(VUI; 비디오유틸리티 정보)은 비디오 콘텐츠를 사용한 색 공간 또는 인코딩에 적용되는 다양한 제약 조건을 나타내는 등 다양한 목적으로 비트스트림에 삽입할 수 있는 추가 정보입니다.SEI 메시지에는 임의의 사용자 정의 메타데이터 페이로드 또는 표준에서 정의된 구문 및 의미론을 가진 기타 메시지를 포함할 수 있습니다.
  • 보조 사진 - 알파 합성 등의 목적으로 사용할 수 있습니다.
  • 흑백(4:0:0), 4:2:0, 4:2:2, 4:4 채도 샘플링 지원(선택한 프로파일에 따라 다름).
  • 샘플당 8~14비트 범위의 샘플비트 깊이 정밀도 지원(선택한 프로파일에 따라 다름).
  • 각각의 색 평면을 독자적인 슬라이스 구조, 매크로 블록 모드, 모션 벡터 등으로 구별되는 그림으로 인코딩할 수 있기 때문에 인코더를 심플한 병렬화 구조로 설계할 수 있습니다(3개의 4:4:4 대응 프로파일에서만 지원).
  • 화상 오더 카운트, 즉 디코딩된 화상의 순서와 샘플의 값을 타이밍 정보로부터 격리하는 기능을 하는 것으로, 디코딩된 화상의 내용에 영향을 주지 않고, 시스템에 의해서 타이밍 정보를 개별적으로 반송, 제어/변경할 수 있다.

이러한 기술은 다른 여러 기술과 함께 H.264가 다양한 애플리케이션 환경에서 다양한 상황에서 이전 표준보다 훨씬 더 나은 성능을 발휘하도록 지원합니다.H.264는 MPEG-2 비디오보다 훨씬 뛰어난 성능을 발휘하는 경우가 많습니다.일반적으로 비트환율의 절반 이하로 같은 품질을 얻을 수 있습니다.특히 높은 비트환율과 고해상도 비디오 콘텐츠에서는 [48]더욱 그렇습니다.

다른 ISO/IEC MPEG 비디오 표준과 같이, H.264/AVC는 [49]자유롭게 다운로드할 수 있는 레퍼런스 소프트웨어를 실장하고 있습니다.그 주된 목적은 그 자체로 유용한 어플리케이션이 아니라 H.264/AVC 기능의 예를 제시하는 것입니다.Moving Picture Experts Group에서도 일부 레퍼런스 하드웨어 설계 작업이 수행되었습니다.위의 측면에는 H.264의 모든 프로파일의 기능이 포함되어 있습니다.코덱의 프로파일은 의도한 어플리케이션의 특정 사양을 충족하도록 식별되는 코덱의 기능 세트입니다.이는 나열된 기능의 대부분이 일부 프로파일에서 지원되지 않음을 의미합니다.H.264/AVC 의 다양한 프로파일에 대해서는, 다음의 항에서 설명합니다.

프로필

이 표준에서는 특정 클래스의 애플리케이션을 대상으로 하는 몇 가지 기능 세트를 정의하고 있습니다.이 기능을 프로파일이라고 합니다.이들은 프로파일코드(profile_idc)를 사용하여 선언되며 인코더에 적용되는 일련의 추가 제약조건을 사용할 수 있습니다.디코더는 프로파일코드와 지정된 제약조건을 통해 특정 비트스트림 디코딩 요건을 인식할 수 있습니다.(또한 많은 시스템 환경에서 사용할 수 있는 프로파일은 1~2개뿐이므로 이러한 환경의 디코더는 그다지 자주 사용되지 않는 프로파일을 인식할 필요가 없습니다.)지금까지 가장 일반적으로 사용되는 프로파일은 높은 프로파일입니다.

확장 불가능한 2D 비디오 애플리케이션의 프로파일은 다음과 같습니다.

구속된 기준선 프로파일(CBP, 구속된 세트 1)
주로 저비용 어플리케이션에서 이 프로파일은 일반적으로 화상회의 및 모바일 어플리케이션에서 사용됩니다.기준선, 기본 및 높음 프로파일 간에 공통되는 기능의 하위 집합에 해당합니다.
베이스라인 프로파일(BP, 66)
이 프로파일은 주로 데이터 손실의 견고성을 높여야 하는 저비용 어플리케이션의 경우 일부 화상회의 및 모바일 어플리케이션에서 사용됩니다.이 프로파일에는 제약된 기준선 프로파일에서 지원되는 모든 기능과 손실의 견고성에 사용할 수 있는3가지 추가 기능(또는 지연이 적은 멀티 포인트비디오 스트림의 합성 등)이 포함됩니다.이 프로파일의 중요성은 2009년 구속된 기준선 프로파일의 정의 이후 다소 희미해졌다.모든 구속된 기준선 프로파일비트스트림은 동일한 프로파일 식별자 코드 값을 공유하기 때문에 기준선 프로파일비트스트림으로 간주됩니다.
확장 프로파일(XP, 88)
이 프로파일은 스트리밍 비디오프로파일로서 비교적 높은 압축능력과 데이터 손실 및 서버 스트림스위칭에 대한 견고성을 실현하기 위한 몇 가지 추가 기술을 갖추고 있습니다.
메인 프로파일(MP, 77)
이 프로파일은 DVB 표준에 [50]정의되어 있는MPEG-4 형식을 사용하는 표준 화질 디지털 TV 브로드캐스트에 사용됩니다.단, 이 프로파일의 중요성은 2004년 해당 애플리케이션용으로 개발된 이후 사라졌기 때문에 고화질 텔레비전 방송에는 사용되지 않습니다.
하이 프로파일(HiP, 100)
브로드캐스트 및 디스크 스토리지 애플리케이션, 특히 고화질 텔레비전 애플리케이션(예를 들어 Blu-ray Disc 스토리지 포맷 및 DVB HDTV 브로드캐스트 서비스에서 채택된 프로파일)의 프라이머리 프로파일.
프로그레시브 하이 프로파일(PHiP, 구속 세트 4 포함 100)
하이 프로파일과 비슷하지만 필드 코딩 기능은 지원하지 않습니다.
구속된 하이 프로파일(100, 구속 세트 4 및 5 포함)
Progressive High 프로파일과 비슷하지만 B(bi-predictive) 슬라이스를 지원하지 않습니다.
하이 10 프로파일(Hi10P, 110)
일반적인 메인스트림 컨슈머 제품의 기능을 넘어 이 프로파일은 하이 프로파일 위에 구축되어 디코딩된 화상의 정밀도 샘플당 최대 10비트를 지원합니다.
하이 4:2:2 프로파일 (Hi422P, 122)
주로 인터레이스 비디오를 사용하는 프로페셔널한 애플리케이션을 대상으로 하는 이 프로파일은 하이 10 프로파일 위에 구축되어 디코딩된 화상의 정밀도 샘플당 최대 10비트를 사용하면서 4:2:2의 채도 샘플링 형식을 지원합니다.
높은 4:4:4 예측 프로파일 (Hi444PP, 244)
이 프로파일은 High 4:2:2 프로파일 위에 구축되어 샘플당 최대 14비트, 최대 4:4:4의 채도 샘플링을 지원합니다.또한 효율적인 무손실 영역 코딩과 3개의 다른 색 평면으로의 각 사진의 코딩도 지원합니다.

캠코더, 편집 및 프로페셔널애플리케이션의 경우 표준에는 다른 대응하는 프로파일의 단순한 서브셋으로 정의되어 있는4개의 추가 프레임내 전용 프로파일이 포함되어 있습니다.이것들은, 주로 프로패셔널(카메라나 편집 시스템 등)의 애플리케이션 전용입니다.

하이 10 인트라 프로파일 (110, 구속 세트 3)
High 10 Profile은 전체 사용으로 제한되었습니다.
높은 4:2:2:2의 내부 프로파일(제한 세트 3)
High 4:2:2:2 프로파일은 모든 내부 사용으로 제한됩니다.
높은 4:4:4:4 인트라 프로파일 (244 구속 세트 3)
High 4:4:4:4 프로파일은 전체 사용으로 제한됩니다.
CAVLC 4:4:4 인트라 프로파일(44)
High 4:4:4 프로파일은 All-Intra 사용 및 CAVLC 엔트로피 코딩(CABAC를 지원하지 않음)으로 제한됩니다.

Scalable Video Coding(SVC; 스케일러블비디오 코딩) 확장에 의해 표준에는 5개의 추가 스케일러블 프로파일이 포함되어 있습니다.이 프로파일은 베이스 레이어의 H.264/AVC 프로파일(스케일러블 프로파일 이름의 두 번째 단어로 식별됨)과 스케일러블 확장을 실현하는 툴의 조합으로 정의됩니다.

스케일러블 베이스라인 프로파일(83)
주로 화상회의, 모바일 및 보안 감시 애플리케이션을 대상으로 하는 이 프로파일은 기본 레이어(비트스트림의 서브셋)가 준수해야 하는 구속된 기준선 프로파일 위에 구축됩니다.scalability 툴의 경우 사용 가능한 툴의 서브셋이 유효하게 됩니다.
스케일러블 제약 기준선 프로파일(83 구속 세트 5 포함)
주로 실시간 통신 애플리케이션을 대상으로 하는 스케일러블 베이스라인 프로파일의 서브셋.
스케일러블 하이 프로파일(86)
주로 브로드캐스트 및 스트리밍 애플리케이션을 대상으로 하는 이 프로파일은 기본 레이어가 준수해야 하는 H.264/AVC 하이 프로파일 위에 구축됩니다.
스케일러블 제약 하이 프로파일(86, 제약 세트 5 포함)
주로 실시간 통신 애플리케이션을 대상으로 하는 스케일러블 하이 프로파일의 서브셋.
스케일러블 하이 인트라 프로파일(86, 구속 세트 3)
주로 실가동 애플리케이션을 대상으로 하는 이 프로파일은 전체 내부 사용에 국한된 스케일러블 하이 프로파일입니다.

Multipreview Video Coding(MVC; 멀티뷰 비디오 부호화) 확장에 의해, 표준에는 다음의 2개의 멀티뷰 프로파일이 포함되어 있습니다.

스테레오 하이 프로파일(128)
이 프로파일은 2뷰 입체 3D 비디오를 대상으로 하며, 고프로파일의 도구를 MVC 확장의 뷰 간 예측 기능과 결합합니다.
멀티뷰 하이 프로파일(118)
이 프로파일은, 화상간(임시)과 MVC 화상간 예측을 모두 사용해 복수의 뷰를 서포트하고 있습니다만, 필드 사진이나 매크로 블록 적응형 프레임 필드 코딩은 서포트하고 있지 않습니다.

Multiple-resolution Frame-Compatible(MFC) 확장에 의해 다음 2개의 프로파일이 추가되었습니다.

MFC 하이 프로파일(134)
2층 분해능 향상을 수반하는 입체 부호화용 프로파일.
MFC 깊이 하이 프로파일(135)

3D-AVC 확장에 의해, 다음의 2개의 프로파일이 추가되었습니다.

다중 뷰 깊이 하이 프로파일(138)
이 프로필은 3D 비디오 컨텐츠의 압축을 개선하기 위해 깊이 지도와 비디오 텍스처 정보의 공동 코딩을 지원합니다.
향상된 멀티뷰 깊이 하이 프로파일 (139)
깊이 정보와 결합된 멀티뷰 부호화를 위한 향상된 프로파일.

특정 프로파일의 기능 지원

특징 CBP BP XP MP ProHiP 엉덩이 하이10P 하이422P 하이444PP
I 슬라이스와 P 슬라이스 네. 네. 네. 네. 네. 네. 네. 네. 네.
비트 깊이(샘플당) 8 8 8 8 8 8 8 ~ 10 8 ~ 10 8 ~ 14
크로마 형식 4:2:0

4:2:0

4:2:0

4:2:0

4:2:0

4:2:0

4:2:0

4:2:0/
4:2:2
4:2:0/
4:2:2/
4:4:4
유연한 매크로 블록 오더(FMO) 아니요. 네. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
임의 슬라이스 순서(ASO) 아니요. 네. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
용장 슬라이스(RS) 아니요. 네. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
데이터 파티셔닝 아니요. 아니요. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
SI 및 SP 슬라이스 아니요. 아니요. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
인터레이스 부호화(PicAFF, MBAFF) 아니요. 아니요. 네. 네. 아니요. 네. 네. 네. 네.
B 슬라이스 아니요. 아니요. 네. 네. 네. 네. 네. 네. 네.
다중 참조 프레임 네. 네. 네. 네. 네. 네. 네. 네. 네.
루프 내 잠금 해제 필터 네. 네. 네. 네. 네. 네. 네. 네. 네.
CAVLC 엔트로피 부호화 네. 네. 네. 네. 네. 네. 네. 네. 네.
CABAC 엔트로피 부호화 아니요. 아니요. 아니요. 네. 네. 네. 네. 네. 네.
4:0:0 (흑백) 아니요. 아니요. 아니요. 아니요. 네. 네. 네. 네. 네.
8×8 대 4×4 변환 적응성 아니요. 아니요. 아니요. 아니요. 네. 네. 네. 네. 네.
양자화 스케일링 매트릭스 아니요. 아니요. 아니요. 아니요. 네. 네. 네. 네. 네.
CBR C의 개별 QP 제어 아니요. 아니요. 아니요. 아니요. 네. 네. 네. 네. 네.
개별 색상 평면 코딩 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 네.
예측 무손실 부호화 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 네.

레벨

표준에서 사용되는 용어로, "레벨"은 프로파일에 필요한 디코더 성능의 정도를 나타내는 특정 제약 조건 세트입니다.예를 들어 프로파일 내의 지원 수준은 디코더가 사용할 수 있는 최대 화상 해상도, 프레임레이트 및 비트레이트를 지정합니다.지정된 레벨에 준거한 디코더는 해당 레벨 및 하위 레벨에 대해 인코딩된 모든 비트스트림을 디코딩할 수 있어야 합니다.

최대 속성[28] 값이 있는 수준
레벨
최대치
복호화 속도
(블럭/초)
최대치
프레임 사이즈
(블럭)
최대 비디오 수
비디오 비트레이트
부호화층(VCL)
(제한된 기준선,
기준선, 확장
및 메인 프로파일)
(킬로비트/초)
고해상도 예시
@ 최고 프레임레이트
(최대 저장 프레임 수)
추가 세부 정보 전환

1 1,485 99 64
128×96@30.9 (8)
176×144@15.0 (4)
1b 1,485 99 128
128×96@30.9 (8)
176×144@15.0 (4)
1.1 3,000 396 192
176×144@30.3 (9)
320×240@10.0 (3)
352×288@7.5 (2)
1.2 6,000 396 384
320×240@20.0 (7)
352×288@15.2 (6)
1.3 11,880 396 768
320×240@36.0 (7)
352×288@30.0 (6)
2 11,880 396 2,000
320×240@36.0 (7)
352×288@30.0 (6)
2.1 19,800 792 4,000
352×480@30.0 (7)
352×576@25.0 (6)
2.2 20,250 1,620 4,000
352×480@30.7 (12)
352×576@25.6 (10)
720×480@15.0 (6)
720×576@12.5 (5)
3 40,500 1,620 10,000
352×480@61.4 (12)
352×576@51.1 (10)
720×480@30.0 (6)
720×576@25.0 (5)
3.1 108,000 3,600 14,000
720×480@80.0 (13)
720×576@66.7 (11)
1,280×720@30.0 (5)
3.2 216,000 5,120 20,000
1,280×720@60.0 (5)
1,280×1,024@42.2 (4)
4 245,760 8,192 20,000
1,280×720@68.3 (9)
1,920×1,080@30.1 (4)
2,048×1,024@30.0 (4)
4.1 245,760 8,192 50,000
1,280×720@68.3 (9)
1,920×1,080@30.1 (4)
2,048×1,024@30.0 (4)
4.2 522,240 8,704 50,000
1,280×720@145.1 (9)
1,920×1,080@64.0 (4)
2,048×1,080@60.0 (4)
5 589,824 22,080 135,000
1,920×1,080@72.3 (13)
2,048×1,024@72.0 (13)
2,048×1,080@67.8 (12)
2,560×1,920@30.7 (5)
3,672×1,536@26.7 (5)
5.1 983,040 36,864 240,000
1,920×1,080@120.5 (16)
2,560×1,920@51.2 (9)
3,840×2,160@31.7 (5)
4,096×2,048@30.0 (5)
4,096×2,160@28.5 (5)
4,096×2,304@26.7 (5)
5.2 2,073,600 36,864 240,000
1,920×1,080@172.0 (16)
2,560×1,920@108.0 (9)
3,840×2,160@66.8 (5)
4,096×2,048@63.3 (5)
4,096×2,160@60.0 (5)
4,096×2,304@56.3 (5)
6 4,177,920 139,264 240,000
3,840×2,160@128.9 (16)
7,680×4,320@32.2 (5)
8,192×4,320@30.2 (5)
6.1 8,355,840 139,264 480,000
3,840×2,160@257.9 (16)
7,680×4,320@64.5 (5)
8,192×4,320@60.4 (5)
6.2 16,711,680 139,264 800,000
3,840×2,160@300.0 (16)
7,680×4,320@128.9 (5)
8,192×4,320@120.9 (5)

하이 프로파일의 최대 비트환율은 구속된 기준선, 기준선, 확장 및 메인 프로파일의 1.25배, Hi10P의 경우 3배, Hi422P/Hi444의 경우 4배입니다.PP.

Luma 샘플의 수는 16×16=256배(및 초당 Luma 샘플 수는 256배)입니다.

디코딩된 이미지 버퍼링

이전에 인코딩된 사진은 H.264/AVC 인코더가 다른 사진의 샘플 값을 예측하기 위해 사용합니다.이것에 의해, 인코더는, 특정의 화상을 부호화하는 최선의 방법을 효율적으로 결정할 수 있습니다.디코더에서는, 이러한 화상을 가상 디코딩 화상 버퍼(DPB)에 격납한다.DPB의 최대 캐퍼시티(프레임 단위 또는 필드 쌍 단위)는 위의 표의 오른쪽 열에 괄호로 나타내듯이 다음과 같이 계산할 수 있습니다.

Dpb Capacity = min(플로어(MaxDpbMbs/)(PicWidthInMbs* 프레임)높이 입력 Mbs), 16)

여기서 MaxDpbMbs는 레벨 번호 및 PicWidthInMbs 프레임의 함수로 다음 표에 제공된 상수 값입니다.HighInMbs는 코드화된 비디오 데이터의 그림 폭 및 프레임 높이로, 매크로 블록 단위로 표시됩니다(정수값으로 반올림되고 해당되는 경우 잘라내기 및 매크로 블록 쌍을 고려).이 공식은 2017년판 [28]표준의 섹션 A.3.1.h와 A.3.2.f에 명시되어 있다.

레벨 1 1b 1.1 1.2 1.3 2 2.1 2.2 3 3.1 3.2 4 4.1 4.2 5 5.1 5.2 6 6.1 6.2
최대 Dpb Mbps 396 396 900 2,376 2,376 2,376 4,752 8,100 8,100 18,000 20,480 32,768 32,768 34,816 110,400 184,320 184,320 696,320 696,320 696,320

예를 들어,PicWidthInMbs = 120 1,920개의 샘플 폭()과 1,080개의 샘플 높이()FrameHeightInMbs = 68인 HDTV 사진의 경우 레벨 4 디코더의 최대 DPB 저장 용량은 = 4프레임(또는 8필드)입니다.따라서 프레임사이즈가 1920×1080인 레벨4의 경우 위의 표의 오른쪽 열에 값 4가 괄호 안에 표시되어 있습니다.

디코딩 중인 현재 사진은 DPB 가득도 계산에 포함되지 않는다는 점에 유의하십시오(다른 사진을 디코딩하기 위한 참조로 사용하거나 출력 타이밍 지연을 위해 인코더가 저장하도록 지시하지 않은 경우).따라서 디코더는 위에서 계산한 바와 같이 DPB의 최대 용량보다 (적어도)1 프레임 더 많은 충분한 메모리를 실제로 가지고 있어야 합니다.

실장

AVC(H.264) 비디오코덱 및 Opus 오디오 형식을 사용한 YouTube 비디오 통계 정보

2009년 HTML5 작업 그룹은 특허에 의해 방해받지 않는 것으로 생각되는 무료 비디오 형식인 Ogg Theora와 특허 기술을 포함하는 H.264로 나뉘었다.2009년 7월까지 Google과 Apple은 H.264를 지원하는 것으로 알려졌으며, Mozilla와 Opera는 Ogg Theora를 지원합니다(현재 Google, Mozilla 및 Opera는 모두 VP8에서 [51]Theora와 WebM을 지원합니다).Microsoft 는 Internet Explorer 9 를 릴리스 하고, H.264 를 사용해 인코딩 된 HTML 5 비디오의 서포트를 추가했습니다.Gartner 심포지엄에서 /2010년 11월, ITXPO의 CEO Steve Ballmer는 다음과 같은 질문에 대답했습니다.2011년 1월 구글은 크롬 브라우저에서 H.264를 지원하고 Theora와 [52]WebM/VP8 모두 개방형 [53]형식만 사용할 수 있도록 지원한다고 발표했다.

2012년 3월 18일, Mozilla는 H.264 인코딩 비디오의 보급과 이러한 [54]장치에서 공통적인 전용 H.264 디코더 하드웨어를 사용하는 전력 효율이 향상되었기 때문에 모바일 장치에서 파이어폭스의 H.264를 지원한다고 발표했습니다.2013년 2월 20일 Mozilla는 Firefox에서 Windows 7 이상에서 H.264를 디코딩하는 지원을 구현했습니다.이 기능은 Windows의 내장 [55]디코딩 라이브러리에 의존합니다.2015년 1월 13일에 출시된 Firefox 35.0은 OS X 10.6 [56]이상에서 H.264를 지원합니다.

2013년 10월 30일 시스코 시스템즈Rowan Trolope는 Simplified BSD 라이선스OpenH264라고 불리는 H.264 비디오코덱의 바이너리와 소스 코드를 모두 출시하고 시스코의 프리 컴파일된 바이너리를 사용하는 소프트웨어 프로젝트의 MPEG LA에 대한 사용료를 전액 지불하여 시스코의 오픈H264 바이너리를 무료화한다고 발표했습니다.단, 바이너리 대신 시스코의 소스 코드를 사용하는 소프트웨어 프로젝트는 MPEG LA에 대한 모든 로열티를 지불할 법적 책임이 있습니다.대상 CPU 아키텍처에는 x86 및 ARM이 포함되며 대상 운영 체제에는 Linux, Windows XP 이상, Mac OS X 및 Android가 포함됩니다. iOS는 응용 프로그램이 인터넷에서 [57][58][59]바이너리 모듈을 가져와 설치할 수 없기 때문에 이 목록에서 제외되었습니다.또한 2013년 10월 30일 MozillaBrendan Eich는 플랫폼 코덱을 사용할 [60]수 없는 Firefox에 H.264 지원을 추가하기 위해 향후 Firefox 버전에서 시스코의 바이너리를 사용할 것이라고 썼다.시스코는 2013년 [61]12월 9일에 OpenH264에 소스 코드를 공개했습니다.

2013년 Cisco 소프트웨어 릴리스에서는 iOS가 지원되지 않았지만, Apple은 하드웨어 기반 H.264/AVC 비디오 인코딩 및 [58]디코딩에 직접 액세스할 수 있도록 Video Toolbox Framework를 iOS 8(2014년 9월 출시)로 업데이트했습니다.

소프트웨어 인코더

AVC 소프트웨어의 실장
특징 Quick Time(Quick Time) 네로 오픈H264 x264 메인-
개념.
엘레카드 TSE 찬성하다
코드
아비보 요소 IPP
B 슬라이스 네. 네. 네. 네. 네. 네. 네. 네. 아니요. 네. 네.
다중 참조 프레임 네. 네. 네. 네. 네. 네. 네. 네. 아니요. 네. 네.
인터레이스 부호화(PicAFF, MBAFF) 아니요. MBAFF MBAFF MBAFF 네. 네. 아니요. 네. MBAFF 네. 아니요.
CABAC 엔트로피 부호화 네. 네. 네. 네. 네. 네. 네. 네. 아니요. 네. 네.
8×8 대 4×4 변환 적응성 아니요. 네. 네. 네. 네. 네. 네. 네. 아니요. 네. 네.
양자화 스케일링 매트릭스 아니요. 아니요. 네. 네. 네. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.
CBR C의 개별 QP 제어 아니요. 아니요. 네. 네. 네. 네. 아니요. 아니요. 아니요. 아니요. 아니요.
확장 채도 형식 아니요. 아니요. 아니요. 4:0:0:0[62]
4:2:0
4:2:2[63]
4:4:4[64]:4
4:2:2 4:2:2 4:2:2 아니요. 아니요. 4:2:0
4:2:2
아니요.
최대 샘플 깊이(비트) 8 8 8 10개[65] 10 8 8 8 8 10 12
예측 무손실 부호화 아니요. 아니요. 아니요. 네, 그렇습니다[66]. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요. 아니요.

하드웨어

H.264 부호화 및 복호화에는 특정 유형의 산술연산에서는 상당한 처리능력이 필요하기 때문에 범용 CPU에서 실행되는 소프트웨어 구현은 일반적으로 전력 효율이 떨어집니다.그러나[when?] 최신 쿼드코어 범용 x86 CPU는 실시간 SD 및 HD 인코딩을 실행할 수 있는 충분한 계산 능력을 갖추고 있습니다.압축 효율은 하드웨어 또는 소프트웨어 구현이 사용되는지 여부가 아니라 비디오 알고리즘 구현에 따라 달라집니다.따라서 하드웨어 기반과 소프트웨어 기반 구현의 차이는 전력 효율, 유연성 및 비용에 있습니다.전력 효율을 향상시키고 하드웨어 폼 팩터를 줄이기 위해 전체 인코딩 또는 디코딩 프로세스 또는 CPU 제어 환경 내에서 가속 지원을 위해 특수 목적 하드웨어를 사용할 수 있습니다.

CPU 기반 솔루션은 훨씬 더 유연하다고 알려져 있습니다.특히 부호화가 여러 포맷, 여러 비트환율 및 해상도(멀티스크린 비디오)에서 동시에 이루어져야 하는 경우, 그리고 컨테이너 포맷 지원 추가 기능, 고급 통합 광고 기능 등을 갖춘 경우 CPU 기반 소프트웨어 솔루션에서는 일반적으로 mu.ch는 동일한 CPU 내에서 여러 동시 인코딩 세션 로드밸런싱을 쉽게 할 수 있습니다.

2011년 1월 CES(Consumer Electronics Show)에서 소개된 2세대 인텔 "Sandy Bridge" Core i3/i5/i7 프로세서는 인텔 Quick Sync [67][68]Video로 알려진 온칩 하드웨어 풀HD H.264 인코더를 제공합니다.

하드웨어 H.264 인코더가 될 수 있는 ASIC또는 FPGA다.

H.264 인코더 기능을 지닌 ASIC인코더 많은 다른 반도체 회사들로부터, 그러나 핵심 설계는 ASIC에 사용되는 전형적으로 한 Chips&amp과 같은 소수의 회사들의 허가를 받았다;이용할 수 있다.Media, 알레그로 DVT, On2(이전에 Hantro, 구글까지 후천적으로 얻은), 상상력 기술, NGCodec.일부 기업이 만든 FPGA및 ASIC제품 군을 가지고 있다.[69]

텍사스 인스트루먼트는 DSPH.264 BP30fps에 1080p인코딩을 수행하는 ARM+DSP코어의 라인을 제조한다.[70]보다 더 제네릭 CPU에 소프트웨어보다 효율적인 것 이 codecs( 있는 고도로 최적화된 DSP코드 구현된다)에 관해서 유연성을 허락합니다.

라이선스

어디서 소프트웨어 알고리즘에 대한 특허권이 유지되는 국가에서는 제품의 H.264/AVC을 사용한다 노점상과 상업적 사용자들은 자신들의 제품 사용은 특허 기술에 대한 특허 라이센스 로열티를 지급할 예정이다.[71]이것은 기본 프로필에도 적용된다.[72]

한 민간 단체 MPEGLA, 어떤 식으로든에 동영상을 표준화 조직과 연계되어 있지 않다,로 알려진 특허 이 표준에 적용 면허증뿐만 아니라 비디오, HEVC과 MPEG-DASH 같은 MPEG-4파트 2에 다른 특허풀, 관리한다.비록 수영장에서 특허의 대부분 파나소닉(1,197 특허), 고도 Kaisha IP브리지(1130특허)과 LG전자가 열린다 그 특허 후지쓰 파나소닉, 소니, 미쓰비시, 애플, 컬럼비아 대학 카이스트, 돌비, 구글, JVC켄우드, LG전자, 마이크로 소프트, NTT도코모, 필립스, 삼성, 샤프, 도시바와 ZTE,[73]을 포함한다.ics(990특허).[74]

8월 26일 2010년, MPEGLA가 로열티는 최종 사용자에게 무료라는 H.264로 인코딩된 인터넷 비디오를 위해 부과될 것이라고 발표했습니다.[75]다른 모든 저작권 사용료 장소에는 H.264을 인코딩할 뿐만 아니라 무료 TV와 가입 채널의 사업자에게 비디오 암호를 해독하다 제품에 대한 로열티 등 남아 있다.[76]그 사용 조건 5블록에 업데이트된다.[77]

이후 이 표준의 첫번째 버전이 2003년 5월(19년 전에)과 가장 일반적으로 사용되는 프로필(고등 프로필)6월 2004년(18년 전), 한 사람이 MPEGLAH.264 수영장에서 미국 특허의 11월 2적어도까지 지속된다는 기준이 만기 될 모든 year,[78]을 적용하는 관련 다수의 특허를 어느 곳에서 완성되었다 완성되었다.030.[79]

퀄컴은 2005년 브로드컴이 H.264 비디오 압축 [80]규격에 준거한 제품을 만들어 자사 특허 2건을 침해했다며 미국 지방법원에 제소했다.2007년 지방법원은 퀄컴이 2003년 [80]5월 H.264 표준이 발표되기 전에 특허들을 JVT에 공개하지 않았기 때문에 특허를 집행할 수 없다고 판결했다.2008년 12월 미국 연방순회항소법원은 지방법원의 특허는 집행불능이지만 집행불능의 범위를 H.264에 준거한 [80]제품으로 한정하라는 명령을 확정했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ MPEG-4, Advanced Video Coding (Part 10) (H.264) (Full draft). Sustainability of Digital Formats. Washington, D.C.: Library of Congress. December 5, 2011. Retrieved December 1, 2021.
  2. ^ "H.264 : Advanced video coding for generic audiovisual services". www.itu.int. Archived from the original on October 31, 2019. Retrieved November 22, 2019.
  3. ^ "Video Developer Report 2018" (PDF). Bitmovin. September 2019.
  4. ^ "Video Developer Report 2019". Bitmovin. September 2019.
  5. ^ "Delivering 8K using AVC/H.264". Mystery Box. Retrieved August 23, 2017.
  6. ^ a b c Wang, Hanli; Kwong, S.; Kok, C. (2006). "Efficient prediction algorithm of integer DCT coefficients for H.264/AVC optimization". IEEE Transactions on Circuits and Systems for Video Technology. 16 (4): 547–552. doi:10.1109/TCSVT.2006.871390. S2CID 2060937.
  7. ^ a b Thomson, Gavin; Shah, Athar (2017). "Introducing HEIF and HEVC" (PDF). Apple Inc. Retrieved August 5, 2019.
  8. ^ a b c Stanković, Radomir S.; Astola, Jaakko T. (2012). "Reminiscences of the Early Work in DCT: Interview with K.R. Rao" (PDF). Reprints from the Early Days of Information Sciences. 60: 17. Retrieved October 13, 2019.
  9. ^ "AVC/H.264 FAQ". www.mpegla.com. Archived from the original on May 7, 2010. Retrieved September 15, 2016.
  10. ^ "H.262 : Information technology — Generic coding of moving pictures and associated audio information: Video". Retrieved April 15, 2007.
  11. ^ ITU-T 웹사이트의 공동 비디오 팀.
  12. ^ "ITU-T Recommendation H.264 (05/2003)". ITU. May 30, 2003. Retrieved April 18, 2013.
  13. ^ "ITU-T Recommendation H.264 (05/2003) Cor. 1 (05/2004)". ITU. May 7, 2004. Retrieved April 18, 2013.
  14. ^ "ITU-T Recommendation H.264 (03/2005)". ITU. March 1, 2005. Retrieved April 18, 2013.
  15. ^ "ITU-T Recommendation H.264 (2005) Cor. 1 (09/2005)". ITU. September 13, 2005. Retrieved April 18, 2013.
  16. ^ a b "ITU-T Recommendation H.264 (2005) Amd. 1 (06/2006)". ITU. June 13, 2006. Retrieved April 18, 2013.
  17. ^ "ITU-T Recommendation H.264 (2005) Amd. 2 (04/2007)". ITU. April 6, 2007. Retrieved April 18, 2013.
  18. ^ "ITU-T Recommendation H.264 (11/2007)". ITU. November 22, 2007. Retrieved April 18, 2013.
  19. ^ "ITU-T Recommendation H.264 (2007) Cor. 1 (01/2009)". ITU. January 13, 2009. Retrieved April 18, 2013.
  20. ^ a b "ITU-T Recommendation H.264 (03/2009)". ITU. March 16, 2009. Retrieved April 18, 2013.
  21. ^ a b "ITU-T Recommendation H.264 (03/2010)". ITU. March 9, 2010. Retrieved April 18, 2013.
  22. ^ a b "ITU-T Recommendation H.264 (06/2011)". ITU. June 29, 2011. Retrieved April 18, 2013.
  23. ^ "ITU-T Recommendation H.264 (01/2012)". ITU. January 13, 2012. Retrieved April 18, 2013.
  24. ^ a b c d "ITU-T Recommendation H.264 (04/2013)". ITU. June 12, 2013. Retrieved June 16, 2013.
  25. ^ a b "ITU-T Recommendation H.264 (02/2014)". ITU. November 28, 2014. Retrieved February 28, 2016.
  26. ^ "ITU-T Recommendation H.264 (02/2016)". ITU. February 13, 2016. Retrieved June 14, 2017.
  27. ^ "ITU-T Recommendation H.264 (10/2016)". ITU. October 14, 2016. Retrieved June 14, 2017.
  28. ^ a b c "ITU-T Recommendation H.264 (04/2017)". ITU. April 13, 2017. See Tables A-1, A-6 and A-7 for the tabulated level-dependent capabilities. Retrieved June 14, 2017.
  29. ^ "H.264: Advanced video coding for generic audiovisual services - Version 26 (Edition 13)". www.itu.int. June 13, 2019. Archived from the original on November 3, 2021. Retrieved November 3, 2021.
  30. ^ "H.264: Advanced video coding for generic audiovisual services - Version 27 (Edition 14)". www.itu.int. August 22, 2021. Archived from the original on November 3, 2021. Retrieved November 3, 2021.
  31. ^ a b "AVC/H.264 – Patent List" (PDF). MPEG LA. Retrieved July 6, 2019.
  32. ^ "AVC/H.264 Licensors". MPEG-LA. Archived from the original on May 30, 2015. Retrieved May 19, 2013.
  33. ^ Wenger; et al. (February 2005). "RFC 3984 : RTP Payload Format for H.264 Video": 2. {{cite journal}}:Cite 저널 요구 사항 journal=(도움말)
  34. ^ "Which recording mode is equivalent to the image quality of the High Definition Video (HDV) format?". Sony eSupport. Archived from the original on November 9, 2017. Retrieved December 8, 2018.
  35. ^ "ATSC Standard A/72 Part 1: Video System Characteristics of AVC in the ATSC Digital Television System" (PDF). Archived from the original (PDF) on August 7, 2011. Retrieved July 30, 2011.
  36. ^ "ATSC Standard A/72 Part 2: AVC Video Transport Subsystem Characteristics" (PDF). Archived from the original (PDF) on August 7, 2011. Retrieved July 30, 2011.
  37. ^ "ATSC Standard A/153 Part 7: AVC and SVC Video System Characteristics" (PDF). Archived from the original (PDF) on July 26, 2011. Retrieved July 30, 2011.
  38. ^ a b "Sony introduces new XAVC recording format to accelerate 4K development in the professional and consumer markets". Sony. October 30, 2012. Retrieved November 1, 2012.
  39. ^ a b "Sony introduces new XAVC recording format to accelerate 4K development in the professional and consumer markets" (PDF). Sony. October 30, 2012. Retrieved November 1, 2012.[영구 데드링크]
  40. ^ Steve Dent (October 30, 2012). "Sony goes Red-hunting with PMW-F55 and PMW-F5 pro CineAlta 4K Super 35mm sensor camcorders". Engadget. Retrieved November 5, 2012.
  41. ^ "F55 CineAlta 4K the future, ahead of schedule" (PDF). Sony. October 30, 2012. Archived from the original (PDF) on November 19, 2012. Retrieved November 1, 2012.
  42. ^ "Ultra-fast "SxS PRO+" memory cards transform 4K video capture". Sony. Archived from the original on March 8, 2013. Retrieved November 5, 2012.
  43. ^ "Ultra-fast "SxS PRO+" memory cards transform 4K video capture" (PDF). Sony. Archived from the original (PDF) on April 2, 2015. Retrieved November 5, 2012.
  44. ^ Kwon, Soon-young; Lee, Joo-kyong; Chung, Ki-dong (2005). "Half-Pixel Correction for MPEG-2/H.264 Transcoding". Image Analysis and Processing – ICIAP 2005. Lecture Notes in Computer Science. Springer Berlin Heidelberg. 3617: 576–583. doi:10.1007/11553595_71. ISBN 978-3-540-28869-5.
  45. ^ Britanak, Vladimir; Yip, Patrick C.; Rao, K. R. (2010). Discrete Cosine and Sine Transforms: General Properties, Fast Algorithms and Integer Approximations. Elsevier. pp. ix, xiii, 1, 141–304. ISBN 9780080464640.
  46. ^ "The H.264/AVC Advanced Video Coding Standard: Overview and Introduction to the Fidelity Range Extensions" (PDF). Retrieved July 30, 2011.
  47. ^ a b c RFC 3984, 페이지 3
  48. ^ Apple Inc. (March 26, 1999). "H.264 FAQ". Apple. Archived from the original on March 7, 2010. Retrieved May 17, 2010.
  49. ^ Karsten Suehring. "H.264/AVC JM Reference Software Download". Iphome.hhi.de. Retrieved May 17, 2010.
  50. ^ "TS 101 154 – V1.9.1 – Digital Video Broadcasting (DVB); Specification for the use of Video and Audio Coding in Broadcasting Applications based on the MPEG-2 Transport Stream" (PDF). Retrieved May 17, 2010.
  51. ^ "Decoding the HTML 5 video codec debate". Ars Technica. July 6, 2009. Retrieved January 12, 2011.
  52. ^ "Steve Ballmer, CEO Microsoft, interviewed at Gartner Symposium/ITxpo Orlando 2010". Gartnervideo. November 2010. Archived from the original on October 30, 2021. Retrieved January 12, 2011.
  53. ^ "HTML Video Codec Support in Chrome". January 11, 2011. Retrieved January 12, 2011.
  54. ^ "Video, Mobile, and the Open Web". March 18, 2012. Retrieved March 20, 2012.
  55. ^ "WebRTC enabled, H.264/MP3 support in Win 7 on by default, Metro UI for Windows 8 + more – Firefox Development Highlights". hacks.mozilla.org. mozilla. February 20, 2013. Retrieved March 15, 2013.
  56. ^ "Firefox — Notes (35.0)". Mozilla.
  57. ^ "Open-Sourced H.264 Removes Barriers to WebRTC". October 30, 2013. Archived from the original on July 6, 2015. Retrieved November 1, 2013.
  58. ^ a b "Cisco OpenH264 project FAQ". Retrieved September 26, 2021.
  59. ^ "OpenH264 Simplified BSD License". GitHub. October 27, 2013. Retrieved November 21, 2013.
  60. ^ "Video Interoperability on the Web Gets a Boost From Cisco's H.264 Codec". October 30, 2013. Retrieved November 1, 2013.
  61. ^ "Updated README · cisco/openh264@59dae50". GitHub.
  62. ^ "x264 4:0:0(단색) 인코딩 지원", Retrieve 2019-06-05.
  63. ^ "x264 4:2:2 인코딩 지원", Retrieve 2019-06-05.
  64. ^ "x264 4:4:4 인코딩 지원", Retrieve 2019-06-05.
  65. ^ "9비트10비트 인코딩에 대한 x264 지원", 2011-06-22를 취득했습니다.
  66. ^ "x264는 High 4:4:4:4 프로파일을 High 4:4:4 Predictive로 대체", 2011-06-22를 취득했습니다.
  67. ^ "Quick Reference Guide to generation Intel Core Processor Built-in Visuals". Intel Software Network. October 1, 2010. Retrieved January 19, 2011.
  68. ^ "Intel Quick Sync Video". www.intel.com. October 1, 2010. Retrieved January 19, 2011.
  69. ^ "Design-reuse.com". Design-reuse.com. January 1, 1990. Retrieved May 17, 2010.
  70. ^ "Category:DM6467 - Texas Instruments Embedded Processors Wiki". Processors.wiki.ti.com. July 12, 2011. Archived from the original on July 17, 2011. Retrieved July 30, 2011.
  71. ^ "Briefing portfolio" (PDF). www.mpegla.com.
  72. ^ "OMS Video, A Project of Sun's Open Media Commons Initiative". Archived from the original on May 11, 2010. Retrieved August 26, 2008.
  73. ^ "Licensors Included in the AVC/H.264 Patent Portfolio License". MPEG LA. Retrieved June 18, 2019.
  74. ^ "AVC/H.264 – Patent List" (PDF). MPEG LA. Retrieved July 6, 2019.
  75. ^ "MPEG LA's AVC License Will Not Charge Royalties for Internet Video that is Free to End Users through Life of License" (PDF). MPEG LA. August 26, 2010. Retrieved August 26, 2010.
  76. ^ Hachman, Mark (August 26, 2010). "MPEG LA Cuts Royalties from Free Web Video, Forever". pcmag.com. Retrieved August 26, 2010.
  77. ^ "AVC FAQ". MPEG LA. August 1, 2002. Archived from the original on May 7, 2010. Retrieved May 17, 2010.
  78. ^ "AVC Attachment 1" (PDF). mpegla.com. Retrieved August 1, 2022.
  79. ^ "United States Patent 9,356,620 Baese, et al". Retrieved August 1, 2022. 가장 빠른 우선일이 2001년 9월 14일인 경우 2,998일의 기간 연장이 있습니다.
  80. ^ a b c Qualcomm Inc. v. Broadcom Corp., No. 2007-1545, 2008-1162 (연방정부 Cir. 참조)2008년 12월 1일).인기 언론 기사에 대해서는 signonsandiego.com, "Qualcomm의 특허권 소송 패소" 및 "Qualcomm의 특허 소송은 배심원들에게 돌아간다" 및 bloomberg.com "Broadcom이 Qualcomm 특허 분쟁에서 첫 번째 재판 승소"를 참조하십시오.

추가 정보

외부 링크