광학 음악 인식
Optical music recognition광학음악인식(OMR)은 문서로 된 음악 표기법을 계산적으로 읽는 방법을 연구하는 연구 분야다.[1]OMR의 목표는 컴퓨터가 악보를 읽고 해석할 수 있도록 가르치고, 악보를 기계적으로 읽을 수 있는 버전을 제작하는 것이다.디지털로 캡처되면 음악은 일반적으로 사용되는 파일 형식(예: 재생용 MIDI)과 MusicXML(페이지 레이아웃용)으로 저장할 수 있다.과거에 그것은 오해의 소지가 있는 말로 "음악 광학 문자 인식"이라고도 불렸다.상당한 차이로 인해 이 용어는 더 이상 사용되지 않아야 한다.[2]
역사
인쇄된 악보에 대한 광학 음악 인지도는 1960년대 후반 매사추세츠 공과대학에서 시작되었는데, 그 때 최초의 이미지 스캐너가 연구 기관에게 적합하게 되었다.[3][4][5]초기 컴퓨터에 대한 제한된 기억력 때문에, 첫 번째 시도는 음악의 몇 가지 척도로 제한되었다.1984년 와세다 대학의 일본 연구진이 WABOT(WASEDa roB)라는 전문 로봇을 개발했다.앞에 놓인 악보를 읽고 가수를 전기 오르간으로 동행시킬 수 있었던 OT).[6][7]
OMR의 초기 연구는 후지나가 이치로, 니콜라스 카터, 기아 응, 데이비드 베인브리지, 팀 벨에 의해 수행되었다.이 연구원들은 오늘날에도 여전히 사용되고 있는 많은 기술들을 개발했다.
최초의 상업용 OMR 어플리케이션인 MIDISCAN(현 스마트스코어)은 1991년 뮤시텍에 의해 출시되었다.
카메라가 좋고 계산력이 충분한 스마트폰의 가용성은 사용자가 스마트폰으로 사진을 찍고 기기가 직접 이미지를 처리하는 모바일 솔루션으로 가는 길을 닦았다.
다른 필드와의 관계
광학 음악 인식은 컴퓨터 비전, 문서 분석, 음악 정보 검색 등 다른 연구 분야와 관련이 있다.OMR 시스템을 이용하여 음악을 컴퓨터에 입력하여 작곡, 작사, 편집 등의 과정을 용이하게 할 수 있는 음악가와 작곡가 연습과 관련이 있다.도서관에서, OMR 시스템은 음악 점수를 검색[8] 가능하게 만들 수 있고 음악학자의 경우 규모에 따라 정량적인 음악학 연구를 수행할 수 있게 할 수 있다.[9]
OMR 대 OCR
광학 음악 인식은 광학 문자 인식과 자주 비교되어 왔다.[2][10][11]가장 큰 차이점은 음악 표기법이 공훈적 문자 체계라는 점이다.이는 알파벳이 잘 정의된 원시적 요소(예: 줄기, 노트헤드 또는 깃발)로 구성되지만, 의미론을 결정하고 해석해야 하는 것은 그들의 구성(예: 줄기, 노트헤드 또는 깃발)이다.
두 번째 주요 차이점은 OCR 시스템이 글자와 단어를 인식하는 것을 넘어서지는 않지만 OMR 시스템은 또한 음악의 의미도 회복할 것으로 기대된다는 사실이다.사용자는 음표(그래픽 개념)의 수직적 위치(그래픽 개념)가 음악 표기법 규칙을 적용하여 음표(뮤지컬 개념)로 번역되고 있을 것으로 기대하고 있다.텍스트 인식에는 적절한 동등성이 없다는 점에 유의하십시오.유사하게, 음악 시트의 이미지에서 음악을 복구하는 것은 웹사이트 스크린샷에서 HTML 소스 코드를 복구하는 것만큼 어려울 수 있다.
세 번째 차이점은 사용된 문자 집합에서 나온다.중국어와 같은 쓰기 시스템은 매우 복잡한 문자 집합을 가지고 있지만, OMR에 대한 원소 집합은 점과 같은 작은 요소부터 가새와 같은 전체 페이지에 걸쳐 있는 큰 요소에 이르기까지 훨씬 더 광범위한 크기에 걸쳐 있다.어떤 기호는 슬러와 같이 거의 제한되지 않은 외형을 가지고 있는데, 이는 어느 곳에서나 중단될 수 있는 다소 부드러운 곡선으로만 정의된다.
마지막으로, 음악 표기법은 유비쿼터스 2차원 공간 관계를 수반하는 반면, 텍스트는 일단 기준선이 확립되면 1차원 정보의 흐름으로 읽을 수 있다.
OMR에 대한 접근 방식

음악적 점수를 인식하는 과정은 일반적으로 전문적인 패턴 인식 알고리즘으로 처리되는 작은 단계로 세분된다.
대부분의 경쟁적 접근방식은 파이프라인 아키텍처를 공유하면서 제안되어 왔으며, 이 파이프라인의 각 단계는 다음 단계로 넘어가기 전에 직원 라인을 탐지하고 제거하는 것과 같은 특정 작업을 수행한다.그 접근방식의 일반적인 문제는 한 단계에서 만들어진 오류와 인공물이 시스템을 통해 전파되어 성능에 큰 영향을 미칠 수 있다는 것이다.예를 들어, 스태프 라인 감지 단계가 음악 스태프의 존재를 정확하게 식별하지 못하면, 후속 단계는 아마도 이미지의 해당 영역을 무시하여 출력물에 정보가 누락되는 결과를 초래할 것이다.
광학 음악 인식은 문제의 겉보기에는 쉬워 보이는 특성 때문에 종종 과소평가된다.타입셋 음악의 완벽한 스캔이 제공된다면, 시각적 인식은 투영과 템플릿 매칭과 같은 상당히 단순한 알고리즘의 시퀀스로 해결할 수 있다.하지만, 그 과정은 많은 시스템들이 완전히 인식하지 못하는, 형편없는 스캔이나 손으로 쓴 음악의 경우 훨씬 더 어려워진다.그리고 모든 기호가 완벽하게 검출되었을지라도, 음악 표기법 규칙의 모호함과 빈번한 위반으로 인해 음악적 의미론을 회복하는 것은 여전히 어려운 일이다(쇼팽의 녹턴 예시 참조).도날드 버드와 제이콥 시몬슨은 현대 음악 표기법이 극도로 복잡하기 때문에 OMR이 어렵다고 주장한다.[11]
도날드 버드는 또한 음악 표기법의 순전히 복잡함을 보여주는 음악 표기법의 극단적인 예뿐만[13] 아니라 많은 흥미로운 예들을[12] 수집했다.
OMR 시스템 출력
OMR 시스템의 대표적인 어플리케이션으로는 음악 점수의 청각적 버전(재생성이라고 한다)을 만드는 것이 있다.그러한 버전을 만드는 일반적인 방법은 오디오 파일로 합성될 수 있는 MIDI 파일을 생성하는 것이다.그러나 MIDI 파일은 판화 정보(노트가 배열된 방법)나 완전하지 않은 철자를 저장할 수 없다.
인간의 가독성(재인쇄성)을 목표로 음악 점수를 인정받으면 레이아웃과 판화에 대한 정확한 정보가 포함된 구조화된 인코딩을 회수해야 한다.이 정보를 저장하기에 적합한 형식으로는 MEI와 MusicXML이 있다.
이 두 애플리케이션 외에도, 이미지에서 메타데이터를 추출하거나 검색을 활성화하는 것도 흥미로울 수 있다.처음 두 응용 프로그램과 대조적으로, 낮은 수준의 음악 점수는 이러한 작업을 수행하기에 충분할 수 있다.
일반 프레임워크(2001)
2001년 데이비드 베인브리지와 팀 벨이 OMR의 도전에 관한 연구서를 발표하여, 이전의 연구를 검토하고 OMR에 대한 일반적인 틀을 추출하였다.[10]그들의 틀은 2001년 이후 개발된 많은 시스템에 의해 사용되어 왔다.이 프레임워크는 사물의 시각적 감지를 크게 강조하는 4개의 뚜렷한 단계를 가지고 있다.그들은 사용된 연산이 출력 형식에 특수했기 때문에, 음악적 의미론의 재구성이 출판된 기사에서 종종 누락된다는 것을 알아챘다.
정제된 프레임워크(2012년)
2012년 아나 레베노 등은 광학 음악 인식 기법을 조사했다.[14]그들은 발표된 연구를 분류하고 OMR 파이프라인을 사전 처리, 음악 기호 인식, 음악 표기법 재구성, 최종 표현 구성의 네 단계로 세분화했다.이 프레임워크는 OMR의 사실상의 표준이 되었고 오늘날에도 여전히 사용되고 있다(때로는 약간 다른 용어를 사용하기도 한다).각 블록에 대해, 그들은 그 문제를 해결하기 위해 사용되는 기술에 대한 개요를 제공한다.이 간행물은 2019년 현재 OMR 연구에 대한 가장 많이 인용된 논문이다.
딥러닝(2016년 이후)
딥러닝의 등장으로 많은 컴퓨터 시력 문제가 수공예 휴리스틱스 및 피쳐 엔지니어링을 이용한 필수 프로그래밍에서 머신러닝으로 옮겨갔다.광학 음악 인식에서는 스태프 처리 단계,[15][16] 음악 객체 감지 단계,[17][18][19][20] 음악 표기법 재구성 단계[21] 등이 딥러닝으로 이를 해결하려는 시도가 성공적으로 이뤄졌다.
음악 점수의 이미지를 취하고 인정받은 음악을 단순화된 형식으로 직접 제작하는 시퀀스 대 시퀀스 모델로 OMR을 엔드투엔드 방식으로 해결하는 등 완전히 새로운 접근법도 제시됐다.[22][23][24][25]
주목할 만한 과학 프로젝트
직원 제거 과제
2016년 이전에 개발된 시스템의 경우 직원 감지 및 제거가 중대한 장애물이 되었다.예술의 상태를 개선하고 그 분야를 발전시키기 위해 과학 대회가 조직되었다.[26]우수한 성과와 현대적인 기법으로 인해 인원 감축이 무산되었다.
그러나, 이 도전을 위해 개발된 자유롭게 이용할 수 있는 CVC-MUSCIMA 데이터세트는 50명의 음악가들이 필사한 수기 음악 악보의 고품질 이미지 1000개를 포함하고 있기 때문에 여전히 OMR 연구와 관련이 높다.1000페이지 중 140페이지에 대한 상세한 주석을 수록한 MUSCIMA++ 데이터 집합으로 더욱 확대되었다.
SIMSA
SIMSSA(Single Interface for Music Score Search and Analysis)[27] 프로젝트는 아마도 컴퓨터가 음악적 점수를 인식하고 접근 가능하도록 가르치려는 가장 큰 프로젝트일 것이다.리베르 노네스티스[28], 칸투스 얼티무스 등 여러 하위 프로젝트가 이미 성공적으로 완료되었다.[29]
트롬파
더 풍성한 온라인 음악 공공 도메인 아카이브(TROMPA)는 공공 도메인 디지털 음악 자원의 접근성을 높이는 방법을 조사하는 유럽연합(EU)이 후원하는 국제 연구 프로젝트다.[30]
데이터 집합
OMR 시스템의 개발은 개발 중인 시스템이 다양한 조건에서 작동할 수 있도록 보장하기에 충분한 크기와 다양성의 테스트 데이터셋으로부터 이익을 얻는다.그러나 법적 이유와 잠재적인 저작권 침해로 인해, 그러한 데이터 세트를 컴파일하고 발행하는 것은 어려운 일이다.OMR에 대한 가장 주목할 만한 데이터셋은 OMR 데이터셋 프로젝트에서[31] 참조되고 요약되며,[37] CVC-MUSCIMA,[32] MUSCIMA++,[33] DeepScores,[34] PrIMUS,[35] HOMUS,[36] SEILS 데이터셋뿐만 아니라 유니버설 음악 기호 모음도 포함된다.[38]
프랑스 기업 뉴지크는 무작위 점수 생성을 이용해 OMR 기술 마에스트리아를 개발하면서 다른 접근법을 취했다.[39]합성 데이터를 활용하면 저작권 문제를 피하고 실제 레퍼토리에서 거의 발생하지 않는 음악적 사례에 인공지능 알고리즘을 교육하는 데 도움이 되어 궁극적으로 보다 정확한 음악인식을 이끌어냈다.[40]
소프트웨어
학술 및 오픈 소스 소프트웨어
학계에서는 많은 OMR 프로젝트가 실현되었지만, 그 중 일부만이 성숙 상태에 도달하여 이용자에게 성공적으로 배치되었다.이러한 시스템은 다음과 같다.
상용 소프트웨어
최근 20년 동안 개발된 상용 데스크톱 애플리케이션은 대부분 상업적 성공이 없어 다시 문을 닫아 OMR 제품을 개발, 유지, 판매하고 있는 일부 벤더만 남게 됐다.이들 제품 중 일부는 최대 100%의 정확도로 극도로 높은 인식률을 주장하지만 그 수치가 어떻게 얻었는지 공개하지 않아 이를 검증하고 서로 다른 OMR 시스템을 비교하는 것이 거의 불가능하다.
- 카펠라 스캔[50]
- FORTE by Forte 표기법[51]
- 시스템[52] 구성 및 정렬을 통한 MIDI 연결 스캔
- 나이팅게일과[53] 함께 번들어진 노트스캔
- 미리어드 SARL
- 뉴라트론에[49] 의한 포토스코어 시벨리우스에서는 라이트 버전이 사용되고 포토스코어는 샤프아이 SDK를 사용한다.
- npcImaging에[56] 의한 Scorscan
- Musiteck의 SmartSmartScore.[57]이전에 "MIDISCAN"으로 패키지화됨. (SmartScore Lite는 이전 버전의 Finale에서 사용됨).
- ScanScore[58](Forte Motional(Forte 표기법)의 번들로도 사용 가능)[51]
- 뉴지크의 마에스트리아.[39]2021년 5월 출시된 마에스트리아는 딥러닝을 기반으로 한 신세대 OMR 기술의 한 예다.회사 측은 더 나은 결과를 가져올 뿐만 아니라 "전환할 때마다 더 정확해진다"[59]는 의미도 있다고 주장한다.
모바일 앱
더 나은 카메라와 처리 능력의 증가는 구글 플레이 스토어와 애플 스토어에서 다양한 모바일 애플리케이션을 가능하게 했다.종종 시력 재생(시력 판독 참조)에 초점을 맞추고 있다. - 악보를 장치에서 재생되는 소리로 변환한다.
- iSeeNotes by Gear Up AB[60]
- Neuratron에[61] 의한 NotateMe Now
- 송장별[62] 표기 스캐너
- Organum Ltd의[63] PlayScore 2
- Musiteck별[64] SmartScore 노트Reader
- 뉴지크[65] 앱
참고 항목
- 음악 정보 검색(MIR)은 음악 점수와 오디오를 포함한 미디어에서 음악 정보를 검색하는 광범위한 문제다.
- 광학문자인식(OCR)은 OMR, MIR과 유사하게 문서 검색에 적용할 수 있는 텍스트의 인식이다.그러나 완전한 OMR 시스템은 음악 점수에 존재하는 텍스트를 충실하게 표현해야 하므로, OMR은 사실상 OCR의 상위 집합이다.[10]
참조
- ^ Pacha, Alexander (2019). Self-Learning Optical Music Recognition (PhD). TU Wien, Austria. doi:10.13140/RG.2.2.18467.40484.
- ^ a b Calvo-Zaragoza, Jorge; Hajič, Jan jr.; Pacha, Alexander (2020). "Understanding Optical Music Recognition". ACM Computing Surveys. 53 (4): 1–35. arXiv:1908.03608. doi:10.1145/3397499. S2CID 199543265.
- ^ Optical Music Recognition for Dummies - Part 2 - Introduction and History. youtube.com. YouTube. October 3, 2018. Archived from the original on December 21, 2021. Retrieved June 24, 2021.
- ^ Pruslin, Dennis Howard (1966). Automatic Recognition of Sheet Music (PhD). Massachusetts Institute of Technology, Cambridge, Massachusetts, USA.
- ^ Prerau, David S. (1971). Computer pattern recognition of printed music. Fall Joint Computer Conference. pp. 153–162.
- ^ "WABOT – WAseda roBOT". waseda.ac.jp. Waseda University Humanoid. Retrieved July 14, 2019.
- ^ "Wabot 2". ieee.org. IEEE. Retrieved July 14, 2019.
- ^ Laplante, Audrey; Fujinaga, Ichiro (2016). Digitizing Musical Scores: Challenges and Opportunities for Libraries. 3rd International Workshop on Digital Libraries for Musicology. pp. 45–48.
- ^ Hajič, Jan jr.; Kolárová, Marta; Pacha, Alexander; Calvo-Zaragoza, Jorge (2018). How Current Optical Music Recognition Systems Are Becoming Useful for Digital Libraries. 5th International Conference on Digital Libraries for Musicology. Paris, France. pp. 57–61.
- ^ a b c Bainbridge, David; Bell, Tim (2001). "The challenge of optical music recognition". Computers and the Humanities. 35 (2): 95–121. doi:10.1023/A:1002485918032. S2CID 18602074. Retrieved February 23, 2017.
- ^ a b Byrd, Donald; Simonsen, Jakob Grue (2015). "Towards a Standard Testbed for Optical Music Recognition: Definitions, Metrics, and Page Images". Journal of New Music Research. 44 (3): 169–195. doi:10.1080/09298215.2015.1045424.
- ^ Byrd, Donald (November 2017). "Gallery of Interesting Music Notation". indiana.edu. Retrieved July 14, 2019.
- ^ Byrd, Donald (October 2018). "Extremes of Conventional Music Notation". indiana.edu. Retrieved July 14, 2019.
- ^ Rebelo, Ana; Fujinaga, Ichiro; Paszkiewicz, Filipe; Marcal, Andre R.S.; Guedes, Carlos; Cardoso, Jamie dos Santos (2012). "Optical music recognition: state-of-the-art and open issues" (PDF). International Journal of Multimedia Information Retrieval. 1 (3): 173–190. doi:10.1007/s13735-012-0004-6. S2CID 12964479. Retrieved July 15, 2019.
- ^ Gallego, Antonio-Javier; Calvo-Zaragoza, Jorge (2017). "Staff-line removal with selectional auto-encoders". Expert Systems with Applications. 89: 138–148. doi:10.1016/j.eswa.2017.07.002. hdl:10045/68971.
- ^ Castellanos, Fancisco J.; Calvo-Zaragoza, Jorge; Vigliensoni, Gabriel; Fujinaga, Ichiro (2018). Document Analysis of Music Score Images with Selectional Auto-Encoders (PDF). 19th International Society for Music Information Retrieval Conference. Paris, France. pp. 256–263. Retrieved July 15, 2019.
- ^ Tuggener, Lukas; Elezi, Ismail; Schmidhuber, Jürgen; Stadelmann, Thilo (2018). Deep Watershed Detector for Music Object Recognition (PDF). 19th International Society for Music Information Retrieval Conference. Paris, France. pp. 271–278. Retrieved July 15, 2019.
- ^ Hajič, Jan jr.; Dorfer, Matthias; Widmer, Gerhard; Pecina, Pavel (2018). Towards Full-Pipeline Handwritten OMR with Musical Symbol Detection by U-Nets (PDF). 19th International Society for Music Information Retrieval Conference. Paris, France. pp. 225–232. Retrieved July 15, 2019.
- ^ Pacha, Alexander; Hajič, Jan jr.; Calvo-Zaragoza, Jorge (2018). "A Baseline for General Music Object Detection with Deep Learning". Applied Sciences. 8 (9): 1488–1508. doi:10.3390/app8091488.
- ^ Pacha, Alexander; Choi, Kwon-Young; Coüasnon, Bertrand; Ricquebourg, Yann; Zanibbi, Richard; Eidenberger, Horst (2018). Handwritten Music Object Detection: Open Issues and Baseline Results (PDF). 13th International Workshop on Document Analysis Systems. pp. 163–168. doi:10.1109/DAS.2018.51. Retrieved September 2, 2019.
- ^ Pacha, Alexander; Calvo-Zaragoza, Jorge; Hajič, Jan jr. (2019). Learning Notation Graph Construction for Full-Pipeline Optical Music Recognition. 20th International Society for Music Information Retrieval Conference (in press).
- ^ van der Wel, Eelco; Ullrich, Karen (2017). Optical Music Recognition with Convolutional Sequence-to-Sequence Models (PDF). 18th International Society for Music Information Retrieval Conference. Suzhou, China.
- ^ Calvo-Zaragoza, Jorge; Rizo, David (2018). "End-to-End Neural Optical Music Recognition of Monophonic Scores". Applied Sciences. 8 (4): 606. doi:10.3390/app8040606.
- ^ Baró, Arnau; Riba, Pau; Calvo-Zaragoza, Jorge; Fornés, Alicia (2017). Optical Music Recognition by Recurrent Neural Networks. 14th International Conference on Document Analysis and Recognition. pp. 25–26. doi:10.1109/ICDAR.2017.260.
- ^ Baró, Arnau; Riba, Pau; Calvo-Zaragoza, Jorge; Fornés, Alicia (2019). "From Optical Music Recognition to Handwritten Music Recognition: A baseline". Pattern Recognition Letters. 123: 1–8. Bibcode:2019PaReL.123....1B. doi:10.1016/j.patrec.2019.02.029. hdl:10045/89708. S2CID 127170982.
- ^ Fornés, Alicia; Dutta, Anjan; Gordo, Albert; Lladós, Josep (2013). "The 2012 Music Scores Competitions: Staff Removal and Writer Identification". Graphics Recognition. New Trends and Challenges. Lecture Notes in Computer Science. Springer. 7423: 173–186. doi:10.1007/978-3-642-36824-0_17. ISBN 978-3-642-36823-3.
- ^ "Single Interface for Music Score Searching and Analysis project". simssa.ca. McGill University. Retrieved July 14, 2019.
- ^ "Search the Liber Usualis". liber.simssa.ca. McGill University. Retrieved July 14, 2019.
- ^ "Cantus Ultimus". cantus.simssa.ca. McGill University. Retrieved July 14, 2019.
- ^ "Towards Richer Online Music Public-domain Archives". trompamusic.eu. Retrieved July 14, 2019.
- ^ Pacha, Alexander. "Optical Music Recognition Datasets". github.io. Retrieved July 14, 2019.
- ^ Fornés, Alicia; Dutta, Anjan; Gordo, Albert; Lladós, Josep (2012). "CVC-MUSCIMA: A Ground-truth of Handwritten Music Score Images for Writer Identification and Staff Removal". International Journal on Document Analysis and Recognition. 15 (3): 243–251. doi:10.1007/s10032-011-0168-2. S2CID 17946417.
- ^ Hajič, Jan jr.; Pecina, Pavel (2017). The MUSCIMA++ Dataset for Handwritten Optical Music Recognition. 14th International Conference on Document Analysis and Recognition. Kyoto, Japan. pp. 39–46. doi:10.1109/ICDAR.2017.16.
- ^ Tuggener, Lukas; Elezi, Ismail; Schmidhuber, Jürgen; Pelillo, Marcello; Stadelmann, Thilo (2018). DeepScores – A Dataset for Segmentation, Detection and Classification of Tiny Objects. 24th International Conference on Pattern Recognition. Beijing, China. doi:10.21256/zhaw-4255.
- ^ Calvo-Zaragoza, Jorge; Rizo, David (2018). Camera-PrIMuS: Neural End-to-End Optical Music Recognition on Realistic Monophonic Scores (PDF). 19th International Society for Music Information Retrieval Conference. Paris, France. pp. 248–255. Retrieved July 15, 2019.
- ^ Calvo-Zaragoza, Jorge; Oncina, Jose (2014). Recognition of Pen-Based Music Notation: The HOMUS Dataset. 22nd International Conference on Pattern Recognition. pp. 3038–3043. doi:10.1109/ICPR.2014.524.
- ^ Parada-Cabaleiro, Emilia; Batliner, Anton; Baird, Alice; Schuller, Björn (2017). The SEILS Dataset: Symbolically Encoded Scores in Modern-Early Notation for Computational Musicology (PDF). 18th International Society for Music Information Retrieval Conference. Suzhou, China. pp. 575–581. Retrieved August 12, 2020.
- ^ Pacha, Alexander; Eidenberger, Horst (2017). Towards a Universal Music Symbol Classifier. 14th International Conference on Document Analysis and Recognition. Kyoto, Japan. pp. 35–36. doi:10.1109/ICDAR.2017.265.
- ^ a b "Maestria". newzik.com. Newzik. Retrieved June 24, 2021.
- ^ Apprendre le solfège à des algorithmes avec Marie Chupeau, chercheuse en intelligence artificielle. youtube.com (in French). YouTube. June 21, 2021. Archived from the original on December 21, 2021. Retrieved June 24, 2021.
- ^ "Aruspix". aruspix.net. Retrieved July 15, 2019.
- ^ "Audiveris". github.com. Retrieved July 15, 2019.
- ^ "David Bainbridge (Home Page)". waikato.ac.nz. Retrieved July 15, 2019.
- ^ "Gamera Addon: MusicStaves Toolkit". hsnr.de. Retrieved July 15, 2019.
- ^ Coüasnon, Bertrand (2001). DMOS: a generic document recognition method, application to an automatic generator of musical scores, mathematical formulae and table structures recognition systems. Sixth International Conference on Document Analysis and Recognition. pp. 215–220. doi:10.1109/ICDAR.2001.953786.
- ^ "OpenOMR". sourceforge.net. Retrieved January 26, 2017.
- ^ "Rodan". github.com. Retrieved July 15, 2019.
- ^ "Eighth rest or smudge". capella-software.com. capella-software AG. Retrieved July 15, 2019.
- ^ a b "PhotoScore & NotateMe Ultimate". neuratron.com. Neuratron. Retrieved June 24, 2021.
- ^ "capella-scan". capella-software.com. capella-software AG. Retrieved June 24, 2021.
- ^ a b "FORTE 12 Premium Edition". fortenotation.com. Forte Notation. Retrieved June 24, 2021.
- ^ "MIDI-Connections SCAN 2.1". midi-connections.com. Composing & Arranging Systems. Retrieved June 24, 2021.
- ^ "Nightingale". ngale.com. Adept Music Notation Solutions. January 11, 2008. Retrieved March 30, 2021.
- ^ "OMeR". myriad-online.com. Myriad SARL. Retrieved October 6, 2013.
- ^ "PDFtoMusic Pro". myriad-online.com. Myriad SARL. Retrieved November 13, 2015.
- ^ "ScorScan information". npcimaging.com. NPC Imaging. Retrieved October 6, 2013.
- ^ "SmartScore". musitek.com. Musitek. Retrieved June 24, 2021.
- ^ "ScanScore". scan-score.com. SCANSCORE. Retrieved November 24, 2019.
- ^ Rothman, Philip (May 26, 2021). "Newzik introduces interactive LiveScores with Maestria, AI-based optical music recognition". scoringnotes.com. Scoring Note. Retrieved June 24, 2021.
- ^ "iSeeNotes". iseenotes.com. Geer Up AB. Retrieved June 24, 2021.
- ^ "NotateMe". neuratron.com. Neuratron. Retrieved June 24, 2021.
- ^ "Notation Scanner". apps.apple.com. Apple Inc. Retrieved June 24, 2021.
- ^ "PlayScore 2". playscore.co. PlayScore. Retrieved June 24, 2021.
- ^ "SmartScore NoteReader". play.google.com. Retrieved June 24, 2021.
- ^ "Newzik app". newzik.com. Newzik. Retrieved June 24, 2021.
외부 링크
- ISMIR 2018 자습서 "더미를 위한 광학 음악 인식" 녹음
- 광학 음악 인식: 프로그램 및 과학 논문
- OMR (Optical Music Acception) Systems: OMR 종합표 (Last updated: 2007년 1월 30일)
Wikimedia Commons의 광학 음악 인식 관련 미디어