액티브 러닝(기계학습)
Active learning (machine learning)| 시리즈의 일부 |
| 기계 학습 및 데이터 마이닝 |
|---|
액티브 러닝은 학습 알고리즘이 사용자(또는 다른 정보원)에게 대화식으로 쿼리하여 원하는 [1][2][3]출력으로 새로운 데이터 포인트에 라벨을 붙일 수 있는 머신 러닝의 특수한 경우입니다.통계 자료에서는 최적 실험 [4]설계라고도 합니다.정보원은 teacher 또는 oracle이라고도 합니다.
라벨이 부착되지 않은 데이터는 풍부하지만 수동 라벨링은 비용이 많이 드는 경우가 있습니다.이러한 시나리오에서는 학습 알고리즘이 사용자/교사에게 라벨을 적극적으로 문의할 수 있습니다.이런 유형의 반복적인 지도 학습은 능동 학습이라고 불립니다.학습자가 예를 선택하기 때문에 개념을 학습하기 위한 예제의 수는 일반적인 지도 학습에 필요한 수보다 훨씬 적을 수 있습니다.이 접근방식에서는 알고리즘이 비정보적인 예에 압도될 위험이 있습니다.최근 개발은 단일 패스([7]온라인) 컨텍스트에서 다중 라벨 능동 학습,[5] 하이브리드 능동[6] 학습 및 능동 학습에 전념하며, 기계 학습 분야(예: 충돌 및 무지)의 개념을 온라인 기계 학습 분야의 적응형 증분 학습 정책과 결합한다.
대규모 능동 학습 프로젝트는 능동 학습 루프에 많은 인간을 포함하는 Amazon Mechanical Turk와 같은 크라우드 소싱 프레임워크로부터 이익을 얻을 수 있습니다.
정의들
T를 고려 중인 모든 데이터의 총 집합으로 합니다.예를 들어, 단백질 공학적 문제에서, T는 특정한 흥미로운 활성을 가지고 있는 것으로 알려진 모든 단백질과 그 활성을 위해 테스트하기를 원할 수 있는 모든 추가 단백질을 포함할 것이다.
각 반복 중에 i, T는 3개의 서브셋으로 분할됩니다.
- K, \ \{ { , : 라벨이 알려진 데이터 포인트.
- U, \ \{ { , : 라벨을 알 수 없는 데이터 포인트.
- [ , i \ \{ T}{ , i ] :을 붙이도록 선택된T의U,i 서브셋.
현재 대부분의 능동적 학습 연구는 T에C,i 대한 데이터 포인트를 선택하는 최선의 방법을 포함한다.
시나리오
- 멤버십 쿼리 합성:여기서 학습자는 기본적인 자연 분포로부터 자신의 인스턴스를 생성합니다.예를 들어, 데이터 세트가 인간과 동물의 사진인 경우 학습자는 선생님에게 잘린 다리 이미지를 전송하고 이 부속물이 동물인지 인간의 것인지 질문할 수 있습니다.이것은 데이터 집합이 [8]작은 경우에 특히 유용합니다.
- 풀 기반 샘플링:이 시나리오에서는 전체 데이터 풀에서 인스턴스를 추출하여 학습자가 데이터를 얼마나 잘 "이해"하는지를 측정하는 신뢰도 점수를 할당합니다.그런 다음 시스템은 가장 신뢰도가 낮은 인스턴스를 선택하고 선생님에게 라벨을 조회합니다.
- 스트림 기반 선택적 샘플링:여기서 라벨이 부착되지 않은 각 데이터 포인트는 그 쿼리 파라미터에 대해 각 항목의 정보성을 평가하는 기계와 함께 한 번에 하나씩 검사된다.학습자는 각 데이터 포인트에 대해 라벨을 할당할지 또는 교사에게 질의할지 스스로 결정합니다.
쿼리 전략
라벨을 붙여야 하는 데이터 포인트를 결정하기 위한 알고리즘은 목적에 [1]따라 다음과 같은 여러 범주로 분류할 수 있습니다.
- 탐색과 이용의 균형: 라벨을 붙일 예를 선택하는 것은 탐색과 데이터 공간 표현에 대한 이용 사이의 딜레마로 간주됩니다.이 전략은 능동 학습 문제를 상황별 밴디트 문제로 모델링하여 이러한 절충안을 관리합니다.예를 들어 Bouneffouf [9]등은 Active Thompson Sampling(ATS)이라는 순차 알고리즘을 제안합니다.이 알고리즘은 각 라운드에서 풀에 표본 분포를 할당하고 이 분포에서 한 점을 표본으로 추출한 다음 이 표본 점 레이블에 대해 오라클을 쿼리합니다.
- 예상되는 모형 변경: 현재 모형을 가장 많이 변경하는 점에 레이블을 지정합니다.
- 예상 오차 감소: 모형의 일반화 오차를 가장 많이 줄일 수 있는 점에 레이블을 지정합니다.
- 능동적 [10]학습을 위한 지수 경사 탐색:본 논문에서 저자는 최적의 무작위 탐사로 모든 능동적 학습 알고리즘을 개선할 수 있는 지수 경사(EG)-액티브라는 순차적 알고리즘을 제안한다.
- 불확도 표본 추출: 현재 모델이 정확한 출력에 대해 가장 확실성이 낮은 점에 레이블을 붙입니다.
- 위원회별 질의: 다양한 모델이 현재 라벨이 부착된 데이터에 대해 훈련되고 라벨이 부착되지 않은 데이터에 대한 출력에 투표합니다. "위원회"가 가장 동의하지 않는 점에 대해 라벨을 붙입니다.
- 다양한 하위 공간 또는 [11]파티션에서 쿼리:기본 모델이 트리 포레스트인 경우 리프 노드가 원래 기능 공간의 파티션을 나타낼 수 있습니다(중복).이렇게 하면 라벨을 붙이기 위해 겹치지 않거나 최소한으로 겹치는 파티션에서 인스턴스를 선택할 수 있습니다.
- 분산 감소: 오차의 성분 중 하나인 출력 분산을 최소화하는 점에 레이블을 지정합니다.
- 적합 예측 변수:이 방법에서는 새 데이터 점이 특정 방식으로 이전 데이터 점과 유사한 레이블을 가질 것으로 예측하고 이전 예제 내의 유사성 정도를 사용하여 [12]예측의 신뢰도를 추정합니다.
- 불일치-최초 가장 먼-횡단:주요 선택 기준은 현재 모델과 가장 가까운 이웃 예측 사이의 예측 불일치이다.잘못 예측된 데이터 포인트를 대상으로 합니다.두 번째 선택 기준은 이전에 선택한 데이터까지의 거리이며, 가장 먼 데이터부터입니다.선택한 [13]데이터의 다양성을 최적화하는 것을 목표로 합니다.
- 사용자 중심 라벨링 전략:산란도와 같은 그래프와 그림에 차원 축소를 적용하여 학습을 수행한다.그런 다음 사용자는 준수된 데이터(범주적, 숫자적, 점수 관련성,[14] 두 인스턴스 간의 관계)에 레이블을 지정하도록 요구됩니다.
이러한 [1][4]범주에 속하는 다양한 알고리즘이 연구되어 왔다.
최소 한계 하이퍼플레인
일부 액티브 러닝 알고리즘은 Support-Vector Machine(SVM; 지원 벡터 머신)을 기반으로 구축되어 SVM의 구조를 이용하여 라벨을 붙일 데이터 포인트를 결정합니다.이러한 방법은 일반적으로 T에서U,i 라벨이 부착되지 않은 각 기준의 여유 W를 계산하고 W를 해당 기준에서 분리 초평면까지의 n차원 거리로 취급한다.
최소 한계 하이퍼플레인 방법은 W가 가장 작은 데이터가 SVM이 가장 불확실하기 때문에 라벨을 붙이기 위해 T에C,i 배치해야 한다고 가정합니다.Maximum Merginary Hyperplane과 같은 다른 유사한 방법에서는 W가 가장 큰 데이터를 선택합니다.트레이드오프 방법에서는 가장 작은 W와 가장 큰 W를 혼합하여 선택합니다.
「 」를 참조해 주세요.
메모들
- ^ a b c Settles, Burr (2010). "Active Learning Literature Survey" (PDF). Computer Sciences Technical Report 1648. University of Wisconsin–Madison. Retrieved 2014-11-18.
{{cite journal}}:Cite 저널 요구 사항journal=(도움말) - ^ Rubens, Neil; Elahi, Mehdi; Sugiyama, Masashi; Kaplan, Dain (2016). "Active Learning in Recommender Systems". In Ricci, Francesco; Rokach, Lior; Shapira, Bracha (eds.). Recommender Systems Handbook (PDF) (2 ed.). Springer US. doi:10.1007/978-1-4899-7637-6. hdl:11311/1006123. ISBN 978-1-4899-7637-6. S2CID 11569603.
- ^ Das, Shubhomoy; Wong, Weng-Keen; Dietterich, Thomas; Fern, Alan; Emmott, Andrew (2016). "Incorporating Expert Feedback into Active Anomaly Discovery". In Bonchi, Francesco; Domingo-Ferrer, Josep; Baeza-Yates, Ricardo; Zhou, Zhi-Hua; Wu, Xindong (eds.). IEEE 16th International Conference on Data Mining. IEEE. pp. 853–858. doi:10.1109/ICDM.2016.0102. ISBN 978-1-5090-5473-2. S2CID 15285595.
- ^ a b Olsson, Fredrik (April 2009). "A literature survey of active machine learning in the context of natural language processing". SICS Technical Report T2009:06.
{{cite journal}}:Cite 저널 요구 사항journal=(도움말) - ^ Yang, Bishan; Sun, Jian-Tao; Wang, Tengjiao; Chen, Zheng (2009). "Effective multi-label active learning for text classification" (PDF). Proceedings of the 15th ACM SIGKDD international conference on Knowledge discovery and data mining - KDD '09. p. 917. CiteSeerX 10.1.1.546.9358. doi:10.1145/1557019.1557119. ISBN 978-1-60558-495-9. S2CID 1979173.
- ^ Lughofer, Edwin (February 2012). "Hybrid active learning for reducing the annotation effort of operators in classification systems". Pattern Recognition. 45 (2): 884–896. Bibcode:2012PatRe..45..884L. doi:10.1016/j.patcog.2011.08.009.
- ^ Lughofer, Edwin (2012). "Single-pass active learning with conflict and ignorance". Evolving Systems. 3 (4): 251–271. doi:10.1007/s12530-012-9060-7. S2CID 43844282.
- ^ Wang, Liantao; Hu, Xuelei; Yuan, Bo; Lu, Jianfeng (2015-01-05). "Active learning via query synthesis and nearest neighbour search" (PDF). Neurocomputing. 147: 426–434. doi:10.1016/j.neucom.2014.06.042. S2CID 3027214.
- ^ Bouneffouf, Djallel; Laroche, Romain; Urvoy, Tanguy; Féraud, Raphael; Allesiardo, Robin (2014). "Contextual Bandit for Active Learning: Active Thompson". In Loo, C. K.; Yap, K. S.; Wong, K. W.; Teoh, A.; Huang, K. (eds.). Neural Information Processing (PDF). Lecture Notes in Computer Science. Vol. 8834. pp. 405–412. doi:10.1007/978-3-319-12637-1_51. ISBN 978-3-319-12636-4. S2CID 1701357. HAL Id: hal-01069802.
- ^ Bouneffouf, Djallel (8 January 2016). "Exponentiated Gradient Exploration for Active Learning". Computers. 5 (1): 1. arXiv:1408.2196. doi:10.3390/computers5010001. S2CID 14313852.
- ^ "shubhomoydas/ad_examples". GitHub. Retrieved 2018-12-04.
- ^ Makili, Lázaro Emílio; Sánchez, Jesús A. Vega; Dormido-Canto, Sebastián (2012-10-01). "Active Learning Using Conformal Predictors: Application to Image Classification". Fusion Science and Technology. 62 (2): 347–355. doi:10.13182/FST12-A14626. ISSN 1536-1055. S2CID 115384000.
- ^ Zhao, Shuyang; Heittola, Toni; Virtanen, Tuomas (2020). "Active learning for sound event detection". IEEE/ACM Transactions on Audio, Speech, and Language Processing. arXiv:2002.05033.
- ^ Bernard, Jürgen; Zeppelzauer, Matthias; Lehmann, Markus; Müller, Martin; Sedlmair, Michael (June 2018). "Towards User-Centered Active Learning Algorithms". Computer Graphics Forum. 37 (3): 121–132. doi:10.1111/cgf.13406. ISSN 0167-7055. S2CID 51875861.