증강 알고리즘 학습

Learning augmented algorithm

학습 증강 알고리즘은 성능을 향상시키기 [1]위해 예측을 사용할 수 있는 알고리즘입니다.일반 알고리즘에서는 문제 인스턴스만 입력되는 반면, 학습 증강 알고리즘은 추가 매개 변수를 받아들입니다.이 추가 매개변수는 종종 솔루션의 일부 속성을 예측합니다.이 예측은 알고리즘에 의해 실행 시간 또는 출력 품질을 개선하기 위해 사용됩니다.

묘사

학습 증강 알고리즘은 일반적으로 입력 { {\ 을 받습니다.서 I {I 문제 인스턴스이고, A는 최적의 솔루션의 특정 특성에 대한 예측입니다.문제 인스턴스의 유형과 예측은 알고리즘에 따라 달라집니다.증강 알고리즘 학습은 일반적으로 다음 두 가지 속성을 충족합니다.

  • 일관성.학습 증강 알고리즘은 정확한 [1]예측이 제공되었을 때 양호한 성능을 증명할 수 있다면 일관성이 있다고 한다.일반적으로 이 값은 예측의 오차에 따라 달라지는 성능에 대한 경계를 부여하여 정량화됩니다.
  • 견고성주어진 예측이 [1]부정확하더라도 최악의 경우 성능을 제한할 수 있는 알고리즘은 로버스트(robustrobust라고 부릅니다.

증강 알고리즘을 학습하는 것은 일반적으로 예측이 어떻게 수행되어야 하는지 규정하지 않는다.이를 위해 기계 학습[citation needed]사용할 수 있습니다.

바이너리 검색

바이너리 검색 알고리즘은 정렬된 1, (\n})의 요소를 찾기 위한 알고리즘입니다.\ O 길이가 nn인 목록에서 값을 요소를 찾으려면 O ( n 스텝이 합니다.에 대한 ii를 사용하면 다음과 같은 학습 증강 알고리즘을 사용할 [1]수 있습니다.

  • 우선, 리스트의 확인합니다 i 가 발견되었습니다
  • i < \ { i} < 、 i + i + { i + 1 + 2 i +, \}의 i + , + 2, i + 4, … { \ .
    • 서 x i x (\ 바이너리 검색을 수행합니다.
  • i> \ x { }> 、 do i - i - ( \ ,, , \ 를 고려합니다.

오류는 i - i ( \ =i - * 로 정의됩니다. 서 i { \ i^ { * }는 인덱스입니다.학습 증강 알고리즘에서 +,i +, i + { + 1 + i + i + 2 , i + 4} , 4 , 4} } 、 4 。\ ( \} (\eta)} 스텝을 합니다.으로 최대 의 크기 목록 2에서 바이너리 검색이 실행됩니다. 검색에는 ( ) \ _ 2} ( \)스텝이 합니다.이것에 의해, 2의 합계 실행 시간이「」( 「 2 _가 됩니다.따라서, 에러가 작을 경우, 알고리즘은 통상의 바이너리 검색보다 고속이 됩니다.이것은 알고리즘이 일치함을 나타냅니다.최악의 경우에도 오류는 nn입니다다음으로 알고리즘은 O ( O 스텝을 실행하므로 알고리즘은 견고합니다.

기타 예

학습 증강 알고리즘은 다음과 같은 용도로 알려져 있습니다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ a b c d Mitzenmacher, Michael; Vassilvitskii, Sergei (31 December 2020). "Algorithms with Predictions". Beyond the Worst-Case Analysis of Algorithms. Cambridge University Press. pp. 646–662. arXiv:2006.09123. doi:10.1017/9781108637435.037.
  2. ^ Wang, Shufan; Li, Jian; Wang, Shiqiang (2020). "Online Algorithms for Multi-shop Ski Rental with Machine Learned Advice". NIPS'20: Proceedings of the 34th International Conference on Neural Information Processing Systems. arXiv:2002.05808. ISBN 1-71382-954-1. OCLC 1263313383.
  3. ^ Dinitz, Michael; Im, Sungjin; Lavastida, Thomas; Benjamin, Benjamin; Vassilvitskii, Sergei (2021). "Faster Matchings via Learned Duals". Advances in Neural Information Processing Systems (PDF). Curran Associates, Inc.
  4. ^ Bansal, Nikhil; Coester, Christian; Kumar, Ravi; Purohit, Manish; Vee, Erik (January 2022). "Learning-Augmented Weighted Paging". Proceedings of the 2022 Annual ACM-SIAM Symposium on Discrete Algorithms (SODA). Society for Industrial and Applied Mathematics. pp. 67–89. doi:10.1137/1.9781611977073.4.

외부 링크