얼라인먼트의 문제
The Alignment Problem하드커버판 | |
| 작가. | 브라이언 크리스티안 |
|---|---|
| 나라 | 미국 |
| 언어 | 영어 |
| 주제 | AI 제어 문제 |
| 출판인 | W. Norton & Company[1] |
발행일자 | 2020년 10월 6일 |
| 미디어 타입 | 인쇄, 전자책, 오디오북 |
| 페이지 | 496 |
| ISBN | 0393635821 |
| OCLC | 1137850003 |
| 웹 사이트 | brianchristian.org/the-alignment-problem/ |
위치 맞추기 문제: 기계 학습과 인간의 가치(Machine Learning and Human Values)는 미국 작가 브라이언 크리스찬이 쓴 2020년 논픽션 책이다.그것은 인간의 가치와 일치하는 인공지능 시스템, 특히 기계 학습 시스템을 구축하기 위해 노력하는 수많은 전문가들과의 인터뷰를 기반으로 한다.
요약
이 책은 세 개의 섹션으로 나뉘어 있다: 예언, 기관, 그리고 규범성.각 섹션에는 인공지능과 인간의 가치를 연계하는 다양한 과제에 임하는 연구자와 엔지니어가 포함되어 있습니다.
예언
첫 번째 섹션에서 Christian은 인공지능 연구, 특히 Perceptron과 AlexNet과 같은 인공신경망의 기계학습 접근법에 대해 AI 시스템이 의도하지 않은 행동을 할 수 있는 예를 들어 토론한다.그는 범죄 피고들 사이의 재범 예측 도구인 COMPAS 알고리즘에 대한 프로퍼블리카 조사가 정확성과 특정 인구 통계학에 대한 편견에 대한 광범위한 비판을 이끌어낸 저널리스트 줄리아 앵윈의 이야기를 한다.AI의 주요 정렬 과제 중 하나는 블랙박스 특성이다(입력 및 출력은 식별할 수 있지만 그 사이의 변환 프로세스는 결정되지 않음).투명성이 부족하기 때문에 시스템이 어디서 제대로 돌아가고 어디서 잘못되고 있는지 알기 어렵다.
대리점
두 번째 절에서 Christian은 비슷하게 행동주의나 도파민 같은 보상에 대한 심리학적 연구의 역사와 강화 학습의 컴퓨터 과학을 엮는다.이러한 컴퓨터 과학에서는 AI 시스템이 가치 함수('어떤 보상이나 벌을 기대할 것인가')에 직면하여 정책을 개발할 필요가 있다.그는 DeepMind AlphaGo와 AlphaZero 시스템을 "아마도 자동화된 커리큘럼 설계에서 가장 인상적인 성과일 것"이라고 말합니다.그는 또한 강화 학습자가 외부적인 보상만을 추구하기 보다는 본질적으로 자신의 환경을 탐색하도록 동기를 부여하는 호기심의 중요성을 강조한다.
규범성
세 번째 절에서는 인간이나 기계 행동을 모방하여 AI를 훈련시키고 AI 시스템에 대해 다른 이상적인 행동을 암시하는 가능성론과 현실주의 사이의 철학적인 논쟁에 대해 다룬다.특히 중요한 것은 인간이나 다른 에이전트의 객관적인 기능을 학습하기 위한 기계의 광범위한 접근법인 역강화 학습이다.Christian은 가능한 한 효과적으로 정렬 문제를 탐색하기 위한 인간과 기계 전략을 고안하려는 철학자 Toby Ord와 William MacAscill의 작업을 포함하여 효과적인 이타주의와 실존적 위험과 관련된 규범적 도전에 대해 논의합니다.
접수처
그 책은 비평가들로부터 대부분 긍정적인 평가를 받았다.월스트리트 저널의 데이비드 A.샤이비츠는 실제 문제에 [2]알고리즘을 적용할 때 빈번한 문제를 강조한다.퍼블리셔스 위클리는 이 책의 집필과 광범위한 [3]연구에 찬사를 보냈다.
Kirkus Reviews는 이 책을 "기술적으로는 풍부하지만 접근하기 쉬운"[4] 그리고 "인공지능에 대한 흥미로운 탐험"이라고 긍정적인 평가를 내렸다. Virginia Digum은 네이처를 위해 쓴 이 책을 케이트 크로포드의 인공지능 지도책인 "Atlas of AI: Power, Politics, and the Planetic Costs of Artelligent Intelligent Intelligence"[5]와 호의적으로 비교하며 긍정적인 평가를 내렸다.
2021년, 저널리스트 에즈라 클라인은 그의 뉴욕 타임즈 팟캐스트인 에즈라 [6]클라인 쇼에 크리스찬과 만났다.그 해 말, 이 책은 Fast Company의 특집 [7]「올해 Microsoft의 CEO Satya Nadella에게 영감을 준 5권의 책」에 게재되었습니다.
「 」를 참조해 주세요.
레퍼런스
- ^ "The Alignment Problem". W. W. Norton & Company.
- ^ Shaywitz, David (25 October 2020). "'The Alignment Problem' Review: When Machines Miss the Point". The Wall Street Journal. Retrieved 5 December 2021.
- ^ "Nonfiction Book Review: The Alignment Problem: Machine Learning and Human Values by Brian Christian. Norton, $27.95 (356p) ISBN 978-0-393-63582-9". PublishersWeekly.com. Retrieved 20 January 2022.
- ^ THE ALIGNMENT PROBLEM Kirkus Reviews.
- ^ Dignum, Virginia (26 May 2021). "AI — the people and places that make, use and manage it". Nature. 593 (7860): 499–500. Bibcode:2021Natur.593..499D. doi:10.1038/d41586-021-01397-x. S2CID 235216649.
- ^ Klein, Ezra (4 June 2021). "If 'All Models Are Wrong,' Why Do We Give Them So Much Power?". The New York Times. Retrieved 5 December 2021.
- ^ Nadella, Satya (15 November 2021). "5 books that inspired Microsoft CEO Satya Nadella this year". Fast Company. Retrieved 5 December 2021.