슈퍼 인텔리전스: 경로, 위험, 전략

Superintelligence: Paths, Dangers, Strategies
슈퍼 인텔리전스:
경로, 위험, 전략
Superintelligence.jpg
초판
작가.닉 보스트롬
나라영국
언어영어
주제인공지능
장르.철학, 대중과학
출판인옥스퍼드 대학교 출판부[1]
발행일자
2014년 7월 3일 (영국)
2014년 9월 1일 (미국)
미디어 타입인쇄, 전자책, 오디오북
페이지352pp.
ISBN978-0199678112
선행글로벌 재해 위험

슈퍼 인텔리전스: 경로, 위험, 전략(Super Intelligence: Paths, Dangerous, Strategies)은 옥스퍼드 대학의 스웨덴 철학자보스롬이 쓴 2014년 책이다.그것은 만약 기계 뇌가 일반 지능에서 인간의 뇌를 능가한다면, 이 새로운 슈퍼 지능이 인간을 대체하여 지구상의 지배적인 생명체가 될 수 있다고 주장한다.충분히 지능적인 기계는 인간 컴퓨터 과학자보다 [2]더 빨리 자신의 능력을 향상시킬 수 있고, 그 결과는 인간에게는 [3]실존적 재앙일 수 있다.

개요

인간 수준의 인공지능이 몇 년 뒤, 금세기 후반, 또는 미래 수세기까지 도달하지 못할지는 알 수 없다.초기 시간 척도와 상관없이, 일단 인간 수준의 기계 지능이 개발되면, "거의 모든 관심 영역에서 인간의 인지 성능을 크게 능가하는" "슈퍼 인텔리전트" 시스템이 놀라울 정도로 빠르게 따라올 것이다.그러한 초지능은 통제하거나 통제하기 매우 어려울 것이다.

슈퍼인텔리전스의 궁극적인 목표는 크게 다를 수 있지만 기능적인 슈퍼인텔리전스는 자연스럽게 자기보존과 목표콘텐츠 무결성, 인지력 향상 및 자원 획득과 같은 "계기적 목표"를 생성합니다.예를 들어, 유일한 최종 목표가 리만 가설(유명한 미해결, 수학적 추측)을 해결하는 것인 대리인은 계산을 돕기 위해 지구 전체를 일종의 컴퓨터 로늄(연산에 최적화된 가상의 물질)으로 변환하는 하위 목표를 만들고 이에 따라 행동할 수 있습니다.슈퍼인텔리전스는 슈퍼인텔리전스를 끄려는 외부의 시도에 능동적으로 저항하거나 서브목표 완료를 방해할 수 있습니다.이러한 실존적 대재앙을 막기 위해서는, 「이러한 대재앙」을 성공적으로 해결할 필요가 있다.AI 제어 문제"라는 초지능을 최초로 공개했습니다.해결책은 인간의 생존과 웰빙과 양립할 수 있는 목표를 가진 초지능을 주입하는 것을 포함할 수 있다.대부분의 목표를 기계 구현 가능한 코드로 변환하면 예상치 못한 바람직하지 않은 결과를 초래하기 때문에 제어 문제를 해결하는 것은 놀라울 정도로 어렵습니다.

책 표지의 부엉이는 보스톰이 "완성되지 않은 [4]참새의 우화"라고 부르는 유추를 암시한다.한 무리의 참새들은 부엉이 새끼를 찾아 그들의 [5]하인으로 키우기로 결심한다.그들은 둥지를 틀고, 참새를 보호하고, 여유로운 삶을 위해 풀어줄 올빼미가 있다면 "얼마나 쉬운 삶"을 간절히 상상한다.참새들은 올빼미 알을 찾기 위해 어려운 탐색을 시작한다; 오직 "조바심을 내는 외눈박이 참새"만이 올빼미를 "우리 가운데" 데려오기 전에 어떻게 길들일 것인가에 대한 복잡한 질문에 대해 생각하라고 제안한다.다른 참새들은 이의를 제기합니다; 올빼미 알을 찾는 것은 이미 충분히 어려울 것입니다: "올빼미 알을 먼저 구해서 나중에 세부 사항을 알아보는 것은 어떨까요?"보스롬은 "이야기가 어떻게 끝나는지 알 수 없다"고 말했지만, 그는 그의 책을 스크론크핑클에게 [4][6]바쳤다.

접수처

이 책은 [7]뉴욕 타임즈 2014년 8월 과학 서적 베스트셀러 17위에 올랐다.같은 달, 재계 거물 일론 머스크는 인공지능이 [8][9][10]핵무기보다 잠재적으로 더 위험하다는 책에 동의함으로써 대서특필되었다.슈퍼 인텔리전스에 대한 보스톰의 연구는 또한 빌 게이츠가 다음 [11][12]세기에 인류가 직면할 실존적 위험에 대한 우려에 영향을 미쳤다.2015년 3월, Baidu의 CEO Robin Li의 인터뷰에서, Gates는 Super Intelligence를 「[13]강력하게 추천한다」라고 말했다.뉴요커에 따르면, 철학자 피터 싱어와 데릭 파핏은 이 작품을 "중요한 작품으로 받았다"[6]고 한다.

파이낸셜타임스(FT)의 과학 편집자는 보스트롬의 글이 "가끔 철학 교수로서의 배경을 드러내는 불투명한 언어로 바뀌기도 한다"는 사실을 발견했지만, 슈퍼 인텔리전스의 위험이 충분히 크기 때문에 사회가 미래의 기계 지능에 긍정적인 va를 부여할 수 있는 방법에 대해 생각하기 시작해야 한다는 것을 설득력 있게 증명했다.Lues.[2] 검토가 가디언지에 실렸지만, Bostrom와 함께"사람들은 possibi을 기각하기 위해 무분별한 짓이다 조언의 공통점이"심지어 가장 정교한 기계들이 단지 제한된 의미에서 지금까지 지능이 만들어지"과 그"예상이 AI곧 인간의 지능을 추월할 것 먼저 1960년대에 산산이"을 지적했다.불을 켰다.다 같이"[3]라고 합니다.

Bostrom의 동료들 중 일부는 핵전쟁이 슈퍼 인텔리전스보다 인류에 더 큰 위협이 되고, 나노기술생명공학[3]무기화에 대한 미래 전망도 마찬가지라고 주장한다.이코노미스트는 "보스트롬은 그럴듯한 추측에 기초한 추측을 논의하는 데 많은 시간을 할애해야 한다"고 말했다.그래도 그 책은 가치가 있어요제2의 지적 종족을 지구에 도입하는 것의 의미는, 실제로 그렇게 할 가능성은 [14]희박해 보일지라도, 곰곰이 생각해 볼 가치가 있을 만큼 충분히 광범위합니다.로널드 베일리는 자유주의자인 Reason에서 보스트롬이 AI 제어 문제를 해결하는 것이 "우리 [15]시대의 필수 과제"라는 강력한 주장을 펴고 있다고 썼다.데일리 텔레그래프의 톰 쉬버스에 따르면, 이 책은 읽기 어렵지만 그럼에도 불구하고 [5]보람이 있다고 한다.실험 이론 인공지능 저널의 한 리뷰어는 이 책의 "글쓰기 스타일이 명확하다"고 말하며 다른 사람들과 결별했고, "과도한 [16]전문 용어"를 피했다고 칭찬했다.철학의 한 리뷰어는 슈퍼인텔리전스가 레이 커즈와일의 '특이성가까이 있다'[17]보다 더 현실적이라고 판단했다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ "Superintelligent Swede snapped up by OUP". The Bookseller. 21 November 2013.
  2. ^ a b Cookson, Clive (13 July 2014). "Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom". The Financial Times. Archived from the original on 6 August 2014. Retrieved 30 July 2014.
  3. ^ a b c Henderson, Caspar (17 July 2014). "Superintelligence by Nick Bostrom and A Rough Ride to the Future by James Lovelock – review". The Guardian. Retrieved 30 July 2014.
  4. ^ a b Adams, Tim (12 June 2016). "Nick Bostrom: 'We are like small children playing with a bomb'". The Observer. Retrieved 29 March 2020.
  5. ^ a b Chivers, Tom (10 August 2014). "Superintelligence by Nick Bostrom, review: 'a hard read'". The Telegraph. Retrieved 16 August 2014.
  6. ^ a b Khatchadourian, Raffi (2015). "The Doomsday Invention". The New Yorker. Retrieved 29 March 2020.
  7. ^ "Best Selling Science Books". The New York Times. 8 September 2014. Retrieved 9 November 2014.
  8. ^ Dean, James (5 August 2014). "Artificial intelligence 'may wipe out the human race'". The Times. Retrieved 5 August 2014.
  9. ^ Augenbraun, Eliene (4 August 2014). "Elon Musk tweets Artificial Intelligence may be "more dangerous than nukes"". CBC News. Retrieved 5 August 2014.
  10. ^ Bratton, Benjamin H. (23 February 2015). "Outing A.I.: Beyond the Turing Test". The New York Times. Retrieved 4 March 2015.
  11. ^ Mack, Eric (28 January 2015). "Bill Gates Says You Should Worry About Artificial Intelligence". Forbes. Retrieved 19 February 2015.
  12. ^ Lumby, Andrew (28 January 2015). "Bill Gates Is Worried About the Rise of the Machines". The Fiscal Times. Retrieved 19 February 2015.
  13. ^ Kaiser Kuo (31 March 2015). "Baidu CEO Robin Li interviews Bill Gates and Elon Musk at the Boao Forum, March 29 2015". YouTube. Retrieved 8 April 2015.
  14. ^ "Clever cogs". The Economist. 9 August 2014. Retrieved 9 August 2014.
  15. ^ Bailey, Ronald (12 September 2014). "Will Superintelligent Machines Destroy Humanity?". Reason. Retrieved 16 September 2014.
  16. ^ Thomas, Joel (July 2015). "In defense of philosophy: a review of Nick Bostrom". Journal of Experimental & Theoretical Artificial Intelligence. 28 (6): 1089–1094. doi:10.1080/0952813X.2015.1055829.
  17. ^ Richmond, Sheldon (8 July 2015). "Superintelligence: Paths, Dangers, Strategies". Philosophy. 91 (1): 125–130. doi:10.1017/S0031819115000340. S2CID 171005535.