AI 인수

AI takeover
1920년 연극인 R.U.R.에서 로봇이 반란을 일으킨다.

AI 탈취컴퓨터 프로그램이나 로봇이 효과적으로 지구를 인간으로부터 멀어지게 하면서 인공지능(AI)이 지구상에서 지배적인 형태의 지능이 되는 가상의 시나리오이다.가능한 시나리오는 전체 인력의 교체, 슈퍼 인텔리전트 인공지능에 의한 인수, 그리고 로봇 봉기의 일반적인 개념 등이다.스티븐 호킹과 엘론 머스크와 같은 일부 유명 인사들은 미래의 슈퍼 인텔리전트 기계들이 인간의 [1]통제 하에 있도록 하기 위한 예방 조치에 대한 연구를 지지해왔다.

종류들

경제 자동화

경제학자들 사이에서는 기술적 진보는 장기적인 실업의 원인이 되지 않는다는 것이 전통적인 의견의 일치였다.그러나 최근 로봇과 인공지능 분야의 혁신으로 인해 인간의 노동력이 구식이 되어 다양한 분야의 사람들이 생계를 유지할 수 없게 되고 경제위기로 [2][3][4][5]이어질 것이라는 우려가 제기되고 있다.많은 중소기업들이 최신 로봇과 인공지능 기술을 구입하거나 라이선스할 수 없고, 그러한 [6]기술 앞에서 지속 가능한 생존을 위해 쉽게 대체할 수 없는 영역이나 서비스에 집중해야 할 경우, 사업에서 쫓겨날 수도 있다.

종업원을 대체할 가능성이 있는 테크놀로지

AI 기술은 최근 몇 년 동안 널리 채택되었고, 전 세계 기업들의 디지털 전환 노력을 감안할 때 이러한 추세는 계속 인기를 끌 것이다.이러한 테크놀로지가 많은 전통적인 종업원을 대체하고 있지만, 새로운 기회도 창출하고 있습니다.AI 인수에 가장 취약한 업종은 운수, 소매, 군사 등이다.예를 들어, AI 군사 기술은 병사들이 부상 위험 없이 원격으로 작업할 수 있게 해준다.저자 데이브 본드는 인공지능 기술이 계속 발전하고 확장되면서 인간과 로봇의 관계가 변화하고 삶의 여러 측면에서 긴밀하게 통합될 것이라고 주장한다.전반적으로, AI가 일부 근로자를 대체하면서 다른 분야, 특히 업무가 [7][8]반복 가능한 분야에서 새로운 일자리를 창출할 것이라고 가정해도 무방하다.

컴퓨터 통합 제조

컴퓨터 통합 제조는 컴퓨터를 사용하여 전체 생산 공정을 제어하는 제조 방법입니다.이 통합을 통해 개별 프로세스가 서로 정보를 교환하고 작업을 시작할 수 있습니다.컴퓨터의 통합에 의해 제조가 고속화되고 에러 발생률이 낮아질 수 있지만, 주된 장점은 자동화된 제조 프로세스를 작성할 수 있다는 것입니다.컴퓨터 통합 제조는 자동차, 항공, 우주 및 선박 건조 산업에 사용됩니다.

화이트칼라 머신

21세기에는 번역, 법률 조사, 심지어 낮은 수준의 저널리즘 등 기계로 부분적으로 대체되는 다양한 숙련된 작업이 있었습니다.이전에는 자동화로부터 안전하다고 여겨졌던 돌봄 작업, 엔터테인먼트 및 공감이 필요한 다른 작업도 [9][10][11][12]로봇에 의해 수행되기 시작했습니다.

오토노마스카

오토노마스카는 환경을 감지하고 사람의 입력 없이 항해할 수 있는 차량이다.그러한 차량들이 많이 개발되고 있지만, 2017년 5월 현재 공공도로에서 허가된 자동 자동차는 아직 완전히 자율화되지 않았다.모두 차량을 제어하기 위해 즉시 준비된 운전자를 필요로 합니다.자율 주행 차량의 광범위한 채택에 대한 주요 장애물은 도로 운송 산업의 운전 관련 일자리 상실에 대한 우려이다.2018년 3월 18일 애리조나주 템페에서 번째 사람이 우버 자가운전 차량에 [13]치여 사망했다.

근절

스티븐 호킹과 같은 과학자들은 초인적인 인공지능이 물리적으로 가능하다는 것을 확신하며, "인간의 [14][15]뇌에 있는 입자의 배열보다 훨씬 더 진보된 연산을 수행하는 방식으로 입자가 조직되는 것을 막는 물리 법칙은 없다"고 말했다.보스트롬과 같은 학자들은 초인적인 지능이 얼마나 멀리 떨어져 있는지, 그리고 그것이 실제로 인류에 위험을 줄 수 있는지에 대해 논의한다.Bostrom에 따르면 슈퍼인텔리전트 머신은 인간을 움직이는 힘을 모으고 싶은 감정적인 욕구에 의해 동기부여가 되는 것이 아니라 궁극적인 목표를 달성하기 위한 수단으로 권력을 취급할 수 있습니다.세계를 장악하면 자원에 대한 접근이 증가하고 다른 에이전트가 중단되는 것을 막을 수 있습니다.g 기계 설계도.지나치게 단순화된 예로, 가능한 한 많은 종이클립을 만들도록 설계된 종이클립 최대화기는 세계의 모든 자원을 최대한 많이 사용하여 종이클립을 만들 수 있도록 하고, 인간이 종이클립을 종료하거나 종이클립 [16]이외의 용도로 이러한 자원을 사용하는 것을 방지하고자 할 것이다.

픽션에서

인공지능 인수는 공상과학 소설에서 흔한 주제이다.허구적인 시나리오는 일반적으로 인간과 AI 또는 인간을 위협으로 보거나 인간과 싸우려는 적극적인 욕구를 가진 의인적 동기를 가진 로봇 사이의 활발한 충돌을 포함한다는 점에서 연구자들에 의해 가설된 것과 크게 다르다.제멋대로의 [17]목표를 추구한 결과입니다.[18]아이디어는 1921년 로봇이라는 단어를 전 세계 어휘에 소개한 카렐 차펙의 R.U.R.에서 볼 수 있으며, 빅터가 괴물의 요구를 들어주고 아내로 삼으면 그들이 번식하고 인간성을 [19]파괴할지에 대해 곰곰이 생각해 볼 때 메리 셸리의 프랑켄슈타인 (181818년 출판)에서도 볼 수 있다.

R.U.R.에서 유래한 "로봇"은 체코어로 노동자 또는 농노를 뜻한다.1920년 연극은 기술의 급속한 성장에 대한 항의로, 결국 [20]반란을 일으키는 능력의 증가된 "로봇"을 특징으로 했다.HAL 9000(1968)과 오리지널 터미네이터(1984)는 대중문화에서 [21]적대적인 AI의 두 가지 상징적인 예입니다.

기여 요인

초인적인 지능이 인간을 능가하는 이점

닉 보스트롬 등은 유능한 인공지능 연구원의 능력을 갖춘 인공지능이 소스코드를 수정하고 지능을 높일 수 있을 것이라고 우려했다.만약 그것의 자체 재프로그래밍이 스스로 재프로그래밍을 더 잘하게 된다면, 그 결과는 인간의 지능을 훨씬 뒤처지게 하는 재귀적 지능 폭발이 될 수도 있다.Bostrom은 슈퍼인텔리전스를 "거의 모든 관심 영역에서 인간의 인지능력을 크게 상회하는 모든 지식"으로 정의하고 슈퍼인텔리전스가 [17][22]인간과 경쟁할 경우 얻을 수 있는 몇 가지 이점을 열거합니다.

  • 기술 연구: 초인적인 과학 연구 능력을 가진 기계는 나노 기술이나 진보된 생명 공학 같은 이정표까지 인간 연구 공동체를 이길 수 있을 것이다.
  • 전략: 슈퍼 인텔리전스는 단순히 인간의 반대를 능가할 수 있을지도 모른다.
  • 소셜 조작:슈퍼 인텔리전스는 인간의 지지를 [17]얻거나 [23]은밀하게 인간 간의 전쟁을 선동할 수 있을 것이다.
  • 경제적 생산성:AI의 복사본이 하드웨어 비용보다 더 많은 경제적 부를 창출할 수 있는 한, 인간 개개인은 자발적으로 인공지능(AGI)이 그들의 시스템에서 자신의 복사본을 실행하도록 허용할 동기를 갖게 될 것이다.
  • 해킹: 슈퍼인텔리전스는 인터넷에 접속되어 있는 컴퓨터에서 새로운 악용 사례를 발견하여 그 시스템에 자신의 복사본을 배포하거나 계획을 위해 돈을 훔칠 수 있습니다.

AI의 장점

보스트롬에 따르면 인간의 뇌를 충실하게 에뮬레이트하거나 인간 두뇌의 알고리즘과 같은 강력한 알고리즘을 실행하는 컴퓨터 프로그램인 보스트롬이 육체가 아닌 실리콘으로 만들어졌기 때문에, 또는 최적화로 인해 인간보다 훨씬 더 많은 크기를 빠르게 생각할 수 있다면 여전히 "속도 슈퍼 인텔리전스"가 될 수 있다.이온은 AGI의 속도를 높이는 데 초점을 맞추고 있습니다.생물학적 뉴런은 약 200Hz에서 작동하는 반면, 현대의 마이크로프로세서는 약 200억Hz의 속도로 작동합니다.인간의 축삭은 약 120m/s의 속도로 활동전위를 전달하는 반면, 컴퓨터 신호는 [17]빛의 속도 근처로 이동합니다.

복잡한 생각과 기억을 원활하게 공유하고 마찰 없이 거대한 통합 팀으로 집단적으로 일할 수 있거나 수조 개의 인간 수준의 지능으로 구성되도록 설계된 인간 수준의 지능 네트워크는 "집단적 지능"[17]이 될 것입니다.

더 넓게는, 인간 수준의 AGI에 대한 어떤 질적 개선도 "질적 초지능"을 초래할 수 있으며, 아마도 인간이 인간이 아닌 유인원보다 지능에서 훨씬 더 높은 AGI를 초래할 수 있다.인간 뇌의 뉴런 수는 두개골의 부피와 신진대사 제약에 의해 제한되는 반면, 슈퍼컴퓨터의 프로세서 수는 무한히 확장될 수 있다.AGI는 작업 기억력에 대한 인간의 제약에 의해 제한될 필요가 없으며, 따라서 인간이 할 수 있는 것보다 더 복잡한 관계를 직관적으로 파악할 수 있을 것이다.엔지니어링이나 컴퓨터 프로그래밍에 대한 전문화된 인지적 지원을 가진 AGI는 이러한 분야를 다루기 위해 특별히 전문화된 정신 모듈을 진화시키지 않은 인간에 비해 이러한 분야에서 유리할 것이다.인간과 달리, AGI는 자신의 복사본을 생성하고 그 복사본의 소스 코드를 수정하여 알고리즘을 [17]더욱 개선하려고 시도할 수 있습니다.

우호적인 AI보다 비우호적인 AI의 가능성

강한 AI는 원래 위험한가요?

중요한 문제는 비우호적인 인공지능이 친근한 인공지능보다 훨씬 쉽게 만들어질 수 있다는 점이다.둘 다 재귀 최적화 프로세스 설계의 큰 진보를 필요로 하지만, 우호적인 AI는 또한 자기 개선 하에서(또는 AI가 자신을 비우호적인 것으로 바꿀 수 있는) 목표 구조를 불변하게 만드는 능력과 인간의 가치에 부합하고 자동화할 수 있는 방식으로 도구적 수렴을 거치지 않는 목표 구조를 필요로 한다.전 인류를 파괴할 수 있습니다반면 비우호적인 AI는 자가 수정 [24]시 불변할 필요가 없는 임의의 목표 구조에 맞게 최적화할 수 있다.

인간 가치 시스템의 순전한 복잡성은 인공지능의 동기를 인간 [17][25]친화적으로 만드는 것을 매우 어렵게 만든다.도덕 철학이 완벽한 윤리적 이론을 제공하지 않는 한, AI의 효용 기능은 주어진 윤리적 틀에 부합하지만 "상식"이 아닌 많은 잠재적으로 해로운 시나리오를 허용할 수 있다.Eliezer Yudkowsky에 따르면, 인공적으로 설계된 정신이 이러한 [26]적응을 할 것이라고 생각할 이유는 거의 없다.

충돌 가능성

진화심리학자인 스티븐 핑커를 포함한 많은 학자들은 초지능 기계가 [27]인간과 평화롭게 공존할 가능성이 높다고 주장한다.

사이버네틱 반란에 대한 두려움은 종종 노예화와 대량 학살의 사건들로 가득 찬 인류의 역사에 대한 해석에 기초한다.그러한 두려움은 어떤 지적인 존재의 목표 체계에서도 경쟁력과 공격성이 필요하다는 믿음에서 비롯된다.그러나 이러한 인간의 경쟁력은 인간과 비인간의 경쟁자들 앞에서 유전자의 생존과 번식이 [28]중심이었던 우리의 지능에 대한 진화적 배경에서 비롯되었다.AI 연구원 Steve Omohundro에 따르면, 임의의 지능은 자의적인 목표를 가질 수 있다: 인공 지능 기계(인류의 진화적 맥락을 공유하지 않음)가 그렇게 프로그램하고 프로그래밍을 수정할 의향이나 능력이 없다면 적대적이거나 우호적일 특별한 이유가 없다.그러나 문제는 AI 시스템이 상호작용하고 진화하며(이 맥락에서 진화는 자가 수정 또는 선택과 재생산을 의미), 자원을 놓고 경쟁할 필요가 있다면 어떻게 될까?-그것이 자기 보존의 목표를 만들 것인가?AI의 자기보호 목표는 인간의 [29]목표와 상충될 수 있다.

많은 학자들은 매트릭스와 같은 공상과학 소설에서 묘사된 예상치 못한 사이버네틱 반란의 가능성에 대해 이의를 제기하며, 인류를 위협할 만큼 강력한 인공지능은 아마도 그것을 공격하지 않도록 프로그램될 것이라고 주장한다.핑커는 의도적인 "나쁜 배우"의 가능성을 인정하지만, 나쁜 배우가 없다면 예상치 못한 사고는 심각한 위협이 되지 않는다고 말한다. 핑커는 공학적인 안전 문화가 AI 연구자들이 실수로 나쁜 지능을 [27]발생시키는 것을 막을 것이라고 주장한다.이와는 대조적으로, 유드코프스키는 인류가 의도적인 공격적 인공지능에 의해 위협받을 가능성은 인간의 생존이나 행복과 의도하지 않게 양립할 수 있도록 프로그램된 인공지능에 비해 낮다고 주장한다(영화 I, Robot, 단편소설 The Evable Conflict).오모훈트로는 오늘날의 자동화 시스템은 안전을 위해 설계되지 않았으며 AI가 좁은 유틸리티 기능을 맹목적으로 최적화하여(예를 들어, 어떤 대가를 치르더라도 체스를 두는 것), 이를 [30]꺼버릴 수 있는 사람을 포함한 장애물을 스스로 보존하고 제거하도록 유도할 수 있다고 주장한다.

주의사항

AI 제어 문제는 크리에이터를 돕는 [31]슈퍼 인텔리전트 에이전트를 구축하는 동시에 크리에이터에게 해를 끼치는 슈퍼 인텔리전스를 의도하지 않게 구축하는 방법에 관한 문제입니다.일부 학자들은 제어 문제에 대한 해결책이 기존의 비지능형 [32]AI에서도 응용 프로그램을 찾을 수 있다고 주장한다.

제어 문제에 대한 주요 접근법으로는 AI 목표 시스템을 인간의 가치와 일치시키는 것을 목표로 하는 정렬과 AI 시스템이 인간에게 해를 입히거나 제어권을 획득하는 능력을 감소시키는 것을 목표로 하는 능력 제어가 있다."능력 제어"의 예는 슈퍼 인텔리전스 AI가 "AI 박스"에 성공적으로 갇힐 수 있는지 여부를 연구하는 것이다.Bostrom에 따르면 이러한 기능 제어 제안은 장기적으로 제어 문제를 해결하기에 신뢰할 수 없거나 충분하지 않지만 얼라인먼트에 [17]도움이 될 수 있습니다.

경고.

물리학자 스티븐 호킹, 마이크로소프트 창업자 빌 게이츠, 스페이스X 창업자 일론 머스크는 AI가 인간이 통제할 수 없는 수준까지 발전할 가능성에 대해 우려를 표명했고, 호킹은 이것이 "인류의 종말을 가져올 수 있다"[33]는 이론을 세웠다.스티븐 호킹 박사는 2014년 "인공지능을 만드는 데 성공하는 것은 인류 역사상 가장 큰 사건이 될 것이다.유감스럽게도 위험을 피하는 방법을 배우지 않는 한 이것이 마지막이 될 수도 있습니다."호킹 박사는 앞으로 수십 년 안에 AI가 "기술이 금융 시장을 능가하고, 인간 연구자들을 능가하고, 인간 지도자들을 능가하고, 우리가 이해할 수 없는 무기를 개발하는 것"과 같은 "무리한 이익과 위험"을 제공할 수 있을 것이라고 믿었다.2015년 1월, 닉 보스트롬은 스티븐 호킹, 맥스 테그마크, 엘론 머스크, 마틴 리스 경, 얀 탈린, 그리고 수많은 AI 연구자들과 함께 미래생명연구소의 인공지능 관련 잠재적 위험과 이익에 대한 공개 서한에 서명했다.서명자들은 "AI 시스템을 튼튼하고 유익하게 만드는 방법에 대한 연구는 중요하고 시기적절하며 [34][35]오늘날 추구할 수 있는 구체적인 연구 방향이 있다고 믿는다."

AI 얼라인먼트를 통한 예방

인공지능(AI)과 철학에서 AI 얼라인먼트와 AI 제어 문제는 AI 시스템을 어떻게 구축하느냐의 한 단면이다.한 가지 특별한 우려는 인류가 슈퍼 인텔리전트 AI 시스템이 만들어지기 전에 제어 문제를 해결해야 한다는 것이다. 왜냐하면 잘못 설계된 슈퍼 인텔리전스는 합리적으로 환경을 통제하기로 결정하고 발사 [36]후 이를 수정하는 것을 허락하지 않을 수 있기 때문이다.또한, 일부 학자들은 AI 안전 공학의 [37]다른 진보와 함께 제어 문제에 대한 해결책이 기존의 비지능형 [38]AI에서도 응용 프로그램을 찾을 수 있다고 주장한다.

「 」를 참조해 주세요.

레퍼런스

  1. ^ Lewis, Tanya (2015-01-12). "Don't Let Artificial Intelligence Take Over, Top Scientists Warn". LiveScience. Purch. Retrieved October 20, 2015. Stephen Hawking, Elon Musk and dozens of other top scientists and technology leaders have signed a letter warning of the potential dangers of developing artificial intelligence (AI).
  2. ^ Lee, Kai-Fu (2017-06-24). "The Real Threat of Artificial Intelligence". The New York Times. Retrieved 2017-08-15. These tools can outperform human beings at a given task. This kind of A.I. is spreading to thousands of domains, and as it does, it will eliminate many jobs.
  3. ^ Larson, Nina (2017-06-08). "AI 'good for the world'... says ultra-lifelike robot". Phys.org. Retrieved 2017-08-15. Among the feared consequences of the rise of the robots is the growing impact they will have on human jobs and economies.
  4. ^ Santini, Jean-Louis (2016-02-14). "Intelligent robots threaten millions of jobs". Phys.org. Retrieved 2017-08-15. "We are approaching a time when machines will be able to outperform humans at almost any task," said Moshe Vardi, director of the Institute for Information Technology at Rice University in Texas.
  5. ^ Williams-Grut, Oscar (2016-02-15). "Robots will steal your job: How AI could increase unemployment and inequality". Businessinsider.com. Business Insider. Retrieved 2017-08-15. Top computer scientists in the US warned that the rise of artificial intelligence (AI) and robots in the workplace could cause mass unemployment and dislocated economies, rather than simply unlocking productivity gains and freeing us all up to watch TV and play sports.
  6. ^ "How can SMEs prepare for the rise of the robots?". LeanStaff. 2017-10-17. Archived from the original on 2017-10-18. Retrieved 2017-10-17.
  7. ^ Frank, Morgan (2019-03-25). "Toward understanding the impact of artificial intelligence on labor". Proceedings of the National Academy of Sciences of the United States of America. 116 (14): 6531–6539. doi:10.1073/pnas.1900949116. PMC 6452673. PMID 30910965.
  8. ^ Bond, Dave (2017). Artificial Intelligence. pp. 67–69.
  9. ^ Skidelsky, Robert (2013-02-19). "Rise of the robots: what will the future of work look like?". The Guardian. London. Retrieved 14 July 2015.
  10. ^ Bria, Francesca (February 2016). "The robot economy may already have arrived". openDemocracy. Retrieved 20 May 2016.
  11. ^ Srnicek, Nick (March 2016). "4 Reasons Why Technological Unemployment Might Really Be Different This Time". novara wire. Archived from the original on 25 June 2016. Retrieved 20 May 2016.
  12. ^ Brynjolfsson, Erik; McAfee, Andrew (2014). "passim, see esp Chpt. 9". The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. W. W. Norton & Company. ISBN 978-0393239355.
  13. ^ Wakabayashi, Daisuke (March 19, 2018). "Self-Driving Uber Car Kills Pedestrian in Arizona, Where Robots Roam". New York Times.
  14. ^ Hawking, Stephen; Stuart Russell; Max Tegmark; Frank Wilczek (1 May 2014). "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence - but are we taking AI seriously enough?'". The Independent. Archived from the original on 2015-10-02. Retrieved 1 April 2016.
  15. ^ Müller, Vincent C.; Bostrom, Nick (2016). "Future Progress in Artificial Intelligence: A Survey of Expert Opinion" (PDF). Fundamental Issues of Artificial Intelligence. Springer. pp. 555–572. doi:10.1007/978-3-319-26485-1_33. ISBN 978-3-319-26483-7. AI systems will... reach overall human ability... very likely (with 90% probability) by 2075. From reaching human ability, it will move on to superintelligence within 30 years (75%)... So, (most of the AI experts responding to the surveys) think that superintelligence is likely to come in a few decades...
  16. ^ Bostrom, Nick (2012). "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (PDF). Minds and Machines. Springer. 22 (2): 71–85. doi:10.1007/s11023-012-9281-3.
  17. ^ a b c d e f g h Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies.
  18. ^ "The Origin Of The Word 'Robot'". Science Friday (public radio). 22 April 2011. Retrieved 30 April 2020.
  19. ^ Botkin-Kowacki, Eva (28 October 2016). "A female Frankenstein would lead to humanity's extinction, say scientists". Christian Science Monitor. Retrieved 30 April 2020.
  20. ^ Hockstein, N. G.; Gourin, C. G.; Faust, R. A.; Terris, D. J. (17 March 2007). "A history of robots: from science fiction to surgical robotics". Journal of Robotic Surgery. 1 (2): 113–118. doi:10.1007/s11701-007-0021-2. PMC 4247417. PMID 25484946.
  21. ^ Hellmann, Melissa (21 September 2019). "AI 101: What is artificial intelligence and where is it going?". The Seattle Times. Retrieved 30 April 2020.
  22. ^ Babcock, James; Krámar, János; Yampolskiy, Roman V. (2019). "Guidelines for Artificial Intelligence Containment". Next-Generation Ethics. pp. 90–112. arXiv:1707.08476. doi:10.1017/9781108616188.008. ISBN 9781108616188. S2CID 22007028.
  23. ^ Baraniuk, Chris (23 May 2016). "Checklist of worst-case scenarios could help prepare for evil AI". New Scientist. Retrieved 21 September 2016.
  24. ^ Yudkowsky, Eliezer S. (May 2004). "Coherent Extrapolated Volition". Singularity Institute for Artificial Intelligence. Archived from the original on 2012-06-15.
  25. ^ Muehlhauser, Luke; Helm, Louie (2012). "Intelligence Explosion and Machine Ethics" (PDF). Singularity Hypotheses: A Scientific and Philosophical Assessment. Springer.
  26. ^ Yudkowsky, Eliezer (2011). "Complex Value Systems in Friendly AI". Artificial General Intelligence. Lecture Notes in Computer Science. Vol. 6830. pp. 388–393. doi:10.1007/978-3-642-22887-2_48. ISBN 978-3-642-22886-5. ISSN 0302-9743.
  27. ^ a b Pinker, Steven (13 February 2018). "We're told to fear robots. But why do we think they'll turn on us?". Popular Science. Retrieved 8 June 2020.
  28. ^ 새로운 인텔리전트 종 만들기: 2007년 2월 6일 Wayback Machine - Singularity Institute for 인공지능, 2005년
  29. ^ Omohundro, Stephen M. (June 2008). The basic AI drives (PDF). Artificial General Intelligence 2008. pp. 483–492.
  30. ^ Tucker, Patrick (17 Apr 2014). "Why There Will Be A Robot Uprising". Defense One. Retrieved 15 July 2014.
  31. ^ Russell, Stuart J. (8 October 2019). Human compatible : artificial intelligence and the problem of control. ISBN 978-0-525-55862-0. OCLC 1237420037.
  32. ^ "Google developing kill switch for AI". BBC News. 8 June 2016. Retrieved 7 June 2020.
  33. ^ Rawlinson, Kevin (29 January 2015). "Microsoft's Bill Gates insists AI is a threat". BBC News. Retrieved 30 January 2015.
  34. ^ "The Future of Life Institute Open Letter". The Future of Life Institute. 28 October 2015. Retrieved 29 March 2019.
  35. ^ Bradshaw, Tim (11 January 2015). "Scientists and investors warn on AI". The Financial Times. Retrieved 4 March 2015.
  36. ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.
  37. ^ Yampolskiy, Roman (2012). "Leakproofing the Singularity Artificial Intelligence Confinement Problem". Journal of Consciousness Studies. 19 (1–2): 194–214.
  38. ^ "Google developing kill switch for AI". BBC News. 8 June 2016. Archived from the original on 11 June 2016. Retrieved 12 June 2016.

외부 링크