인공지능에 관한 공개서한 (2015)
Open letter on artificial intelligence (2015)강력하고 유익한 인공지능을 위한 연구 우선순위:공개 편지 | |
---|---|
창조했다 | 2015년 1월 |
작성자 | 스티븐 호킹, 일론 머스크, 그리고 수십 명의 인공지능 전문가들 |
주제 | 인공지능의 사회적 영향에 대한 연구 |
2015년 1월, 스티븐 호킹, 일론 머스크 및 수십 명의 인공지능[1] 전문가들은 인공지능에 대한 공개 서한에 서명하여 AI의 사회적 영향에 대한 연구를 촉구했습니다.그 편지는 사회가 인공지능으로부터 큰 잠재적 이익을 얻을 수 있다고 단언했지만, 특정 잠재적 "낙하물"을 예방하는 방법에 대한 구체적인 연구를 요구했습니다. 인공지능은 질병과 빈곤을 근절할 수 있는 잠재력을 가지고 있지만, 연구자들은 안전하지 않거나 통제할 [1]수 없는 것을 만들어서는 안 됩니다."강건하고 유익한 인공지능을 위한 연구 우선순위: 공개 서한"은 첨부된 12페이지의 문서에 자세한 연구 우선순위를 설명합니다.
배경
2014년까지 물리학자 스티븐 호킹과 재계 거물 일론 머스크는 초인적 인공지능이 헤아릴 수 없는 이익을 제공할 수 있지만 부주의하게 배치되면 인류를 끝낼 수도 있다는 의견을 공개적으로 표명했습니다.그 당시, 호킹과 머스크는 둘 다 "인류가 직면한 실존적 위험을 완화하기 위해 노력하는 조직인 미래 생명 연구소의 과학 자문 위원회에 앉아 있었습니다.그 기관은 더 광범위한 AI 연구 [2]커뮤니티를 향한 공개 서한을 초안했고,[3] 2015년 첫 주말 동안 푸에르토리코에서 열린 첫 번째 회의 참석자들에게 배포했습니다.이 편지는 1월 [4]12일에 공개되었습니다.
목적
이 편지는 인공지능의 [5]긍정적인 효과와 부정적인 효과를 모두 강조하고 있습니다.블룸버그 비즈니스에 따르면 MIT의 Max Tegmark 교수는 초지능 AI를 중요한 실존적 위험으로 간주하는 서명자와 AI 분야가 주장되는 [4]위험에 초점을 맞춘 일방적인 미디어에 의해 "공격"되고 있다고 믿는 Oren Ezioni 교수와 같은 서명자 사이의 공통점을 찾기 위해 이 서한을 회람했습니다.이 편지는 다음과 같이 주장합니다.
문명이 제공해야 하는 모든 것이 인간 지능의 산물이기 때문에 (AI의) 잠재적 이익은 엄청납니다. 우리는 AI가 제공할 수 있는 도구로 이 지능이 확대될 때 우리가 달성할 수 있는 것을 예측할 수 없지만 질병과 빈곤의 근절이 불가능한 것은 아닙니다.인공지능의 큰 잠재력 때문에 잠재적인 [6]함정을 피하면서 이익을 얻는 방법을 연구하는 것이 중요합니다.
서명자 중 한 명인 코넬 대학의 바트 셀만 교수는 그 목적이 AI 연구자들과 개발자들이 AI 안전에 더 많은 관심을 기울이도록 하는 것이라고 말했습니다.게다가, 정책 입안자들과 일반 대중들에게, 이 편지는 정보를 제공하기 위한 것이지만 경고를 주는 [2]것은 아닙니다.또 다른 서명자인 프란체스카 로시 교수는 "AI 연구자들이 이러한 우려와 윤리적 [7]문제에 대해 진지하게 생각하고 있다는 것을 모두가 아는 것이 매우 중요하다고 생각합니다"라고 말했습니다.
서한으로 제기된 우려 사항
서명자들은 다음과 같이 묻습니다.엔지니어들은 어떻게 사회에 유익하고 강력한 AI 시스템을 만들 수 있습니까?인간은 AI를 계속 통제해야 합니다; 우리의 AI 시스템은 "우리가 그들이 하기를 원하는 것을"[1] 해야 합니다.필요한 연구는 경제학과 법률에서 컴퓨터 보안과 공식적인 검증과 같은 컴퓨터 과학의 다양한 분야에 이르기까지 학제간에 걸친 것입니다.발생하는 문제는 검증("내가 시스템을 올바르게 구축했는가?"), 타당성("내가 올바른 시스템을 구축했는가?"), 보안 및 제어("좋아, 내가 시스템을 잘못 구축했는데 고칠 수 있는가?")[8]로 나뉩니다.
단기적인 우려
일부 단기적인 우려 사항은 민간 드론 및 자율 주행 자동차에서 자율 주행 차량과 관련이 있습니다.예를 들어, 비상시에 자율주행차는 큰 사고의 작은 위험과 작은 사고의 큰 가능성 사이에서 결정해야 할 수 있습니다.치명적인 지능형 자율 무기와 관련된 다른 우려 사항:그것들은 금지되어야 할까요?그렇다면, '자율성'은 어떻게 정확하게 정의되어야 합니까?그렇지 않을 경우 오용 또는 오작동에 대한 책임을 어떻게 분담해야 합니까?
다른 문제로는 AI가 대규모 감시 데이터 세트를 점점 더 해석할 수 있게 됨에 따라 개인 정보 [2]보호 문제와 AI로 대체된 일자리의 경제적 영향을 가장 잘 관리하는 방법 등이 있습니다.
장기적인 우려
이 문서는 마이크로소프트 리서치 디렉터 Eric Horvitz의 다음과 같은 우려를 반영하며 마무리됩니다.
우리는 언젠가 인간의 바람에 따라 행동하지 않는 초지능의 부상을 통해 AI 시스템에 대한 통제력을 잃을 수 있습니다. 그리고 그러한 강력한 시스템은 인류를 위협할 것입니다.그러한 디스토픽 결과가 가능합니까?그렇다면 이러한 상황은 어떻게 발생할 수 있습니까? ...위험한 초지능의 부상이나 "지능 폭발"의 발생 가능성을 더 잘 이해하고 해결하기 위해 어떤 종류의 연구 투자가 이루어져야 합니까?
강화 학습 및 간단한 유틸리티 기능과 같은 AI를 활용하기 위한 기존 도구는 이를 해결하기에 충분하지 않으므로 "제어 문제"[8]에 대한 강력한 솔루션을 찾고 검증하기 위해 더 많은 연구가 필요합니다.
서명자
서명자들에는 물리학자 스티븐 호킹, 사업가 일론 머스크, 딥마인드와 비카리 뒤에 있는 기업가들, 구글의 연구 책임자 피터 노비그,[1] 캘리포니아 대학교 [9]버클리의 스튜어트 J. 러셀 교수, 그리고 다른 인공지능 전문가,[10] 로봇 제작자, 프로그래머, 윤리학자들이 포함됩니다.원래 서명자 수는 캠브리지, 옥스포드, 스탠포드, 하버드, [12]MIT의 학자들을 포함하여 150명 [11]이상이었습니다.
메모들
- ^ a b c d Sparkes, Matthew (13 January 2015). "Top scientists call for caution over artificial intelligence". The Telegraph (UK). Retrieved 24 April 2015.
- ^ a b c Chung, Emily (13 January 2015). "AI must turn focus to safety, Stephen Hawking and other researchers say". Canadian Broadcasting Corporation. Retrieved 24 April 2015.
- ^ McMillan, Robert (16 January 2015). "AI Has Arrived, and That Really Worries the World's Brightest Minds". Wired. Retrieved 24 April 2015.
- ^ a b Dina Bass; Jack Clark (4 February 2015). "Is Elon Musk Right About AI? Researchers Don't Think So". Bloomberg Business. Retrieved 24 April 2015.
- ^ Bradshaw, Tim (12 January 2015). "Scientists and investors warn on AI". The Financial Times. Retrieved 24 April 2015.
Rather than fear-mongering, the letter is careful to highlight both the positive and negative effects of artificial intelligence.
- ^ "Research Priorities for Robust and Beneficial Artificial Intelligence: an Open Letter". Future of Life Institute. Retrieved 24 April 2015.
- ^ "Big science names sign open letter detailing AI danger". New Scientist. 14 January 2015. Retrieved 24 April 2015.
- ^ a b "Research priorities for robust and beneficial artificial intelligence" (PDF). Future of Life Institute. 23 January 2015. Retrieved 24 April 2015.
- ^ Wolchover, Natalie (21 April 2015). "Concerns of an Artificial Intelligence Pioneer". Quanta magazine. Retrieved 24 April 2015.
- ^ "Experts pledge to rein in AI research". BBC News. 12 January 2015. Retrieved 24 April 2015.
- ^ Hern, Alex (12 January 2015). "Experts including Elon Musk call for research to avoid AI 'pitfalls'". The Guardian. Retrieved 24 April 2015.
- ^ Griffin, Andrew (12 January 2015). "Stephen Hawking, Elon Musk and others call for research to avoid dangers of artificial intelligence". The Independent. Archived from the original on 2022-05-24. Retrieved 24 April 2015.