기계윤리
Machine ethics기계 윤리(또는 기계 도덕, 컴퓨터 도덕 또는 컴퓨터 윤리)[1]는 인공지능을 사용하는 인공 기계의 도덕적 행동을 추가하거나 보장하는 것과 관련된 인공지능 윤리의 일부이다.기계 윤리는 공학 및 기술과 관련된 다른 윤리 분야와 다릅니다.기계 윤리는 인간의 컴퓨터 사용에 초점을 맞춘 컴퓨터 윤리와 혼동해서는 안 된다.그것은 또한 기술의 [2]더 큰 사회적 효과와 관련이 있는 기술의 철학과도 구별되어야 한다.
역사
21세기 이전에 기계의 윤리는 주로 컴퓨팅과 인공지능(AI)의 한계 때문에 공상과학 소설의 주제가 되었다."기계 윤리"의 정의는 그 이후로 발전해 왔지만, 이 용어는 1987년 AI 매거진 기사 "책임의 질문"에서 Mitchell Waldrop에 의해 만들어졌습니다.
「하지만, 상기의 논의로부터 명확하게 알 수 있는 것은, 인텔리전트한 머신은, 프로그래머가 의식적으로 의도하든 의도하지 않든, 가치, 전제, 목적을 구체화한다는 것입니다.따라서 컴퓨터와 로봇이 점점 더 지능화됨에 따라, 우리는 이러한 내재된 가치가 무엇인지에 대해 신중하고 명확하게 생각하는 것이 필수적이 되었습니다.아마도 우리에게 필요한 것은 사실 아시모프의 로봇 3법칙 정신에 따른 기계윤리의 이론과 실천일 것입니다.[3]
2004년에는 AAAI 에이전트 조직 워크숍에서 기계 윤리를 향해(Tooming Machine Ethics)가 발표되었습니다.기계 윤리의 이론적 토대가 마련된 이론과 실천.
AAAI 2005년 가을 기계윤리 심포지엄에서 연구자들이 처음으로 만나 자율 [6]시스템에서의 윤리적 차원의 구현을 검토하였다.이 초기 분야의 다양한 관점은 AAAI 2005년 가을 기계 윤리에 관한 심포지엄에서 발췌한 집합판 "기계 윤리"[7]에서 찾을 수 있다.
2007년 AI 매거진은 기계 윤리의 중요성, 윤리 원칙을 [8]명확히 나타내는 기계의 필요성, 그리고 기계 윤리에 종사하는 사람들이 직면한 과제에 대해 논의한 기사인 기계 윤리: 윤리적 인텔리전트 에이전트의 창조를 특집으로 다루었습니다.그것은 또한 기계가 윤리적 판단의 예로부터 윤리적 원리를 추상화하고 그 원리를 자신의 행동을 이끄는 데 사용하는 것이 적어도 제한된 영역 내에서 가능하다는 것을 증명했다.
2009년, 옥스포드 대학 출판부는 "인간의 의사결정과 윤리의 본질을 깊이 들여다보고 인위적인 도덕적 행위자를 만드는 도전을 검토하는 첫 번째 책"이라고 광고한 "도덕적 기계, 옳고 [9]그름을 가르치는 로봇들"을 출판했다.이 보고서는 약 450개의 자료를 인용했으며, 그 중 약 100개는 기계 윤리에 관한 주요 질문을 다루었다.
2011년, 케임브리지 대학 출판부는 마이클과 수잔 [7]리 앤더슨이 편집한 기계 윤리에 관한 에세이집을 출판했습니다.[10]그는 2006년에 이 주제에 관한 IEEE Intelligent Systems의 특별호도 편집했습니다.이 컬렉션은 기계에 [11]윤리적 원칙을 추가하는 난제로 구성되어 있습니다.
2014년에 미국 해군 연구소의 5년간 대학 연구진에 자율 robots,[12]와 닉 Bostrom의 Superintelligence에 적용되기 윤리적 문제를 공부하기 위해 750만달러 보조금에 배포할 것:스러운 길성 있는, 전략,``가장 중요한...문제 인류로 기계 윤리를 제기했다 h. 발표했다e로뉴욕타임스 베스트셀러 과학서적 [13]17위에 올랐다.
2016년 유럽의회는 위원회가 로봇의 법적 지위 문제를 다루도록 장려하기 위해 [14](PDF 22페이지) 논문을 발간했다. 이는 언론에 [15]더 간략하게 기술된 바와 같다.본 논문에는 로봇의 법적 책임에 관한 섹션이 포함되었으며, 이 섹션에서는 로봇의 자율성 수준에 비례하는 것으로 간주되었다.이 논문은 또한 인공지능 [16]로봇으로 대체될 수 있는 직업의 수에 대해서도 의문을 제기했다.
정의들
컴퓨터 윤리 분야에서 선구적인 이론가 중 한 명인 제임스 H. 무어는 네 가지 종류의 윤리 로봇을 정의한다.인공지능, 정신철학, 과학철학 및 논리학의 연구에 대한 광범위한 연구자로서, 무어는 기계를 윤리적 영향 에이전트, 암묵적 윤리적 에이전트, 명시적 윤리적 에이전트 또는 완전한 윤리적 에이전트로 정의합니다.시스템은 여러 유형의 [17]에이전트일 수 있습니다.
- 윤리적 영향 에이전트:의도했든 아니든 윤리적 영향을 미치는 기계 시스템입니다.동시에 이들 에이전트는 비윤리적인 행동을 할 가능성이 있습니다.무어는 철학자 넬슨 굿맨의 이름을 딴 '굿맨 에이전트'라고 불리는 가상의 예를 든다.굿맨 에이전트는 날짜를 비교하지만 밀레니엄 버그가 있습니다.이 버그는 프로그래머가 그 해의 마지막 두 자리 숫자로만 날짜를 표시했기 때문에 발생했습니다.따라서 2000년 이후는 20세기 후반보다 더 이른 날짜로 잘못 취급될 수 있다.따라서 Goodman 에이전트는 2000년 이전에는 윤리적인 영향요원이었고 그 이후에는 비윤리적인 영향요원이었다.
- 암묵적인 윤리적 에이전트:인체 안전을 고려하기 위해 이들 에이전트는 페일 세이프(fail safe) 또는 내장 미덕을 갖도록 프로그램되어 있습니다.그들은 본질적으로 완전히 윤리적인 것이 아니라 오히려 비윤리적인 결과를 피하도록 프로그램되어 있다.
- 명시적 윤리적 에이전트:이들은 시나리오를 처리하고 윤리적 의사결정에 따라 행동할 수 있는 기계입니다.윤리적으로 행동하는 알고리즘이 있는 기계.
- 완전한 윤리 에이전트:이러한 기계는 윤리적 결정을 내릴 수 있다는 점에서 명시적 윤리적 대리인과 유사합니다.그러나 그것들은 인간의 형이상학적 특징도 포함하고 있다.(즉, 자유 의지, 의식 및 고의성을 갖는 것)
기계 윤리의 초점
AI 제어 문제
철학자 닉 보스롬과 AI 연구원 스튜어트 러셀과 같은 일부 학자들은 AI가 일반 지능에서 인류를 능가하고 "슈퍼 인텔리전트"가 된다면, 이 새로운 슈퍼 인텔리전스는 강력하고 통제하기 어려울 수 있다고 주장한다: 마운틴 고릴라의 운명이 인간의 호의에 달려있듯이, 휴머니트의 운명도 마찬가지일 수 있다.y는 미래의 슈퍼 인텔리전스 기계에 [18]의존합니다.두 학자는 각각 저서 '슈퍼지능'과 '인간호환성'에서 AI의 미래에 대한 불확실성이 크지만 인류에 대한 위험은 현재 중대한 조치를 취할 가치가 있을 만큼 크다고 주장한다.
이는 AI 제어의 문제를 제시하는데, 어떻게 하면 크리에이터를 돕는 인텔리전트 에이전트를 구축할 수 있는가 하는 것과 동시에 크리에이터를 해치는 슈퍼 인텔리전스를 의도하지 않게 구축할 수 있는가 하는 것입니다."처음" 제어권을 설계하지 않는 것의 위험은 슈퍼 인텔리전스가 환경에 대한 권력을 장악하고 인간이 그것을 정지시키는 것을 막을 수 있다는 것이다.잠재적인 AI 제어 전략에는 "능력 제어"(AI가 세계에 영향을 미치는 능력을 제한하는 것)와 "동기 제어"(목표가 인간 또는 최적의 가치에 부합하는 AI를 구축하는 한 가지 방법)가 있다.미래인류연구소, 기계지능연구소, 인간적합인공지능센터, 미래생명연구소 등 AI 제어 문제를 연구하는 기관들이 다수 있다.
알고리즘 및 훈련
AI 패러다임은 특히 그 효과와 편견과 관련하여 논의되어 왔다.Nick Bostrom과 Eliezer Yudkowsky는 의사결정 트리가 투명성과 예측성의 현대 사회 규범에 준거한다는 이유로 신경 네트워크와 유전 알고리즘을 통해 의사결정 트리(ID3 등)[19]를 주장했다.이와는 대조적으로 크리스 산토스 랭은 모든 연령의 규범이 변화하도록 허용되어야 하며 이러한 특정한 규범을 완전히 충족시키는 자연적인 실패가 인간을 범죄 "해커"[20][21]에 대한 기계보다 덜 취약하게 만드는 데 필수적이라는 이유로 신경 네트워크와 유전 알고리즘을 지지한다고 주장했다.
2009년 스위스 로잔의 에콜 폴리테크니크 페데랄에 있는 지능형 시스템 연구소의 실험에서 AI 로봇들은 서로 협력하도록 프로그램되어 독성 [22]자원을 피하면서 유익한 자원을 찾는 것을 목표로 삼았다.실험하는 동안, 로봇들은 씨족으로 분류되었고, 성공한 구성원의 디지털 유전 코드는 유전 알고리즘으로 알려진 알고리즘의 일종인 다음 세대를 위해 사용되었다.AI를 50대째 이어오면서 한 씨족의 구성원들은 유익한 자원과 독성을 구별하는 방법을 발견했다.그 로봇들은 다른 [22]로봇들로부터 유익한 자원을 사재기하기 위해 서로에게 거짓말을 하는 법을 배웠다.같은 실험에서 같은 인공지능 로봇들도 사심 없이 행동하는 법을 배워 다른 로봇들에게 위험을 알리고 다른 [20]로봇들을 구하기 위해 희생을 치렀습니다.이 실험의 의미는 기계 윤리학자들에 의해 이의를 제기되어 왔다.Ecole Polytecique Fédéale 실험에서 로봇들의 목표는 "말단"으로 프로그램되었다.대조적으로, 인간의 동기는 일반적으로 끝없는 학습을 요구하는 특성을 가지고 있다.
자율 무기 시스템
2009년에는 학계 및 기술 전문가들이 회의에 참석하여 로봇과 컴퓨터의 잠재적인 영향과 로봇들이 자급자족하고 스스로 결정을 내릴 수 있는 가상의 가능성에 대한 영향에 대해 논의하였다.그들은 컴퓨터와 로봇이 어떤 수준의 자율성을 획득할 수 있는 가능성과 정도, 그리고 위협이나 위험을 가하기 위해 그러한 능력을 어느 정도까지 사용할 수 있는지에 대해 논의했다.그들은 일부 기계들이 스스로 동력원을 찾을 수 있고 무기로 공격할 대상을 독립적으로 선택할 수 있는 등 다양한 형태의 반자율성을 획득했다고 언급했다.그들은 또한 일부 컴퓨터 바이러스들이 제거를 피할 수 있고 "닭발톱 지능"을 달성했다고 언급했다.그들은 공상 과학 소설에서 묘사된 자기 인식은 아마도 가능성이 낮지만, 다른 잠재적 위험과 [23]함정이 있었다고 언급했다.
일부 전문가들과 학계에서는 군사 전투, 특히 로봇에 [24]어느 정도의 자율 기능이 주어질 때 로봇을 사용하는 것에 대해 의문을 제기하고 있다.미 해군은 군사 로봇이 복잡해짐에 따라 자율적인 [25][26]결정을 내릴 수 있는 능력에 대한 더 많은 관심이 있어야 한다는 보고서를 작성했다.인공 지능 발전 협회의 회장은 이 [27]문제를 연구하기 위한 연구를 의뢰했다.그들은 인간의 상호작용을 모방할 수 있는 Language Acquisition Device와 같은 프로그램을 지적합니다.
인공지능과 사회의 통합
인공 일반 지능(위에서 정의한 완전한 윤리적 에이전트)을 기존의 법률 및 사회적 프레임워크와 통합하는 방법에 대한 예비 작업이 수행되었다.접근법은 그들의 법적 입장과 [28]권리를 고려하는 데 초점을 맞추고 있다.
기계학습편향
빅데이터와 머신러닝 알고리즘은 온라인 광고, 신용등급, 형사처벌을 포함한 수많은 산업들 사이에서 인기를 끌고 있으며, 보다 객관적이고 데이터 중심적인 결과를 제공하겠다는 약속도 있지만, 사회적 불평등과 [29][30]차별을 영구화할 수 있는 잠재적 원천으로 확인되고 있습니다.2015년 한 연구는 여성들이 구글의 AdSense에 의해 고소득 구인광고를 볼 가능성이 낮다는 것을 발견했다.또 다른 연구는 아마존의 당일 배송 서비스가 흑인 거주 지역에서 의도적으로 이용 불가능하게 만들었다는 것을 발견했다.Google과 Amazon은 이러한 결과를 하나의 문제로 분리할 수 없었지만, 그 결과는 그들이 [29]사용한 블랙박스 알고리즘의 결과라고 설명했다.
미국의 사법 시스템은 보다 공정하고 이미 높은 수감률을 낮추기 위해 보석 및 판결과 관련된 결정을 내릴 때 정량적 위험 평가 소프트웨어를 사용하기 시작했다.이 도구들은 특히 피고의 범죄 이력을 분석합니다.플로리다주 브라우어드 카운티에서 체포된 7,000명을 대상으로 한 연구에서 카운티 위험 평가 점수 시스템을 사용하여 범죄를 저지를 것으로 예측한 사람은 20%에 불과했다.[30]2016 ProPublica 보고서는 가장 일반적으로 사용되는 도구 중 하나인 Northpointe COMPAS 시스템을 통해 계산된 재범 위험 점수를 분석하고 2년 동안의 결과를 조사했습니다.이 보고서에 따르면 고위험군 중 61%만이 이 기간에 추가 범죄를 저지르게 된다.보고서는 또한 흑인 피고인들이 백인 [30]피고인들에 비해 고위험 점수를 받을 가능성이 훨씬 더 높다고 지적했다.법적으로,[31] 그러한 재판 전 위험 평가는 인공지능에 대한 부분적 법적 능력 이론 하에서 알고리즘 자체로부터의 가능한 차별적 의도를 포함한 많은 요소들 때문에 인종에 근거한 평등 보호 권리를 침해한다고 주장되어 왔다.
2016년, 다양한 빅데이터 규제 프레임워크를 감독하는 오바마 행정부의 빅데이터 워킹 그룹은 "자동 의사 결정에서 부호화 차별의 가능성"을 주장하며 신용 평가와 [32][33]같은 애플리케이션에 대해 "디자인에 의한 균등한 기회"를 요구하는 보고서를 발표했습니다.보고서는 정책 입안자, 시민 및 학계 간의 담론을 장려하지만 알고리즘 시스템에 대한 편견과 차별의 인코딩에 대한 잠재적 해결책을 가지고 있지 않음을 인식한다.
윤리적 프레임워크 및 관행
프랙티스
2018년 3월, 세계경제포럼(WEF)과 세계인권미래회의(Global Future Council on Human Rights)는 머신러닝이 [34]인권에 미치는 영향에 대한 우려가 높아짐에 따라 머신러닝에서 차별적인 결과를 가장 잘 방지할 수 있는 방법에 대한 상세한 권고사항을 담은 백서를 발행했다.세계경제포럼은 기계학습의 차별적 결과에 대처하고 이를 방지하기 위해 유엔 인권지침원칙에 기초한 4가지 권고안을 개발했다.
세계경제포럼의 권고는 다음과 같다.[34]
- 액티브 인크루전스: 기계학습 어플리케이션의 개발과 설계는 다양한 입력, 특히 AI 시스템의 출력에 의해 영향을 받는 특정 집단의 규범과 가치를 적극적으로 추구해야 한다.
- 공정성:머신러닝 시스템의 개념화, 개발 및 구현에 관여하는 사람들은 자신의 컨텍스트와 애플리케이션에 가장 잘 적용되는 공정성의 정의를 고려하고 머신러닝 시스템의 아키텍처와 그 평가 지표에 우선순위를 부여해야 한다.
- 이해권:개인의 권리에 영향을 미치는 의사결정에 대한 머신러닝 시스템의 관여가 공개되어야 하며, 시스템은 최종 사용자가 이해할 수 있고 유능한 인적 기관이 검토할 수 있는 의사결정에 대한 설명을 제공할 수 있어야 한다.이것이 불가능하고 권리의 문제가 있는 경우, 머신러닝 테크놀로지의 설계, 도입 및 규제의 리더는 이 테크놀로지를 사용해야 하는지 여부를 질문해야 합니다.
- 수정 접근: 머신러닝 시스템의 리더, 설계자 및 개발자는 시스템의 인권에 대한 잠재적인 부정적인 영향을 식별할 책임이 있습니다.그들은 상이한 영향의 영향을 받는 사람들을 위한 가시적인 구제 방안을 마련해야 하며, 차별적 산출물의 시기적절한 구제 절차를 확립해야 한다.
2020년 1월, 하버드 대학의 Berkman Klein Center for Internet and Society는 프라이버시, 설명 책임, 안전 및 보안, 투명성과 설명 가능성, 공정성과 비차별성, 기술에 대한 인간의 통제, 전문적인 책임 등 8가지 핵심 테마를 식별하는 36가지 주요 원칙의 메타 연구를 발표했다.인간 [35]가치의 촉진입니다.유사한 메타 연구는 2019년 [36]취리히에 있는 스위스 연방 공과대학의 연구원들에 의해 수행되었다.
접근
윤리를 계산할 수 있거나 최소한 공식적이게 만들기 위해 여러 가지 시도가 있었다.아이작 아시모프의 로봇공학의 3가지 법칙은 보통 인위적인 도덕적 [37]행위자에게 적합하지 않다고 여겨지는 반면, 칸트의 단정적 명령이 [38]사용될 수 있는지는 연구되어 왔다.그러나 인간의 가치는 어떤 측면에서는 매우 [39]복잡하다는 지적이 있었다.이 어려움을 명시적으로 극복하는 방법은 예를 들어 학습함으로써 인간으로부터 인간의 가치를 직접 받는 것이다.[40][41][42]
또 다른 접근법은 현재의 윤리적 고려사항을 이전의 유사한 상황에 기초하는 것이다.이것은 casuistry라고 불리며, 인터넷 조사를 통해 실행될 수 있다.수많은 과거의 결정들로부터의 합의는 민주주의에 [8]의존하는 새로운 결정으로 이어질 것이다.브루스 M 교수 McLaren은 초기(1990년대 중반)의 캐쥬어리 컴퓨팅 모델, 특히 AI와 윤리적 [43]딜레마를 검색하고 분석하는 케이스 기반 추론 기술로 구축된 SIROCCO라는 프로그램을 구축했습니다.그러나 이러한 접근은 사회에 나타난 편견과 비윤리적인 행동을 반영하는 결정으로 이어질 수 있다.이 접근법의 부정적인 효과는 마이크로소프트의 Tay(봇)에서 볼 수 있는데, 이 챗봇은 트위터 [44]사용자들이 보낸 인종차별적이고 성적인 비난의 메시지를 반복하는 것을 배웠다.
한 사고 실험은 무한한 힘을 가진 지니 골렘이 독자들에게 자신을 보여주는 것에 초점을 맞춘다.이 지니는 50년 후에 돌아올 것이라고 선언하고 즉시 행동할 수 있는 확실한 도덕을 제공할 것을 요구한다.이 실험의 목적은 컴퓨터가 [45]이해할 수 있는 완전한 윤리의 정의를 어떻게 가장 잘 다룰 것인가에 대한 담론을 시작하는 것입니다.
픽션에서
공상과학 소설에서 영화와 소설은 로봇과 기계에 대한 감각의 개념을 가지고 놀았다.
Neil Blomkamp의 Chappie(2015)는 자신의 의식을 컴퓨터로 [46]옮길 수 있는 시나리오를 만들었다.알렉스 갈랜드의 영화 Ex Machina (2014)는 인공지능을 가진 안드로이드의 행동을 인간의 행동과 구별할 수 있는지 알아보기 위해 기계에 투여되는 테스트인 튜링 테스트의 변형 과정을 따라갔다.터미네이터(1984년)와 매트릭스(1999년)와 같은 작품에는 기계가 인간의 주인을 작동시키는 개념이 포함되어 있습니다(인공지능 참조).
아이작 아시모프는 1950년대 I, Robot에서 이 문제를 고려했다.그의 편집자 존 W. 캠벨 주니어의 주장으로, 그는 인공지능 시스템을 지배하기 위한 3가지 로봇 법칙을 제안했다.그의 연구의 대부분은 그의 세 가지 법칙의 경계선이 어디서 무너질지, 또는 역설적이거나 예상치 못한 행동을 어디서 만들어낼지 알아보기 위해 시험하는 데 쓰였다.그의 연구는 어떤 고정된 법칙도 가능한 모든 [47]상황을 충분히 예상할 수 없다는 것을 암시한다.Philip K에서. 딕의 소설 "Do Androids Dream of Electric Sheep?"(1968년)은 인간이 된다는 것이 무엇을 의미하는지 탐구한다.그의 사후 아포칼립틱 시나리오에서, 그는 감정이입이 전적으로 인간의 특성인지 의문을 제기했다.그의 이야기는 공상과학 영화 블레이드 러너의 기초가 된다.
관련 필드
「 」를 참조해 주세요.
메모들
- ^ Moor, J.H. (2006). "The Nature, Importance, and Difficulty of Machine Ethics". IEEE Intelligent Systems. 21 (4): 18–21. doi:10.1109/MIS.2006.80. S2CID 831873.
- ^ Boyles, Robert James. "A Case for Machine Ethics in Modeling Human-Level Intelligent Agents" (PDF). Kritike. Retrieved 1 November 2019.
- ^ Waldrop, Mitchell (Spring 1987). "A Question of Responsibility". AI Magazine. 8 (1): 28–39. doi:10.1609/aimag.v8i1.572.
- ^ Anderson, M., Anderson, S. 및 Armen, C.(2004) 에이전트 조직에 관한 AAAI 워크숍의 진행에 있어서의 「기계 윤리를 향한다」이론과 실천, AAAI 프레스 [1]
- ^ AAAI 에이전트 워크숍 조직:이론과 실천, AAAI 프레스
- ^ "Papers from the 2005 AAAI Fall Symposium". Archived from the original on 2014-11-29.
- ^ a b Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
- ^ a b Anderson, M. 및 Anderson, S.(2007)윤리 인텔리전트 에이전트 만들기AI 매거진, 제28권(4)
- ^ Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN 9780195374049.
- ^ Anderson, Michael; Anderson, Susan Leigh, eds. (July–August 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–63. doi:10.1109/mis.2006.70. ISSN 1541-1672. S2CID 9570832. Archived from the original on 2011-11-26.
- ^ Siler, Cory (2015). "Review of Anderson and Anderson's Machine Ethics". Artificial Intelligence. 229: 200–201. doi:10.1016/j.artint.2015.08.013. S2CID 5613776.
- ^ Tucker, Patrick (13 May 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. Retrieved 9 July 2014.
- ^ "Best Selling Science Books". New York Times. September 8, 2014. Retrieved 9 November 2014.
- ^ "European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics". European Commission. Retrieved January 12, 2017.
- ^ Wakefield, Jane (2017-01-12). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. Retrieved 12 January 2017.
- ^ "European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics". European Parliament. Retrieved 8 November 2019.
- ^ Moor, James M. (2009). "Four Kinds of Ethical Robots". Philosophy Now.
- ^ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). ISBN 978-0199678112.
- ^ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. Archived from the original (PDF) on 2016-03-04. Retrieved 2011-06-28.
- ^ a b Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2011-12-03.
- ^ Santos-Lang, Christopher (2014). "Moral Ecology Approaches to Machine Ethics" (PDF). In van Rysewyk, Simon; Pontier, Matthijs (eds.). Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering. Vol. 74. Switzerland: Springer. pp. 111–127. doi:10.1007/978-3-319-08108-3_8. ISBN 978-3-319-08107-6.
- ^ a b Fox, Stuart (August 18, 2009). "Evolving Robots Learn To Lie To Each Other". Popular Science.
- ^ Markoff, John (July 25, 2009). "Scientists Worry Machines May Outsmart Man". New York Times.
- ^ Palmer, Jason (3 August 2009). "Call for debate on killer robots". BBC News.
- ^ 사이언스 뉴 해군의 자금 지원 보고서 "터미네이터" 2009-07-28년 웨이백 머신에 보관, dailytech.com, 2009년 2월 17일
- ^ 조셉 L. 플랫리(Joseph L. Flatley, 2009년 2월 18일자)의 해군 보고서는 로봇 폭동에 대해 경고하고, 강력한 도덕적 기준을 제시하고 있다.
- ^ AAAI의 장기 AI 미래 2008–2009년 연구, 인공지능 발전 협회, 2009년 7월 26일 액세스.
- ^ Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
- ^ a b Crawford, Kate (25 June 2016). "Artificial Intelligence's White Guy Problem". The New York Times.
- ^ a b c Julia Angwin; Surya Mattu; Jeff Larson; Lauren Kircher (23 May 2016). "Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks". ProPublica.
- ^ Thomas, C.; Nunez, A. (2022). "Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race". Law & Inequality. 40 (2): 371–407. doi:10.24926/25730037.649.
- ^ Executive Office of the President (May 2016). "Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights" (PDF). Obama White House.
- ^ "Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights". Obama White House. 4 May 2016.
- ^ a b "How to Prevent Discriminatory Outcomes in Machine Learning". World Economic Forum. Retrieved 2018-12-11.
- ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. doi:10.2139/ssrn.3518482. ISSN 1556-5068. S2CID 214464355.
- ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. ISSN 2522-5839. S2CID 201827642.
- ^ Anderson, Susan Leigh(2011):기계 윤리의 기초로서 아시모프의 로봇 3법칙의 수용 불가.입력: 기계 윤리학, ED.마이클 앤더슨, 수잔 리 앤더슨입니다뉴욕: 옥스포드 대학 출판부. 페이지 285-296.ISBN 9780511978036
- ^ 파워스, 토마스 M. (2011):칸트 기계의 전망.입력: 기계 윤리학, ED.마이클 앤더슨, 수잔 리 앤더슨입니다뉴욕: 옥스포드 대학 출판부. 페이지 464~475.
- ^ Muhlhauser, Luke, Helm, Louie(2012):인텔리전스 폭발과 기계 윤리.
- ^ Yudkowsky, Eliezer(2004) :일관성 있는 외삽 의욕
- ^ 과리니, 마르셀로 (2011):컴퓨터 신경 모델링과 윤리 철학. 특수주의-일반주의 논쟁에 대한 성찰.입력: 기계 윤리학, ED.마이클 앤더슨, 수잔 리 앤더슨입니다뉴욕: 옥스포드 대학 출판부. 페이지 316-334.
- ^ Hibbard, Bill (2014). "Ethical Artificial Intelligence". arXiv:1411.1373 [cs.AI].
- ^ McLaren, Bruce M. (2003). "Extensionally defining principles and cases in ethics: An AI model". Artificial Intelligence. 150 (1–2): 145–181. doi:10.1016/S0004-3702(03)00135-8.
- ^ Wakefield, Jane (24 March 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. Retrieved 2016-04-17.
- ^ 나자르티안, A. (2014년)A. H. Eden, J. H. Moor, J. H. Söraker 및 E.Steinhart(에드):특이점 가설:과학적이고 철학적인 평가.Minds & Machines, 24(2), 페이지 245~248.
- ^ Brundage, Miles; Winterton, Jamie (17 March 2015). "Chappie and the Future of Moral Machines". Slate. Retrieved 30 October 2019.
- ^ Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN 978-0-553-38256-3.
- ^ 가나시아, 장 가브리엘"비단조 논리를 이용한 윤리 체계 공식화"인지과학회 연차총회 의사록제29권제29호 2007년
외부 링크
레퍼런스
- Wallach, Wendell, Allen, Colin (2008년 11월).도덕 기계: 옳고 그름을 가르치는 로봇미국: 옥스포드 대학 출판부.
- Anderson, Michael, Anderson, Susan Leigh, eds(2011년 7월).기계 윤리케임브리지 대학 출판부
- Stors Hall, J. (2007년 5월 30일)AI를 넘어서: 프로메테우스 기계의 양심 창조.
- 무어, J. (2006)기계 윤리의 특성, 중요성 및 난이도IEEE 인텔리전트 시스템, 21(4), 페이지 18-21.
- Anderson, M. 및 Anderson, S.(2007)윤리 인텔리전트 에이전트 만들기AI 매거진, 제28권(4)
추가 정보
- 하겐도르프, Thilo (2021년)인간과 기계의 행동 연계: 유익한 기계 학습을 위한 트레이닝 데이터의 품질을 평가하는 새로운 접근법.Minds and Machines, doi:10.1007/s11023-021-09573-8.
- Anderson, Michael, Anderson, Susan Leigh, eds(2006년 7월/8월)."기계 윤리에 관한 특별호"IEEE Intelligent Systems 21 (4) : 10 ~63 。
- 벤델, 올리버(2013년 12월 11일).동물과 기계 윤리의 관계에 대한 고려 사항.AI & Society, doi: 10.1007/s00146-013-0526-3.
- Dabringer, Gerhard, ed. (2010)"무인 시스템의 윤리와 법적 측면. 인터뷰」를 참조해 주세요.오스트리아 국방체육부, 비엔나 2010, ISBN 978-3-902761-04-0.
- 가드너, A.(1987)법적 추론에 대한 인위적 접근케임브리지, 매사추세츠: MIT 프레스.
- Georges, T. M. (2003)디지털 소울: 인텔리전트 머신과 인간의 가치.케임브리지, 매사추세츠: Westview Press.
- 가수 P.W. (2009년 12월 29일)전쟁용으로 유선 연결: 21세기의 로봇 혁명과 분쟁: 펭귄.