디지털 복제
Digital cloning![]() | 이 기사는 위키백과 편집자의 개인적인 감정을 진술하거나 주제에 대한 원론적인 주장을 제시하는 개인적인 성찰, 개인적인 에세이 또는 논쟁적인 에세이처럼 쓰여진다.(2021년 1월) (이 를 과 시기 |
디지털 복제는 딥러닝 알고리즘을 포함하는 새로운 기술로, 현재 존재하는 오디오, 사진, 비디오 등을 초현실적으로 조작할 수 있다.[1]이러한 기술의 영향 중 하나는 초현실적인 영상과 사진들이 인간의 눈으로 무엇이 진짜인지 가짜인지 구별하기 어렵게 만든다는 것이다.[2]게다가, 다양한 기업들이 그러한 기술을 대중에게 제공함으로써, 그들은 잠재적인 법적, 윤리적 우려뿐만 아니라 다양한 이익을 가져올 수 있다.
디지털 복제는 시청각(AV), 기억력, 성격, 소비자 행동 복제로 분류할 수 있다.[3]AV 복제에서는 디지털 또는 비디지털 원본의 복제된 디지털 버전을 만들 수 있는데, 예를 들어 가짜 이미지, 아바타, 또는 그것이 표현한다고 주장되는 실제 인물과 쉽게 구별할 수 없는 사람의 가짜 비디오나 오디오를 만드는 데 사용할 수 있다.마음가짐과 같은 기억과 성격 복제는 본질적으로 사람의 마음을 디지털로 복사한 것이다.소비자 행동 클론(Consumer Action Clone)은 인구 통계에 기반한 고객의 프로파일 또는 클러스터다.
트루비와 브라운은 "디지털 사상 클론"이라는 용어를 만들어, 디지털 복제가 "특정 생활자의 모든 알려진 데이터와 행동의 복제품"으로 구성되어 있으며, 선택, 선호도, 행동 경향, 의사결정 과정 등을 실시간으로 기록한다.[3]
디지털 복제는 연예계에서 처음으로 인기를 끌었다.디지털 복제에 대한 아이디어는 영화 회사들이 죽은 배우들의 가상 배우들을 창조하는 것에서 유래되었다.영화 제작 중 배우들이 사망할 때, 배우의 디지털 복제본을 과거의 영상, 사진, 음성녹음을 이용하여 합성하여 영화 제작을 계속하기 위해 실제 인물을 흉내낼 수 있다.[4]
현대 인공지능은 딥페이크의 창조를 허용해 왔다.여기에는 동영상에 묘사된 사람이 자신이 동의하지 않았을 수 있는 말을 하거나 행동을 할 정도로 동영상을 조작하는 것이 포함된다.[5]버즈피드는 2018년 4월 버락 오바마 전 대통령을 묘사하도록 조작한 조던 필의 딥페이크 영상을 공개하며 딥페이크의 잠재적 위험에 대해 대중에게 경고하기 위해 이전에는 공개되지 않았던 진술을 했다.[6]
딥페이크 외에도 인텔리타와 같은 회사들은 이제 일련의 영상과 음성 녹음을 제공함으로써 자신의 디지털 복제본을 쉽게 만들 수 있게 되었다.이것은 근본적으로 디지털 불멸을 만들어, 사랑하는 사람들이 죽은 사람들과 교류할 수 있게 한다.[7]디지털 복제는 사랑하는 사람을 디지털로 추모할 수 있을 뿐만 아니라 역사적 인물의 아바타를 만들어 교육적 환경에서 활용할 수 있다.
위에서 언급한 바와 같이 다양한 기술의 발달로 신분 도용, 데이터 침해, 기타 윤리적 우려 등 수많은 우려가 발생하고 있다.디지털 복제와 관련된 문제들 중 하나는 이러한 가능한 문제로부터 잠재적 피해자들을 보호하기 위한 법안이 거의 또는 전혀 없다는 것이다.[8]
기술
지능형 아바타 플랫폼(IAP)
지능형 아바타 플랫폼(IAP)은 인공지능이 지원하는 온라인 플랫폼으로 정의할 수 있어 스스로 복제본을 만들 수 있다.[7]개인은 알고리즘에 자신의 수많은 음성 녹음과 동영상을 제공함으로써 자신의 복제자가 자신처럼 행동하고 말하도록 훈련시켜야 한다.[9]본질적으로, 이 플랫폼은 같은 플랫폼에서 다른 아바타들과 교류할 수 있기 때문에 영원히 사는 장소가 된다.IAP는 디지털 불멸을 달성하기 위한 플랫폼이 되어가고 있으며, 가나무와 유산을 세대에 걸쳐 보존하고 있다.[7]
IAP의 몇 가지 예로는 Intellitar와 Eterni.me이 있다.비록 이들 회사들의 대부분은 아직 개발 단계에 있지만, 그들 모두는 그들이 마음속에 가지고 있는 모든 기억을 사이버 공간에 저장하기 위해 사용자가 그들 자신의 복제품을 만들 수 있도록 하는 동일한 목표를 달성하려고 노력하고 있다.[7]어떤 것들은 무료 버전을 포함하고 있는데, 그것은 사용자가 주어진 영상과 오디오 세트에서 그들의 아바타를 선택할 수 있게 한다.하지만 프리미엄 설정으로 이 회사들은 사용자들에게 자신의 사진, 비디오, 오디오 녹음을 업로드하여 현실적인 버전을 형성하도록 요구할 것이다.[10]또한, 복제본이 원래 사람만큼 가까이 있는지 확인하기 위해, 회사들은 또한 그들을 위해 채팅을 하고 질문에 답함으로써 그들 자신의 복제자와 상호작용을 장려한다.이것은 알고리즘이 원인의 인지능력을 학습하고 그것을 클론에게 적용할 수 있게 해준다.인텔리타는 자신이 사용한 기술을 둘러싼[11] 지적 재산권 싸움으로 2012년 문을 닫았다.
IAP와 관련된 잠재적 우려 사항으로는 데이터 침해 가능성 및 고인의 동의를 얻지 못할 가능성이 있다.IAP는 음성녹음, 사진, 메시지 등을 포함할 수 있는 사망자의 개인정보를 보호하기 위해 데이터 침해와 해킹에 대한 강력한 기반과 책임을 가져야 한다.[9]개인의 프라이버시가 훼손될 위험 외에도 고인의 프라이버시를 침해할 위험도 있다.비록 물리적인 죽음 이전에 자신의 디지털 복제본을 만드는 것에 동의할 수 있지만, 그들은 디지털 복제본이 취할 수 있는 행동에 동의할 수 없다.
딥페이크
앞서 설명한 것처럼 딥페이크는 자신이 원하는 특정인의 다양한 이미지를 먹임으로써 존재하는 사람들을 변화시킬 수 있는 동영상 조작의 한 형태다.나아가 1, 2분가량 지속되는 신인의 음성녹음 시리즈만 제출하면 영상 속 인물이 말하는 목소리와 말소리도 바꿀 수 있다.2018년에는 '페이크앱'이라는 새로운 앱이 출시돼 대중들이 쉽게 이 기술을 접해 동영상을 만들 수 있게 됐다.이 앱은 버락 오바마 전 대통령의 버즈피드 동영상 제작에도 활용됐다.[6][12]딥페이크(deepfake)로 업계는 개인의 동의를 얻어 일련의 사진과 오디오 녹음을 수집하는 것만으로 저렴한 비용으로 영상과 영화를 제작해 배우나 모델을 고용하는 비용을 줄일 수 있다.[13]
딥페이크에 대한 잠재적 우려는 같은 서비스를 제공하는 다른 앱을 다운로드하는 사실상 누구에게나 접속이 제공된다는 것이다.누구나 이 도구에 접근할 수 있는 상황에서 일부는 이 앱을 악의적으로 이용해 리벤지 포르노와 공직자들이 실생활에서 절대 말하지 않을 발언을 하는 교묘한 영상을 만들 수도 있다.이는 동영상에서 개인의 사생활을 침해할 뿐만 아니라 다양한 윤리적 우려를 불러일으킨다.[14]
음성 복제
음성복제는 개인의 음성녹음을 취입하는 딥러닝 알고리즘으로 이런 음성을 원음과 매우 유사한 음성으로 합성할 수 있다.딥페이크처럼 대중에게 이런 기술을 접할 수 있는 앱은 스펠링 AI, 아이스피치, 세레보이스 미 등이 많다.알고리즘은 비슷한 음성을 생산하기 위해 최대 몇 분 정도의 오디오 녹음이 필요하며, 어떤 텍스트에서도 그것을 큰 소리로 읽을 것이다.이 애플리케이션은 아직 개발 단계지만 구글이나 아마존 등 거대 기술기업이 개발에 막대한 자금을 투자하면서 빠르게 발전하고 있다.[15]
음성 복제의 긍정적인 사용으로는 인간의 노동력을 사용하지 않고도 수백만 개의 오디오북을 합성할 수 있는 능력이 있다.목소리를 잃었을지도 모르는 이들이 목소리를 잃기 전에 말하는 녹음 파일을 입력해 자신만의 음성 복제본을 만들어 개성을 되찾을 수 있는 것도 그 하나다.반면 음성 복제도 오용되기 쉽다.그 예로는 연예인과 공무원들의 목소리가 복제되고 실제 사람이 그들의 목소리에 아무런 연관성이 없는데도 불구하고 그 목소리는 갈등을 유발하는 무언가를 말할 수 있다.[16]
미국 연방무역위원회, 법무부, 국방고등연구계획국(DARPA)을 포함한 기관들은 음성 복제가 사생활, 예의, 민주적 과정에 가해지는 위협을 인식하여, 이들과 싸우기 위해 사용될 수 있는 다양한 심층적인 음성 사용 사례와 방법을 연구해왔다.[17]
일부 웹사이트는 인공지능을 이용한 실시간 문자-대-문자 검색 도구인 15.ai과 같이 인기 캐릭터나 유명인사의 허가받지 않은 음성 복제에 오락 목적으로 접속할 수 있다.[18]
건설용도
교육
디지털 복제는 학생들에게 좀 더 몰입적인 경험을 만들어내기 위한 교육 환경에서 유용할 수 있다.어떤 학생들은 좀더 상호작용적인 경험을 통해 더 잘 배울 수 있고 딥페이크를 만드는 것은 학생들의 학습 능력을 향상시킬 수 있다.이것의 한 예로는 아브라함 링컨과 같은 역사적 인물들의 디지털 복제본을 만들어 그가 일생 동안 어떤 문제에 직면했고 어떻게 그것들을 극복할 수 있었는지를 보여주는 것이 있다.교육 환경에서 디지털 클론을 사용하는 또 다른 예는 스피커로 하여금 그들 자신의 디지털 클론을 생성하게 하는 것이다.각종 옹호 단체들은 한 해 동안 여러 학교를 순회하면서 일정에 차질이 빚어질 수도 있다.하지만, 그들 자신의 디지털 복제본을 만들면, 그들의 복제품은 그룹이 물리적으로 만들 수 없는 장소에서 주제를 제시할 수 있다.이러한 교육 혜택은 학생들에게 새로운 학습 방법을 제공할 뿐만 아니라 환경 조건 때문에 자원에 접근할 수 없었던 사람들에게 접근하게 할 수 있다.[13]
예술
디지털 복제는 이미 엔터테인먼트와 예술 산업에서 한동안 존재했지만, 인공지능은 산업에서 이러한 기술의 사용을 크게 확대할 수 있다.영화산업은 죽은 초현실적인 배우들을 훨씬 더 많이 창조할 수 있다.게다가, 영화 산업은 또한 영화 장면에서 추가가 필요할 수 있는 디지털 복제본을 만들 수 있는데, 이것은 제작 비용을 엄청나게 절감하는데 도움을 줄 수 있다.그러나 디지털 복제와 다른 기술은 비상업적 목적에 유익할 수 있다.예를 들어, 예술가들은 아바타를 비디오 제작의 일부로 합성하려고 한다면 더 표현력이 있을 수 있다.그들은 또한 디지털 아바타를 만들어 그들의 작품을 초안화하고 최종 작업을 진행하기 전에 아이디어를 구체화하도록 도울 수 있다.[13]
디지털 불멸
고인의 소셜미디어 계정이 사이버 공간에 계속 남아 있어 한동안 디지털 불멸이 존재했지만, 불멸의 가상 복제본을 만드는 것은 새로운 의미를 갖는다.디지털 클론이 탄생하면 자신의 시각적 존재뿐만 아니라 성격과 인지 등 매너리즘도 포착할 수 있다.디지털 불멸을 통해 사랑하는 사람들이 죽은 후에도 계속해서 교류할 수 있으며, 이는 어쩌면 물리적 죽음의 장벽을 끝낼 수도 있다.나아가 가정은 여러 세대와 연결돼 가계도를 형성하고, 어떤 의미에서는 가문의 유산을 후대에 물려줄 수 있어 역사가 전승되는 길을 제공한다.[7]
걱정
가짜뉴스
딥페이크에 대한 규제가 부족한 상황에서 여러 가지 우려의 목소리가 나오고 있다.해로울 수 있는 딥페이크 영상에는 부적절한 행동을 보여주는 정치관료 묘사, 무장하지 않은 흑인 총살로 보이는 경찰관, 무고한 시민을 살해하는 군인이 등장하기 시작할 수도 있다.[19]이런 초현실적인 동영상이 인터넷에 공개되면서 대중이 잘못 알려지기 매우 쉬워져 자칫 행동을 취하게 될 수 있어 불필요한 위해의 악순환에 기여할 수 있다.여기에 최근 가짜뉴스가 늘면서 딥페이크(deepfake)와 가짜뉴스를 결합할 가능성도 제기되고 있다.이것은 무엇이 진짜고 무엇이 가짜인지 구별하는데 더 많은 어려움을 가져올 것이다.시각적 정보는 인간의 눈에 매우 설득력이 있을 수 있기 때문에, 딥페이크와 가짜뉴스의 결합은 사회에 해로운 영향을 미칠 수 있다.[13]소셜미디어 기업 등 뉴스 플랫폼이 엄격한 규제를 해야 한다.[20]
개인용도
딥페이크가 악의적으로 사용될 수 있는 또 다른 이유는 개인 차원에서 다른 사람을 방해하기 위함이다.딥페이크를 만들기 위한 기술의 접근성이 높아지면서 공갈범과 절도범은 피해자에게 도움을 요청하는 사랑하는 사람들의 동영상을 만들어 금전적 이익 등을 위해 개인정보를 쉽게 추출할 수 있게 됐다.[13]게다가, 음성 복제는 범죄자들이 피해자들에게 가짜 전화를 거는 데 악의적으로 사용될 수 있다.전화는 개인과 같은 정확한 목소리와 매너리즘을 지니게 될 것이며, 이는 피해자를 속여 범죄자에게 사적인 정보를 제공하게 할 수 있다.[21]그 대신에, 예를 들어, 나쁜 배우는 협박 지불을 추출하기 위해 비디오에 겹쳐진 사람에 대한 깊은 가짜를 만들 수도 있고, 또는 리벤지 포르노의 행위로서도 만들 수 있다.
개인 용도로 딥페이크나 음성 복제품을 만드는 것은 상업적 피해가 없기 때문에 법에 따라 매우 어려울 수 있다.오히려 심리적, 정서적 피해의 형태로 오는 경우가 많아 법원이 구제책을 마련하기 어렵다.[5]
윤리적 함의
이러한 기술의 발달로 인해 발생하는 수많은 법적 문제가 있지만, 현행 법률에서는 보호받지 못할 수도 있는 윤리적 문제도 있다.딥페이크와 음성 복제의 사용과 함께 발생하는 가장 큰 문제 중 하나는 신원 도용의 가능성이다.그러나 딥페이크에 관한 신분 도용은 현재 딥페이크에 특정한 법률이 없기 때문에 기소하기 어렵다.더욱이 딥페이크의 악의적인 사용이 가져올 수 있는 피해는 금전적인 피해라기보다는 심리적, 정서적인 피해에 가까워서 구제책을 마련하기가 더욱 어려워진다.앨런은 개인의 사생활이 다루어져야 하는 방식이 칸트의 단정적인 명령과 유사하다고 주장한다.[5]
또 다른 윤리적 함의는 기술을 사용하기 위해 포기해야 하는 개인 및 개인 정보의 사용이다.디지털 복제, 딥페이크, 음성 복제 모두 딥러닝 알고리즘을 사용하기 때문에 알고리즘이 받는 정보가 많을수록 결과가 좋다.[22]그러나, 모든 플랫폼은 데이터 침해의 위험을 가지고 있으며, 이는 잠재적으로 사용자가 동의하지 않은 그룹에 의해 매우 개인 정보에 접근하게 될 수 있다.더욱이 사랑하는 사람의 가족이 얼마나 많은 정보를 포기할 의향이 있는지에 대한 허락 없이 가능한 한 많은 정보를 수집하여 고인의 디지털 복제본을 만들려고 할 때 사후 사생활이 문제가 된다.[23]
미국의 현행법
저작권법
미국에서 저작권법은 작가의 개성을 보호하기 위해 어떤 종류의 독창성과 창의성을 요구한다.그러나 디지털 복제본을 만든다는 것은 실존 인물과 똑같이 가까운 가상 인물을 만들기 위해 사진, 음성녹음, 기타 정보 등 개인 데이터를 단순히 가져간다는 것을 의미한다.Feist Publishes Inc. 대 농촌 텔레비전 서비스 회사, Inc.의 대법원 판례에서, 오코너 판사는 독창성의 중요성과 어느 정도 창의성을 강조했다.그러나 독창성과 창의성의 정도가 명확히 규정되어 있지 않아 저작권법의 애매한 영역이 만들어지고 있다.[24]디지털 클론을 생성하려면 개인의 데이터뿐만 아니라 디지털 클론이 어떻게 행동하거나 움직여야 하는지에 대한 크리에이터의 입력도 필요하다.Meshwerks v. 도요타, 이런 의문이 제기됐고 법원은 디지털 클론에도 사진을 위해 만들어진 동일한 저작권법을 적용해야 한다고 밝혔다.[24]
홍보권
현재 디지털 복제의 잠재적인 악의적인 사용으로부터 개인을 보호하기 위한 법률이 없는 상황에서, 공공성의 권리는 법적 환경에서 개인을 보호하는 가장 좋은 방법일 수 있다.[4]인격권이라고도 불리는 공공의 권리는 상업적 환경에서 본질적으로 자신의 성격을 구성하는 자신의 목소리, 외모, 그 밖의 측면을 통제하는 것에 있어서는 개인에게 자율권을 준다.[25]개인이 행동을 취하거나 성격에 맞지 않는 진술을 하는 모습을 담은 딥페이크 영상이나 디지털 복제품이 동의 없이 발생하면 홍보권을 침해한다고 주장해 법적 조치를 취할 수 있다.홍보권은 어느 정도의 이익을 필요로 하는 상업적 환경에서 개인의 이미지를 보호하기 위한 것이라고 구체적으로 명시하고 있지만, 일부에서는 사실상 모든 사람의 이미지와 개성을 보호하기 위해 법률을 개정할 수도 있다고 말하고 있다.[26]또 다른 중요한 점은 홍보권은 특정 주에서만 시행되기 때문에 일부 주는 다른 주와 비교하여 그 권리에 대한 해석이 다를 수 있다는 점이다.
예방 조치, 예방책
규정
디지털 및 디지털 사고 클론은 데이터 프라이버시, 사전동의, 차별금지, 저작권 및 홍보권과 관련된 법적 문제를 제기한다.더 많은 관할권에서는 유럽의 일반 데이터 보호 규정과 유사한 법률을 제정하여 데이터의 비양심적이고 유해한 사용과 디지털 사고 복제의 무단 개발 및 사용으로부터 사람들을 보호할 필요가 있다.[3]
기술
위에서 언급한 어떤 기술의 희생자가 되는 것을 막는 한 가지 방법은 이러한 알고리즘에 대항하여 인공지능을 개발하는 것이다.이미 각 픽셀의 패턴을 보고 조작한 영상을 탐지할 수 있는 인공지능을 개발한 기업이 여럿 있다.[27]비슷한 논리를 적용해 주어진 동영상의 각 프레임을 픽셀 단위로 분석해 원본 동영상의 패턴을 찾아 조작 여부를 판단하는 소프트웨어를 만들겠다는 것이다.[28]
어떤 비디오 조작을 감지할 수 있는 새로운 기술을 개발하는 것 외에도, 많은 연구자들은 개인 사생활 보호를 위해 더 엄격한 지침을 만드는 것에 대해 중요성을 제기하고 있다.[15]인공지능의 발달과 함께 이것이 의학, 교육, 정치, 경제 등 사실상 사회의 모든 측면에서 나타나기 시작하면서 오늘날 사회에 어떤 영향을 미치는지 물어볼 필요가 있다.나아가 인공지능은 사회의 다양한 측면에서 나타나기 시작할 것이며, 이로 인해 기술이 이어짐에 따라 인간의 권리를 보호하는 법이 중요해진다.민간이 대중을 상대로 디지털 파워를 더 많이 획득하는 만큼, 민간법인이 개인정보를 악의적으로 이용하지 못하도록 엄격한 규제와 법을 정하는 것이 중요하다.또한, 다양한 데이터 침해와 개인정보 보호정책 위반의 과거 이력은 개인 정보 접근과 이용이 개인의 동의 없이 어떻게 가능한가에 대한 경고가 되어야 한다.[8]
디지털 사용능력
이러한 기술의 피해를 예방하는 또 다른 방법은 사람들에게 디지털 복제의 장단점을 교육하는 것이다.그렇게 함으로써 각 개인이 자신의 상황에 따라 합리적인 결정을 할 수 있도록 한다.[29]게다가, 사람들이 인터넷에 올린 정보를 보호하는 방법에 대해 교육하는 것도 중요하다.대중들의 디지털 사용능력을 높임으로써, 사람들은 그들이 온라인에서 발견하는 정보에 더 회의적일 수 있기 때문에 주어진 비디오가 조작되었는지 여부를 판단할 수 있는 더 큰 기회를 갖게 된다.[15]
참고 항목
참조
- ^ Floridi, Luciano (2018). "Artificial Intelligence, Deepfakes and a Future of Ectypes". Philosophy & Technology. 31 (3): 317–321. doi:10.1007/s13347-018-0325-3.
- ^ Borel, Brooke (2018). "Clicks, Lies and Videotape". Scientific American. 319 (4): 38–43. Bibcode:2018SciAm.319d..38B. doi:10.1038/scientificamerican1018-38. PMID 30273328. S2CID 52902634.
- ^ a b c Truby, 존, 브라운, 라파엘(2021년)."인간의 디지털 빅 데이터 위한 인공 지능의 복제:성배라고 생각했다".정보 통신 기술 법 30(2):140–168. doi:10.1080/13600834.2020.1850174.hdl:10576/17266.S2CID 229442428.텍스트는 창조적 공용 귀인 4.0국제 라이센스 하에 가능하다 이 원본에서 복사되었다.
- ^ a b Beard, Joseph (2001). "CLONES, BONES AND TWILIGHT ZONES: Protecting the Digital Persona of the Quick, the Dead and the Imaginary". Berkeley Technology Law Journal. 16 (3): 1165–1271. JSTOR 24116971.
- ^ a b c Allen, Anita (2016). "Protecting One's Own Privacy In a Big Data Economy". Harvard Law Review. 130 (2): 71–86.
- ^ a b Silverman, Craig (April 2018). "How To Spot A Deepfake Like The Barack Obama–Jordan Peele Video". Buzzfeed.
- ^ a b c d e Meese, James (2015). "Posthumous Personhood and the Affordances of Digital Media". Mortality. 20 (4): 408–420. doi:10.1080/13576275.2015.1083724. hdl:10453/69288. S2CID 147550696.
- ^ a b Nemitz, Paul Friedrich (2018). "Constitutional Democracy and Technology in the Age of Artificial Intelligence". Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 59 (9): 20180089. Bibcode:2018RSPTA.37680089N. doi:10.1098/rsta.2018.0089. PMID 30323003.
- ^ a b Michalik, Lyndsay (2013). "'Haunting Fragments': Digital Mourning and Intermedia Performance". Theatre Annual. 66 (1): 41–64. ProQuest 1501743129.
- ^ Ursache, Marius. "Eternime".
- ^ http://fusion.net/story/116999/this-start-up-promised-10000-people-eternal-digital-life-then-it-died/[데드링크]
- ^ S. Agarwal, H. Farid, Y. Gu, M. He, K. Nano, H. Li, "딥 페이크로부터 세계 지도자들을 보호하라"는 2019년 6월 The IEEE Conference on Computer Vision and Pattern Incognition(CVPR) 워크샵에서 발표되었다.
- ^ a b c d e Chesney, Robert (2018). "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security" (PDF). SSRN Electronic Journal. 26 (1): 1–58.
- ^ Suwajanakorn, Supasorn (2017). "Synthesizing Obama" (PDF). ACM Transactions on Graphics. 36 (4): 1–13. doi:10.1145/3072959.3073640. S2CID 207586187.
- ^ a b c Brayne, Sarah (2018). "Visual Data and the Law". Law & Social Inquiry. 43 (4): 1149–1163. doi:10.1111/lsi.12373. S2CID 150076575.
- ^ Fletcher, John (2018). "Deepfakes, Artificial Intelligence, and Some Kind of Dystopia: The New Faces of Online Post-Fact Performance". Theatre Journal. 70 (4): 455–71. doi:10.1353/tj.2018.0097. S2CID 191988083.
- ^ "Voice cloning experts cover crime, positive use cases, and safeguards". 29 January 2020.
- ^ Zwiezen, Zack (2021-01-18). "Website Lets You Make GLaDOS Say Whatever You Want". Kotaku. Kotaku. Archived from the original on 2021-01-17. Retrieved 2021-01-18.
- ^ Chesney, Robert (2019). "Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics". Foreign Affairs. 98 (1): 147–55.
- ^ Hall, Kathleen (2018). "Deepfake Videos: When Seeing Isn't Believing". Catholic University Journal of Law and Technology. 27 (1): 51–75.
- ^ Poudel, Sawrpool (2016). "Internet of Things: Underlying Technologies, Interoperability, and Threats to Privacy and Security". Berkeley Technology Law Review. 31 (2): 997–1021.
- ^ Dang, L. Ming (2018). "Deep Learning Based Computer Generated Face Identification Using Convolutional Neural Network". Applied Sciences. 8 (12): 2610. doi:10.3390/app8122610.
- ^ Savin-Baden, Maggi (2018). "Digital Immortality and Virtual Humans" (PDF). Postdigital Science and Education. 1 (1): 87–103. doi:10.1007/s42438-018-0007-6.
- ^ a b Newell, Bryce Clayton (2010). "Independent Creation and Originality in the Age of Imitated Reality: A Comparative Analysis of Copyright and Database Protection for Digital Models of Real People". Brigham Young University International Law & Management. 6 (2): 93–126.
- ^ Goering, Kevin (2018). "New York Right of Publicity: Reimagining Privacy and the First Amendment in the Digital Age - AELJ Spring Symposium 2". SSRN Electronic Journal. 36 (3): 601–635.
- ^ Harris, Douglas (2019). "Deepfakes: False Pornography Is Here and the Law Cannot Protect You". Duke Law and Technology Review. 17: 99–127.
- ^ Bass, Harvey (1998). "A Paradigm for the Authentication of Photographic Evidence in the Digital Age". Thomas Jefferson Law Review. 20 (2): 303–322.
- ^ Wen, Jie (2012). "A Malicious Behavior Analysis Based Cyber-I Birth". Journal of Intelligent Manufacturing. 25 (1): 147–55. doi:10.1007/s10845-012-0681-2. S2CID 26225937. ProQuest 1490889853.
- ^ Maras, Marie-Helen (2018). "Determining Authenticity of Video Evidence in the Age of Artificial Intelligence and in the Wake of Deepfake Videos". The International Journal of Evidence & Proof. 23 (1): 255–262. doi:10.1177/1365712718807226. S2CID 150336977.