가상 보조자 개인 정보 보호

Virtual assistant privacy

가상보조기는 사용자가 다양한 작업을 완수할 수 있도록 도와주는 소프트웨어 기술이다.[1] 잘 알려진 가상 비서로는 아마존 알렉사애플사가 제작한 시리가 있다. 구글마이크로소프트와 같은 다른 회사들도 가상 조수들을 가지고 있다. 가상 보조자를 운영하는 제3자 법인에 어떤 정보가 전달될 수 있는지, 그리고 이 데이터가 어떻게 잠재적으로 사용될 수 있는지에 관한 사생활 문제가 있다.[2]

로봇이나 다른 인공지능(AI)과 유사한 가상 도우미를 흔히 '육체'로 간주하기 때문에 소비자들은 잠재적 논란을 간과하고 사생활보다 편의성을 중시할 수 있다. 기기와 관계를 맺을 때 인간은 인간적인 기능을 수행하는 것과 더 가까워지는 경향이 있는데, 이것이 가상의 보조자가 하는 일이다.[3] 사용자가 편리함과 도움을 모두 받을 수 있도록 디자인별 프라이버시와 VS 버튼(Virtual Security Button)은 둘 다 가능한 방법을 제안한다.

단일 계층과 다중 계층 인증 비교

모션을 감지할 수 있는 가상 보안 버튼은 현재 단일 계층만 있는 디바이스에 다계층 인증을 추가하는 방법으로 제안되어 왔으며, 단일 계층 인증을 가진 디바이스는 음성만 활성화하면 된다. 이 목소리는 반드시 의도된 인간이 아닌 어떤 사람일 수 있어 방법을 신뢰할 수 없게 만든다.[4] 다중 계층 인증에는 가상 보조자가 작동하도록 승인하려면 여러 계층의 보안이 필요하다. 가상 보안 버튼은 알렉사와 같은 장치에 대해 두 번째 인증 계층을 제공하며, 이 계층은 움직임과 음성 조합에 의해 트리거된다.[4]

가상 보조원에 대한 접근 잠금 해제와 명령 부여에 필요한 검증 미비 문제가 있는 구체적인 사례는 아마존 알렉사가 거처에 방치된 경우다.[4] 현재, 음성인 인증 계층은 하나뿐이며, 가상 보조자의 소유자가 있어야 하는 계층은 없다. 따라서 가상 보조자가 접근하는 모든 정보에 접근하기 위한 장벽이 하나만 있는 상황에서 교환되는 정보의 보안에 관한 우려가 제기된다. 이러한 프라이버시 우려는 가상 보안 버튼과 같은 검증을 더 추가하는 방법을 생각하는 기술 분야에 영향을 미쳤다.[4]

Siri와 음성 인증

'헤이 시리' 기능은 아이폰이 이 문구("헤이 시리")가 포착될 때까지 주변 소리를 통해 들을 수 있게 해준다. 일단 이 구절이 눈에 띄면 시리는 반응을 불러일으킨다.[5] 아이폰 사용자는 항상 듣지 않기 위해 "Hey Siri" 기능을 끌 수 있다. 이 기능을 켜지 않으면 장치가 항상 그 두 단어를 듣고 있지는 않을 것이고 그 과정에서 다른 정보가 엿듣지 않을 것이다.[5] 이 음성 인증은 사용자 인증에 음성만 사용되기 때문에 단일 계층의 역할을 한다.

가상 보조자의 예

아마존 알렉사

이 가상 보조기는 아마존이 만든 '에코' 스피커와 연동돼 있으며, 주로 음악을 재생하고, 사용자에게 정보를 주고, 다른 기능을 수행할 수 있는 음성에 의해 제어되는 장치다.[6] 이 장치는 음성으로 제어되기 때문에 사용과 관련된 버튼이 없다. 이 장치는 듣는 음성이 실제로 소비자인지 아닌지를 판단할 수 있는 방법이 없다.[4] 가상 보안 버튼(VS 버튼)은 이 가상 보조 장치에 보안을 추가할 수 있는 잠재적인 방법으로 제안되었다.[4]

알렉사에 VS 버튼을 추가하면 얻을 수 있는 이점

VS버튼은 와이파이 네트워크에서 나온 기술을 이용해 인간의 동역학적 움직임을 감지한다.[4] 스마트 락 기술이 활성화될 수 있기 때문에, 집 도둑은 위험하다.[4] 따라서, 알렉사가 이용될 수 있도록 허용하기 전에 이중 체크 방법을 제공하는 VS 버튼은 그러한 위험한 시나리오의 발생을 줄일 수 있을 것이다.[4] 가상 보안 버튼이 도입되면 다른 수준의 인증이 추가되어 디바이스에 프라이버시가 추가된다.[4]

애플의 시리

시리는 애플사의 가상 비서로 아이폰에 활용된다. 시리는 사용자가 입력하는 정보를 수집하고 이 데이터를 활용할 수 있는 능력을 가지고 있다.[2] 기술 인터페이스의 생태계는 사생활의 양을 결정하는데 필수적이다; 생태계는 정보가 사는 곳이다. 아이폰의 GPS 기능을 사용할 경우 위치정보도 빼놓을 수 없다.[7] 가상 보조원과의 교환으로 주어지는 위치 등의 모든 정보는 이러한 생태계에 저장된다.[7]

헤이 시리

"헤이 시리"는 시리에게 음성 활성화를 허용한다. 이 장치는 "헤이 시리"[5]라는 단어를 찾을 때까지 계속해서 주변 소리를 모은다. 이 기능은 음성만으로 전화기의 어플리케이션에 접속할 수 있기 때문에 시각 장애가 있는 사람들에게 도움이 될 수 있다.[8]

시리의 인증 수준

애플의 시리 역시 인증이 한 단계밖에 없다. 패스코드가 있으면 다양한 기능을 활용하기 위해 시리는 패스코드를 입력해야 한다. 그러나 소비자들은 편의성을 중시하기 때문에 암호가 모든 기기에 있는 것은 아니다.[4]

코르타나

마이크로소프트의 가상 비서인 코타나는 음성만을 필요로 하는 또 다른 음성 작동 가상 비서로, 오직 하나의 인증 형태만을 이용한다.[6] 장치는 이전에 두 번째 인증 형태가 존재한다고 설명한 VS 버튼을 이용하지 않는다. 기기가 활용하는 명령어는 대부분 날씨를 말하거나 사용자의 연락처를 부르거나 지시를 내리는 것과 관련이 있다. 이러한 모든 명령에는 사용자의 생활에 대한 통찰력이 필요하다. 왜냐하면 이러한 질의에 응답하는 과정에서 기기는 개인 정보 보호 위험인 데이터를 통해 보기 때문이다.

구글 어시스턴트

원래 구글 나우(Google Now)로 불렸던 구글 어시스턴트가 가장 인간다운 가상 어시스턴트다.[6] 인간과 이 가상 보조자의 유사성은 이용된 자연 언어에서 비롯되며, 특히 이 가상 보조자는 사용자가 이러한 작업을 이용하기 전에 인간이 완료하기를 원하는 작업에 대해 매우 잘 알고 있다는 사실에서 기인한다. 이러한 선행지식은 상호작용을 훨씬 더 자연스럽게 만든다. 이러한 상호작용 중 일부는 특히 홍보 명령이라고 불린다.[6]

승차 공유의 자동화된 가상 보조 장치

우버리프트 같은 승차공유 업체들은 인공지능을 활용해 사업 범위를 넓힌다. 승차권 수급에 따라 변하는 적응형 가격을 만들기 위해 이런 기업들은 기술 알고리즘을 활용해 '급등'이나 '프라임타임' 가격을 결정한다.[9] 게다가, 이 인공지능 기능은 우버와 리프트 직원들 사이의 잠재적인 기밀 사용자 정보의 교환에 관한 사생활 우려를 완화하는데 도움을 준다. 다만 활용된 인공지능도 서로 '상호작용'할 수 있어 기업들의 이런 사생활 우려는 여전히 관련이 있다.[9]

이용약관의 접근성

기기를 처음 입수할 때 승인해야 하는 사용 조건은 애플과 같은 기업이 정보에 접근할 수 있게 해주는 것이다. 이러한 계약은 기기의 기능, 개인 정보가 무엇인지, 그리고 회사가 노출하기 위해 필요하다고 생각하는 그 밖의 모든 정보를 개략적으로 설명한다.[10] 이 정보를 읽는 고객의 경우에도 정보가 모호하고 불명확한 방식으로 해독되는 경우가 많다. 본문은 객관적으로 작은 글씨체로 일반 사용자에게 너무 말이 많거나 범위가 긴 것으로 간주되는 경우가 많다.[10]

설계별 프라이버시

설계에 의한 프라이버시사용자 인터페이스를 더욱 안전하게 만든다. 설계에 의한 프라이버시는 제품의 청사진이 프라이버시의 측면을 개체나 프로그램이 생성되는 방법에 통합하는 것을 말한다.[11] 위치와 거의 관련이 없는 기술 사용도 자신의 위치를 추적할 수 있는 능력이 있다. 예를 들어, WiFi 네트워크는 그들의 위치를 비밀로 유지하려는 사람들에게 위험하다. 다양한 조직들은 더 많은 회사들이 그것을 하도록 디자인에 의한 사생활 보호를 더 규제하기 위해 노력하고 있다.[11]

제품에 설계상 프라이버시가 없는 경우, 생산자는 제품에 프라이버시 모드를 추가하는 것을 고려할 수 있다. 목표는 설계에 의한 프라이버시가 표준을 사용하여 이루어지도록 조직을 구성하는 것이다. 이 표준은 선택에 의한 프라이버시보다 설계에 의한 프라이버시를 더 신뢰할 수 있고 신뢰할 수 있게 만들 것이다.[11] 이 표준은 정보의 허점이 침해되지 않도록 충분히 높아야 하며, 그러한 규칙은 가상 보조자에게 적용될 수 있다.

다양한 특허가 인공지능 등 기술 요건을 조절해 자연에 의한 다양한 사생활 방식을 포함시켰다. 이러한 제안에는 개인 정보 보호 측면이 기기의 청사진에 통합될 때 발생하는 설계별 개인 정보 보호가 포함되었다.[12] 이런 식으로, 기업은 미래에 그들의 디자인에 프라이버시를 구축할 필요가 없다; 디자인은 프라이버시를 염두에 두고 작성될 수 있다. 이렇게 하면 사생활의 알고리즘이 에지 케이스를 균등하게 배제하지 않도록 보다 안전한 방법을 사용할 수 있을 것이다.[11]

인공지능

인공지능은 전체적으로 인간의 행동을 모방하고 인간이 제공하는 악의적인 서비스를 제공하려 하지만, 굳이 신경 쓸 필요는 없다.[13] 이러한 행동을 자동화하는 과정에서 다양한 기술 인터페이스가 형성된다.

해결해야 할 문제는 정보를 처리하고 그 기능을 수행하기 위해 가상 조수들이 정보를 큐레이션한다는 개념과 관련이 있다.[13] 그들이 이 정보로 무엇을 하는지, 그리고 어떻게 정보가 손상될 수 있는지는 가상 보조자와 인공지능 분야 모두에 대해 보다 광범위하게 주목해야 한다.

논란

가상 조교들이 가질 수 있는 의견을 둘러싸고 논란이 있어왔다. 기술이 발전함에 따라, 가상 조수들이 소란을 일으킬 수 있는 이슈에 대해 논쟁적인 입장을 가질 가능성이 있다. 이러한 견해는 정치적인 것일 수 있는데, 이는 가상 조수들이 매우 널리 사용되기 때문에 사회에 영향을 미칠 수 있다.[14]

크라우드소싱은 사용자들로부터 혁신을 허용하지만, 실제로 고객들이 새로운 혁신을 창출한 곳에서 기업들이 신용을 얻는 데 있어 일종의 감시 역할을 할 수 있다.[15]

오즈의 마법사 접근법

인간과 로봇의 상호작용을 연구하는 한 가지 방법은 오즈의 마법사 접근법이라고 불린다. 특히, 이 접근방식은 사용자가 연구 목적을 위해 과제를 완료하는 동안 연구의 인간 리더가 로봇을 대신하도록 하는 것을 목표로 한다.[16] 인공지능과 로봇을 평가하는 인간 외에도 오즈의 마법사 접근법이 도입되고 있다. 기술이 인간에 가까워질 때, 오즈의 마법사 접근법은 이 기술이 다른 인공지능 기술을 평가하고 증가시킬 수 있는 능력을 가지고 있다고 말한다. 더구나 이 방법은 기술이 활용되기 위해서는 반드시 인간다운 기술이 아니어야 한다는 것을 시사하기도 한다.[16] 따라서, 활용되기 위해서는, 그들이 유용한 특징을 가지고 있는 한, 가상 조수들이 그들의 모든 혁신에 더 인간다운 사람이 되는 것에 초점을 맞출 필요가 없다.

참조

  1. ^ System and method for distributed virtual assistant platforms (patent), retrieved 2018-11-09
  2. ^ a b Sadun, Erica; Sande, Steve (2012). Talking to Siri. Que Publishing. ISBN 9780789749734.
  3. ^ Turkle, Sherry. "A Nascent Robotics Culture: New Complicities for Companionship" (PDF). MIT.
  4. ^ a b c d e f g h i j k Lei, Xinyu; Tu, Guan-Hua; Liu, Alex X.; Li, Chi-Yu; Xie, Tian (2017). "The Insecurity of Home Digital Voice Assistants - Amazon Alexa as a Case Study". arXiv:1712.03327. {{cite journal}}: Cite 저널은 필요로 한다. journal= (도움말)
  5. ^ a b c Zhang, Guoming; Yan, Chen; Ji, Xiaoyu; Zhang, Tianchen; Zhang, Taimin; Xu, Wenyuan (2017). "DolphinAttack". Proceedings of the 2017 ACM SIGSAC Conference on Computer and Communications Security - CCS '17. pp. 103–117. arXiv:1708.09537. doi:10.1145/3133956.3134052. ISBN 9781450349468. S2CID 2419970.
  6. ^ a b c d López, Gustavo; Quesada, Luis; Guerrero, Luis A. (2018). "Alexa vs. Siri vs. Cortana vs. Google Assistant: A Comparison of Speech-Based Natural User Interfaces". Advances in Human Factors and Systems Interaction. Advances in Intelligent Systems and Computing. Vol. 592. pp. 241–250. doi:10.1007/978-3-319-60366-7_23. ISBN 978-3-319-60365-0.
  7. ^ a b Andrienko, Gennady; Gkoulalas-Divanis, Aris; Gruteser, Marco; Kopp, Christine; Liebig, Thomas; Rechert, Klaus (2013). "Report from Dagstuhl". ACM SIGMOBILE Mobile Computing and Communications Review. 17 (2): 7. doi:10.1145/2505395.2505398. S2CID 1357034.
  8. ^ Ye, Hanlu; Malu, Meethu; Oh, Uran; Findlater, Leah (2014). "Current and future mobile and wearable device use by people with visual impairments". Proceedings of the 32nd annual ACM conference on Human factors in computing systems - CHI '14. pp. 3123–3132. CiteSeerX 10.1.1.453.6994. doi:10.1145/2556288.2557085. ISBN 9781450324731. S2CID 2787361.
  9. ^ a b Ballard, Dyllan; Naik, Amar. "ALGORITHMS, ARTIFICIAL INTELLIGENCE, AND JOINT CONDUCT" (PDF). Competition Policy Internationa.
  10. ^ a b Stylianou, Konstantinos K. (2010). "An Evolutionary Study of Cloud Computing Services Privacy Terms". John Marshall Journal of Computer & Information Law. 27 (4).
  11. ^ a b c d Cavoukian, Ann; Bansal, Nilesh; Koudas, Nick. "Building Privacy into Mobile Location Analytics (MLA) Through Privacy by Design" (PDF). Privacy by Design. FTC.
  12. ^ Personal virtual assistant (patent), retrieved 2018-10-30
  13. ^ a b 1940-, McCorduck, Pamela (2004). Machines who think : a personal inquiry into the history and prospects of artificial intelligence (25th anniversary update ed.). Natick, Mass.: A.K. Peters. ISBN 978-1568812052. OCLC 52197627.{{cite book}}: CS1 maint: 숫자 이름: 작성자 목록(링크)[페이지 필요]
  14. ^ Barberá, Pablo; Jost, John T.; Nagler, Jonathan; Tucker, Joshua A.; Bonneau, Richard (2015). "Tweeting from Left to Right". Psychological Science. 26 (10): 1531–1542. doi:10.1177/0956797615594620. PMID 26297377. S2CID 4649581.
  15. ^ Budak, Ceren; Goel, Sharad; Rao, Justin M. (2016). "Fair and Balanced? Quantifying Media Bias through Crowdsourced Content Analysis". Public Opinion Quarterly. 80: 250–271. doi:10.1093/poq/nfw007.
  16. ^ a b Dahlbäck, Nils; Jönsson, Arne; Ahrenberg, Lars (1993). "Wizard of Oz Studies: Why and How". Proceedings of the 1st International Conference on Intelligent User Interfaces. IUI '93. New York, NY, USA: ACM: 193–200. doi:10.1145/169891.169968. ISBN 9780897915564. S2CID 1611353.