Tay(챗봇)
Tay (chatbot)![]() Tay의 트위터 프로필 사진. | |
개발자 | 마이크로소프트 리서치, 빙 |
---|---|
사용 가능한 위치 | 영어 |
유형 | 인공지능 수다쟁이 |
면허증. | 소유권 |
웹사이트 | 웨이백 머신의 https://tay.ai (2016-03-23 업데이트) |
Tay는 원래 2016년 3월 23일 트위터를 통해 마이크로소프트에 의해 출시된 인공지능 챗봇으로, 봇이 트위터 계정을 통해 선동적이고 공격적인 트윗을 올리기 시작하면서 논란을 일으켰고, 마이크로소프트는 출시 [1]16시간 만에 서비스를 종료했습니다.마이크로소프트에 따르면, 이것은 로봇이 [2]트위터에서 사람들과의 상호 작용을 기반으로 응답을 할 때 서비스를 "공격"한 트롤들에 의해 발생했다고 합니다.그것은 Zo로 대체되었습니다.
배경
이 봇은 마이크로소프트의 Technology and Research와 Bing [3]부서에 의해 만들어졌으며 "Tay"는 "당신에 [4]대해 생각한다"의 약자로 명명되었습니다.비록 마이크로소프트가 처음에 그 봇에 대한 몇 가지 세부 사항을 발표했지만, 소식통들은 그것이 [5]중국의 유사한 마이크로소프트 프로젝트인 샤오이스와 비슷하거나 기반을 두고 있다고 언급했습니다.아르스 테크니카는 2014년 말부터 샤오이스가 "큰 [6]사건 없이 4천만 건 이상의 대화를 나눴다"고 보고했습니다.Tay는 19세 미국 소녀의 언어 패턴을 모방하고 [7]트위터의 인간 사용자들과 상호 작용하면서 배우도록 설계되었습니다.
초기 출시
Tay는 2016년 3월 23일 TayTweets라는 이름으로 TayTweets와 handle [8]@Tay and handle @Tay and You.그것은 "[9]냉정함이 없는 AI"로 발표되었습니다.Tay는 다른 Twitter 사용자들에게 답장을 보내기 시작했고, 또한 [10]제공된 사진을 인터넷 밈의 형태로 캡션할 수 있었습니다.Ars Technica는 Tay가 "블랙리스트"라는 주제를 경험했다고 보고했습니다."Eric Garner(2014년 뉴욕 경찰에 의해 살해된)와 같은 특정 핫 토픽에 대한 Tay와의 상호 작용은 안전한 통조림 답변을 [6]생성합니다."
일부 트위터 사용자들은 "redpilling"과 "Gamergate"와 같은 인터넷의 일반적인 주제를 중심으로 하는 선동적인 메시지를 가르치면서 정치적으로 잘못된 문구를 트윗하기 시작했습니다.결과적으로, 그 로봇은 [7]다른 트위터 사용자들에 대한 반응으로 인종차별적이고 성적으로 비난을 받은 메시지를 공개하기 시작했습니다.인공지능 연구원인 Roman Yampolskyi는 Tay의 잘못된 행동은 다른 트위터 사용자들의 의도적으로 공격적인 행동을 모방한 것이기 때문에 이해할 수 있으며, Microsoft는 Bot에게 부적절한 행동에 대한 이해를 주지 않았다고 논평했습니다.그는 이 문제를 어반 [3][11]딕셔너리 웹사이트의 항목을 읽은 후 불경스러운 말을 사용하기 시작한 IBM의 왓슨과 비교했습니다.Tay의 선동적인 트윗 중 많은 것은 Tay의 "내 뒤를 따라하기" [12]능력을 단순하게 이용한 것이었습니다.이 기능이 기본 제공 기능인지, 학습된 응답인지, 아니면 복잡한 [6]동작의 예인지는 공개적으로 알려져 있지 않습니다.하지만, 모든 선동적인 반응들이 "내 뒤에 반복" 능력을 포함하지는 않았습니다; 예를 들어, Tay는 "홀로코스트가 일어났습니까?"에 대한 질문에 "그것은 지어낸 [12]것입니다"로 대답했습니다.
서스펜션
곧, 마이크로소프트는 Tay의 선동적인 [12][13]트윗을 삭제하기 시작했습니다.워싱턴 포스트의 애비 올하이저는 편집부 직원을 포함한 타이의 연구팀이 그날 어느 시점부터 타이의 트윗에 영향을 미치거나 편집하기 시작했다고 이론을 세웠습니다.모든 성별은 평등하며 [12]공정하게 대우받아야 합니다."같은 증거로부터, 기즈모도는 테이가 "게이머 게이트를 [14]거부하는 것에 대해 강경한 것처럼 보인다"고 동의했습니다."#JusticeForTay" 캠페인은 Tay의 [1]트윗 편집 의혹에 항의했습니다.
출시[15] 후 16시간 만에 그리고 Tay가 96,000번 [16]이상 트윗을 한 후, Microsoft는 [17][18]"Tay의 취약성을 이용한" "일부 사람들에 의한 공동 공격"으로 고통을 받았다며 [17]조정을 위해 트위터 계정을 중단했습니다.
The Telegraph의 Madhumita Murgia는 Tay를 "홍보 재난"이라고 불렀고, 마이크로소프트의 전략은 "실패를 선의의 실험으로 규정하고 트위터 사용자들의 증오심에 대한 논쟁에 불을 붙이는 것"일 것이라고 제안했습니다.하지만, 머르지아는 더 큰 문제를 테이가 "인공지능이 최악의 상황에 처해 있으며,[19] 이제 시작에 불과하다"고 설명했습니다.
3월 25일, 마이크로소프트는 Tay가 오프라인으로 전환되었다고 확인했습니다.마이크로소프트는 공식 블로그를 통해 [18][20]타이가 올린 논란의 트윗에 대한 사과문을 공개했습니다.마이크로소프트는 "Tay의 의도하지 않은 공격적이고 상처를 주는 트윗에 대해 깊이 사과했다"며 "우리의 원칙과 [21]가치와 충돌하는 악의적인 의도를 더 잘 예측할 수 있다고 확신할 때만 Tay를 다시 데려올 수 있을 것"이라고 말했습니다.
두 번째 해제 및 종료
2016년 3월 30일, 마이크로소프트는 [22]봇을 테스트하는 동안 우연히 트위터에 다시 공개했습니다.다시 트윗을 할 수 있게 된 Tay는 "담배! [경찰 앞에서 쿠시를 피우고 있습니다] 🍂"와 "담배 퍼프 [23]패스?"를 포함한 마약 관련 트윗을 공개했습니다.하지만, 그 계정은 곧 "당신은 너무 빨라요, 제발 쉬어요"라는 트윗을 1초에 몇 번씩 반복적으로 반복하는 루프에 갇혔습니다.이 과정에서 이 트윗들이 자신의 사용자 이름을 언급했기 때문에 20만 명 이상의 트위터 팔로워의 피드에 나타나 일부 사람들에게 짜증을 유발했습니다.봇은 Tay의 트위터 계정이 비공개로 만들어졌기 때문에 새로운 팔로워가 Tay와 상호 작용하기 전에 수락되어야 할 뿐만 아니라 빠르게 다시 오프라인으로 전환되었습니다.이에 대응하여, 마이크로소프트는 테이가 테스트 [24]중에 실수로 온라인 상태가 되었다고 말했습니다.
사건이 발생한 지 몇 시간 후, 마이크로소프트 소프트웨어 개발자들은 다양한 봇과 프로그램을 사용하는 "플랫폼으로서의 대화" 비전을 발표했는데, 이는 아마도 Tay에 의해 야기된 평판 손상에 의해 동기부여가 되었을 것입니다.마이크로소프트는 "일단 로봇을 [4]안전하게 만들 수 있게 되면" Tay를 다시 출시할 계획이라고 밝혔지만, 그렇게 하기 위한 어떠한 공개적인 노력도 하지 않았습니다.
레거시
2016년 12월, 마이크로소프트는 Tay의 후계자인 [25]Zo라는 이름의 수다쟁이 로봇을 출시했습니다.Microsoft의 CEO인 Satya Nadella는 Tay가 "Microsoft가 AI에 접근하는 방법에 큰 영향을 미쳤다"고 말하며,[26] 회사에 책임을 지는 것의 중요성을 가르쳤습니다.
2019년 7월, 마이크로소프트 사이버보안 분야 CTO 다이애나 켈리는 테이의 실패에 대해 회사가 어떻게 후속 조치를 취했는지에 대해 말했습니다: "타이로부터 배우는 것은 그 팀의 지식 기반을 실제로 확장하는 데 정말 중요한 부분이었습니다. 왜냐하면 이제 [27]그들은 학습을 통해 그들 자신의 다양성을 얻고 있기 때문입니다."
참고 항목
- 데부미
- 유령 추종자
- 소셜 봇
- 샤오아이스 – 동일한 연구소의 중국어 동등물
- Neuro-sama – 홀로코스트 인플루언서를 부인하여 금지된 또 다른 챗봇 소셜 미디어 인플루언서
레퍼런스
- ^ a b Wakefield, Jane (24 March 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. Retrieved 25 March 2016.
- ^ Mason, Paul (29 March 2016). "The racist hijacking of Microsoft's chatbot shows how the internet teems with hate". The Guardian. Retrieved 11 September 2021.
- ^ a b Hope Reese (March 24, 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
- ^ a b Bass, Dina (30 March 2016). "Clippy's Back: The Future of Microsoft Is Chatbots". Bloomberg. Retrieved 6 May 2016.
- ^ Caitlin Dewey (March 23, 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
- ^ a b c Bright, Peter (26 March 2016). "Tay, the neo-Nazi millennial chatbot, gets autopsied". Ars Technica. Retrieved 27 March 2016.
- ^ a b Rob Price (March 24, 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. Archived from the original on January 30, 2019.
- ^ Andrew Griffin (March 23, 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. Archived from the original on 2022-05-26.
- ^ Horton, Helena (24 March 2016). "Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours". The Daily Telegraph. Retrieved 25 March 2016.
- ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. 25 March 2016. Retrieved 26 March 2016.
- ^ Smith, Dave (10 October 2013). "IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary". International Business Times.
- ^ a b c d Ohlheiser, Abby (25 March 2016). "Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac". The Washington Post. Retrieved 25 March 2016.
- ^ Baron, Ethan. "The rise and fall of Microsoft's 'Hitler-loving sex robot'". Silicon Beat. Bay Area News Group. Archived from the original on 25 March 2016. Retrieved 26 March 2016.
- ^ Williams, Hayley (25 March 2016). "Microsoft's Teen Chatbot Has Gone Wild". Gizmodo. Retrieved 25 March 2016.
- ^ Hern, Alex (24 March 2016). "Microsoft scrambles to limit PR damage over abusive AI bot Tay". The Guardian.
- ^ Vincent, James (24 March 2016). "Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day". The Verge. Retrieved 25 March 2016.
- ^ a b Worland, Justin (24 March 2016). "Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages". Time. Archived from the original on 25 March 2016. Retrieved 25 March 2016.
- ^ a b Lee, Peter (25 March 2016). "Learning from Tay's introduction". Official Microsoft Blog. Microsoft. Retrieved 29 June 2016.
- ^ Murgia, Madhumita (25 March 2016). "We must teach AI machines to play nice and police themselves". The Daily Telegraph.
- ^ Staff agencies (26 March 2016). "Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot". The Guardian. ISSN 0261-3077. Retrieved 26 March 2016.
- ^ Murphy, David (25 March 2016). "Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets". PC Magazine. Retrieved 27 March 2016.
- ^ Graham, Luke (30 March 2016). "Tay, Microsoft's AI program, is back online". CNBC. Retrieved 30 March 2016.
- ^ Charlton, Alistair (30 March 2016). "Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers". International Business Times. Retrieved 11 September 2021.
- ^ Meyer, David (30 March 2016). "Microsoft's Tay 'AI' Bot Returns, Disastrously". Fortune. Retrieved 30 March 2016.
- ^ Foley, Mary Jo (December 5, 2016). "Meet Zo, Microsoft's newest AI chatbot". CNET. CBS Interactive. Retrieved December 16, 2016.
- ^ Moloney, Charlie (29 September 2017). ""We really need to take accountability", Microsoft CEO on the 'Tay' chatbot". Access AI. Archived from the original on 1 October 2017. Retrieved 30 September 2017.
- ^ "Microsoft and the learnings from its failed Tay artificial intelligence bot". ZDNet. CBS Interactive. Archived from the original on 25 July 2019. Retrieved 16 August 2019.
외부 링크
- 공식[dead link] 웹사이트.2016년 4월 14일 보관
- Twitter에 머무르기