키스멧(로봇)
Kismet (robot)Kismet은 1990년대 Massachusetts Institute of Technology의 Cynthia Breazal 박사가 감성 컴퓨팅의 실험으로 만든 로봇 헤드입니다. 감정을 인식하고 시뮬레이션할 수 있는 기계입니다.키스멧이라는 이름은 터키어로 "운명" 혹은 "행운"[1]을 뜻합니다.
하드웨어 설계 및 구축
키스멧이 인간과 적절히 상호작용하기 위해 청각, 시각, 고유 감각 능력을 부여하는 입력 장치를 포함하고 있다.키스멧은 다양한 표정, 발성, 움직임을 통해 감정을 시뮬레이션합니다.얼굴표정은 귀, 눈썹, 눈꺼풀, 입술, 턱, 머리의 움직임을 통해 만들어진다.물리적 재료 비용은 약 25,[1]000달러였습니다.
위의 기기 외에 Motorola 68332 4대, 400MHz PC 9대, 500MHz PC 1대가 있습니다.[1]
소프트웨어 시스템
키스멧의 사회 지능 소프트웨어 시스템, 즉 합성 신경계는 지적 행동의 인간 모델을 염두에 두고 설계되었다.다음과 같이 6개의[2] 서브시스템이 포함되어 있습니다.
저레벨 기능 추출 시스템
이 시스템은 카메라와 마이크에서 원시 시각 및 청각 정보를 처리합니다.키스멧의 시각 시스템은 눈 감지, 움직임 감지 및 논란이 있지만 피부색 감지를 수행할 수 있습니다.키스멧은 머리를 움직일 때마다 순간적으로 동작 감지 시스템을 비활성화해 자가 동작 감지를 피한다.또한 스테레오 카메라를 사용하여 시야에 있는 물체의 거리를 추정합니다. 예를 들어,[3] 움직임이 많은 크고 가까운 물체인 위협을 감지합니다.
키스멧의 오디오 시스템은 주로 유아 주도형 음성에서 영향을 식별하도록 조정된다.특히, 그것은 5가지 다른 종류의 감정 표현을 탐지할 수 있다: 승인, 금지, 주의력, 편안함, 그리고 중립.감성적 의도 분류자는 다음과 같이 작성되었습니다.녹음된 음성의 표본에서 피치 평균과 에너지(체적) 분산과 같은 낮은 수준의 특징을 추출했다.그런 다음 가우스 혼합 모델로 정서적 의도 클래스를 모델링하고 기대-최대화 알고리즘을 사용하여 이러한 샘플로 훈련했다.분류는 여러 단계로 이루어지며, 먼저 발언을 두 개의 일반적인 그룹 중 하나로 분류한 후(예: 진정/중립 vs. 금지/주의/승인) 보다 상세한 분류를 수행한다.이 아키텍처는 승인("당신은 영리한 로봇")과 주의("Hey Kismet, 이쪽")[3]와 같이 구별하기 어려운 클래스의 성능을 크게 향상시켰습니다.
동기 부여 시스템
브리지얼 박사는 로봇과의 관계를 '내가 본질적으로 관리인이고 로봇은 유아와 같은' 유아-보육자 상호작용과 같은 것으로 묘사한다.개요는 인간과 로봇의 관계를 학습 범위 내에서 설정하고, 브리질 박사는 키스멧의 발전을 위한 발판을 제공합니다.이것은 로봇의 '동기부여 상태'를 전달하는 감정적인 표정으로 설명되는 키스멧의 능력을 보여준다.브레이잘 박사는 "이것은 분노, 혐오, 흥분, 두려움, 이것은 행복, 이것은 흥미, 이것은 슬픔, 놀라움, 그리고 이것은 [4]수면이다."
어느 순간에도 키스멧은 한 번에 하나의 감정 상태에 있을 수 있다.그러나 브라이얼은 키스멧이 의식이 없기 때문에 [5]감정이 없다고 말한다.
모터 시스템
키스멧은 아기의 옹알이와 비슷하게 다양한 음소를 가진 원어를 말한다.DECtalk 음성 신시사이저를 사용하여 피치, 타이밍, 발음 등을 변경하여 다양한 감정을 표현합니다.억양은 질문과 진술과 같은 발언 사이에서 변화하기 위해 사용된다.립 싱크로나이즈는 리얼리즘에 중요했고 개발자들은 [6]애니메이션의 전략을 사용했다: "단순함이 립 애니메이션을 성공시키는 비결이다."따라서, 그들은 입술 동작을 완벽하게 흉내내려고 노력하지 않고, 대신에 "시청자의 이의 없이 지나가는 시각적인 짧은 손을 만들어 냈다."