자동화 바이어스
Automation bias| 다음에 대한 시리즈 일부 |
| 자동화 |
|---|
![]() |
| |
| 무역 박람회 |
| |
| 수상 |
| |
| 로봇 |
| |
| 일반목적 |
| 홈 오토메이션 |
| 특정목적 |
| 자동 수행원 |
| 사회운동 |
자동화 편향은 인간이 자동화된 의사결정 시스템의 제안을 선호하고 그것이 옳다고 하더라도 자동화 없이 만들어진 모순된 정보를 무시하는 경향이다.[1] 자동화 편향은 사람들이 중립적인 대상보다 인간이 내린 결정에 더 많은 긍정적인 평가를 부여한다는 것을 보여주는 인간과 인간의 상호작용에서 편향을 발견한 사회심리학 문헌에서 비롯된다.[2] 자동화된 의사결정이 중립보다 더 긍정적으로 평가되는 인간-자동화 상호작용에 대해서도 동일한 유형의 긍정 편향이 발견되었다.[3][4] 이것은 중환자실, 원자력 발전소, 항공기 조종사들이 컴퓨터 시스템 모니터와 의사결정 보조장치를 통합하여 인간의 실수 가능성을 대부분 배제함으로써 의사 결정에 있어 점점 더 큰 문제가 되고 있다. 자동화 편향의 오류는 의사결정이 컴퓨터나 기타 자동화된 보조장치에 의존하고 인간이 관측소 역할에 있지만 결정을 내릴 수 있을 때 발생하는 경향이 있다. 자동화 편향의 예는 자동 조종기로 비행기를 조종하는 것과 같은 긴급한 문제에서부터 철자 검사 프로그램의 사용과 같은 일상적인 문제까지 다양하다.[5]
불용 및 오용
또한 운영자의 시스템에 대한 신뢰는 시스템 사용, 오용, 불용, 남용 등 시스템과의 다른 상호작용으로 이어질 수 있다.[6][vague]
자동화된 보조 기구에 과도하게 의존하는 경향은 "자동화 오용"으로 알려져 있다.[6][7] 자동화의 오용은 사용자가 자동화된 시스템을 제대로 감시하지 못하거나, 자동화된 시스템을 사용해서는 안 될 때 볼 수 있다. 이는 사용자가 자동화를 끄거나 무시함으로써 자동화를 제대로 활용하지 못하는 불용과는 대조적이다. 오용과 불용 모두 문제가 될 수 있지만, 자동화 편향은 시스템의 능력에 대한 지나친 신뢰나 경험적 접근에 대한 기본화를 통한 자동화의 오용과 직결된다. 오용은 자동화 시스템에 대한 모니터링 부족 또는 자동화 제안으로 인한 맹목적인 합의로 이어질 수 있으며, 이는 각각 누락 오류와 수수료 오류의 두 가지 유형으로 분류된다.[8][9][6]
자동화의 이용과 폐기는 정보 수집, 정보 분석, 의사결정 및 행동 선택, 행동 구현 등의 정보 처리 단계에도 영향을 미칠 수 있다.[10][page needed]
예를 들어 정보처리의 첫 단계인 정보취득은 사용자가 감각을 통해 입력을 등록하는 과정이다.[10][page needed] 자동화된 엔진 게이지는 사용자의 선택적 주의를 유도함으로써 엔진 성능의 변화를 강조하는 것과 같은 간단한 인터페이스 기능을 통해 사용자가 정보를 획득하는 데 도움을 줄 수 있다. 항공기에서 발생하는 문제에 직면했을 때, 조종사들은 항공기의 엔진 계량기를 과신하는 경향이 있어 엔진과 관련이 없는 다른 가능한 오작동을 보지 못할 수 있다. 이러한 태도는 자동화 안일함과 오용의 한 형태다. 그러나 조종사가 엔진 게이지 해석에 시간을 할애하고 그에 따라 항공기를 조종하는 경우, 비행 난류가 변경되지 않았음을 발견하기 위해 조종사는 엔진 게이지가 전달하는 미래의 오류 권고사항(사용에 이르는 자동화 만족의 한 형태)을 무시하는 경향이 있을 수 있다.
과실과 태만의 죄
자동화 편향은 사용자가 다른 정보 출처를 고려하지 않고 자동화된 지시사항을 따를 때 발생하는 커미션 오류의 형태를 취할 수 있다. 반대로 누락 오류는 자동화된 장치가 문제를 감지하거나 표시하지 못하고 사용자가 시스템을 제대로 감시하지 않아 알아차리지 못할 때 발생한다.[11]
누락의 오류는 인지적 경계 감퇴에 기인하는 반면, 수수료의 오류는 정보를 고려하지 못한 것과 자동화된 보조 기구의 신뢰성에 대한 지나친 신뢰가 복합적으로 기인하는 것으로 나타났다.[5] 커미션 오류는 (1) 자동화된 지원에서 주의를 다른 곳으로 돌리기, (2) 지원에 대한 주의력 감소, (3) 지원자의 권고에 반하는 정보의 적극적인 할인 등의 세 가지 이유로 발생한다.[12] 누락 오류는 시스템의 낮은 경계 또는 과신뢰로 인해 인적 의사결정자가 자동화 실패를 감지하지 못할 때 발생한다.[5] 예를 들어, 철자 검사 프로그램이 단어를 철자가 틀린 것으로 잘못 표시하고 대안을 제시하는 것은 커미션의 오류일 것이고 철자 검사 프로그램이 철자가 틀린 것을 알아차리지 못하는 것은 누락의 오류일 것이다. 이 경우 사용자가 사전과 상의하지 않고 대체 단어를 받아들이거나, 틀린 철자를 알아차리지 못하고 단어를 검토하지 않고 모든 단어가 정확하다고 가정함으로써 자동화 편향을 관찰할 수 있다.
자동화 편향성 및 관련 문제 축소에 중점을 둔 교육은 수수료 오류 발생률은 낮지만 누락 오류는 낮춘 것으로 나타났다.[5]
요인들
한 정보원이 말하듯이 자동 보조 기구의 존재는 "의사결정자들이 다른 진단 정보를 찾으려는 인지 노력을 하거나 모든 가용 정보를 인지적으로 복잡한 방법으로 처리할 가능성을 감소시킨다"고 말한다. 그것은 또한 사용자들이 특정 행동 방침을 취하라는 자동 원조에 의해 자극을 받은 후 상황에 대한 평가를 너무 성급하게 결론 내릴 가능성이 더 높다.[7]
한 소식통에 따르면 자동화 편중으로 이어지는 요인은 크게 세 가지다. 첫째, 인간이 의사 결정에 대한 최소한의 인지적 접근법을 선택하는 경향, 이것을 인지적 구두쇠 가설이라고 한다. 둘째, 인간이 자동화된 원조를 자기보다 뛰어난 분석 능력을 가진 것으로 보는 경향이다. 셋째, 인간이 다른 사람과 일을 나눌 때, 또는 자동화된 원조로 자신의 노력을 줄이는 경향이다.[12]
자동화에 과도하게 의존하게 되고 따라서 자동화 편중으로 이어지는 다른 요인으로는 작업 경험 부족(자동화된 의사결정 지원 시스템의 혜택을 가장 많이 받는 경향이 있지만), 자신의 능력에 대한 신뢰 부족, 쉽게 구할 수 있는 대체 정보의 부족 또는 복잡한 작업에 대한 시간과 노력을 절약하고자 하는 욕구가 있다. 작업 또는 높은 워크로드.[13][14][15][8] 자체 의사결정 능력에 대한 신뢰도가 높은 사람은 외부 자동화 지원에 덜 의존하는 경향이 있는 반면, 의사결정 지원 시스템(DSS)에 대한 신뢰도가 높은 사람은 더 의존적인 것으로 나타났다.[13]
화면 디자인
한 연구 저널 미국 의학 정보 과학 협회에서 발행한 것 충고는 스크린에서 위치와 명성, 멋있게 장식된 충고, 정확한에, 더 따를 것;또 다른 연구, 그러나, 이 요소의 중요성을 무시하는 것처럼 보였다 것 같다 자동화 편견의 가능성에 영향을 미친다는 사실을 발견하였다.[13] 또 다른 연구에 따르면 화면상 세부사항이 많을수록 사용자가 덜 "보수적"이 되고 따라서 자동화 편향의 가능성이 높아질 수 있다고 한다.[13] 한 연구는 개인이 자신의 성과나 결정의 정확성에 대해 책임을 지도록 하는 것이 자동화 편견을 줄인다는 것을 보여주었다.[5]
유용성
린다 스키트카의 한 연구는 "자동화된 의사결정 보조 기구의 가용성은 때때로 최소한의 인지 노력의 길을 여행하려는 일반적인 인간의 경향을 반영할 수 있다"[5]고 말한다.
프로세스에 대한 인식
또한 한 연구에서는 사용자가 의사결정 지원 시스템에 의해 채택된 추론 과정을 알게 되면 그에 따라 의존도를 조정하여 자동화 편중을 줄일 가능성이 높은 것으로 나타났다.[13]
팀 대 개인
개인이 단독으로 행동하는 대신 승무원이 수행하는 작업이 자동화 편중을 반드시 없애지는 않는다.[16][11] 한 연구는 자동화된 장치가 시스템 부정을 감지하지 못했을 때, 팀들은 그러한 부정에 대응하는 데 있어서 솔로 연주자들만큼 성공적이지 못했다는 것을 보여주었다.[5]
트레이닝
항공 자동화 편향에 초점을 맞춘 교육이 학생 조종사들의 누락 오류를 줄이는 데 성공했다.[16][11]
자동화 실패 및 "학습된 부주의"
자동화 실패에 이어 운용자 신뢰 하락이 이어지고, 신뢰 회복이 더딘 것으로 나타났다. 초기 자동화 실패 후 신뢰 감소가 첫 번째 실패 효과로 설명되어 왔다.[12] 같은 맥락에서, 만약 자동화된 보조 기구가 시간이 지남에 따라 높은 신뢰도를 보인다면, 그 결과는 자동화 편향의 고조된 수준이 될 가능성이 있다. 이를 '학습된 부주의'[12]라고 한다.
시스템 신뢰 정보 제공
시스템 신뢰 정보가 사용자에게 제공되는 경우, 그 정보 자체가 자동화 편향의 요소가 될 수 있다.[12]
외부 압력
개인의 인지능력에 외압이 더 많이 작용할수록 외적인 지원에 더 많이 의존할 수 있다는 연구결과가 나왔다.[13]
정의상의 문제
자동화 편향은 많은 연구의 대상이 되었지만, 자동화 편향이 여전히 잘못 정의되어 있고 자동화 편향과 관련된 사고에 대한 보고가 체계적이지 않다는 불만이 계속 제기되고 있다.[13][8]
다양한 자동화 편향 연구에 대한 검토는 자동화된 보조 기구를 사용한 여러 유형의 작업과 자동화된 보조 기구의 기능을 분류했다. 자동 보조기구를 사용한 업무는 모니터링 업무, 진단 업무 또는 치료 업무로 분류되었다. 자동 지원의 유형은 중요한 변경을 추적하고 사용자에게 경고하는 경보 자동화, 진단 또는 권장사항을 제공할 수 있는 의사결정 지원 자동화 또는 자동 지원이 지정된 작업을 수행하는 구현 자동화 등으로 나열되었다.[8]
자동화로 인한 안일한 대응
자동화 편향의 개념은 자동화에 의한 안일과 겹치는 것으로 간주되며, 또한 자동화 안일이라고도 더 간단히 알려져 있다. 자동화 편향과 마찬가지로, 그것은 자동화의 오용의 결과로서 주의의 문제를 수반한다. 자동화 편향은 의사결정 지원 시스템을 신뢰하는 경향을 수반하지만, 자동화 만족도는 대개 그 출력이 신뢰할 수 있는 것으로 간주되기 때문에 자동화 출력에 대한 충분한 주의와 모니터링을 수반한다.[13] 한 전문가는 "그동안 안일함과 자동화 편향성의 개념은 독립된 것처럼 따로 논의돼 왔다"면서 "그것들은 여러 가지 공통점을 공유하고 있어 같은 종류의 자동화 오용의 다른 측면을 반영하고 있음을 시사한다"고 썼다. 실제로 이 두 개념은 "중복 자동화에 의한 현상의 상이한 발현을 나타내며", "자동화에 의한 안일과 자동화 편향은 밀접하게 연결된 이론적 결함을 나타내기 때문에, 안일주의와 자동화 편향의 개념을 하나의 "통합적 개념"으로 결합하는 것이 제안되었다.기본 프로세스와 관련하여 상당한 중복성을 보이는 cepts."[12]
자동화 만족도는 "수동 제어 하에서보다 자동화 상태에서 시스템 오작동을 더 많이 감지하는 것"으로 정의되어 왔다. NASA의 항공안전 보고시스템(ASRS)은 만족스러운 시스템 상태에 대한 정당하지 못한 가정에 근거하여 안전하지 않은 결과를 초래할 수 있는 자기 만족도"로 정의하고 있다. 여러 연구에서는 사업자가 수동 작업과 자동 작업을 동시에 수행할 때 가장 자주 발생하는 것으로 나타났다. 또한, 자동화된 시스템의 신뢰성에 대한 운영자의 인식은 운영자가 시스템과 상호작용하는 방식에 영향을 미칠 수 있다. Endsley(2017년)는 높은 시스템 신뢰성으로 인해 사용자가 모니터링 시스템에서 이탈하여 모니터링 오류를 증가시키고 상황 인식을 감소시키며 성능 제한이 초과된 경우 운영자의 시스템 제어 재평가 능력을 방해할 수 있는 방법을 설명한다.[17] 이러한 안일함은 자동화 신뢰성이 일정하게 유지되지 않고 시간에 따라 변화할 때 급격히 감소할 수 있지만 경험과 실천에 의해 감소되지 않는다. 전문가 및 비전문가 참여자 모두 자동화 편향뿐만 아니라 자동화 만족도를 보일 수 있다. 이 두 문제 모두 훈련으로는 쉽게 극복할 수 없다.[12]
'자율안심'이라는 용어는 항공사고나 조종사, 항공교통관제사, 기타 근로자들이 실제로 사고가 일어나려고 할 때 모든 것이 괜찮다고 가정하고 시스템을 충분히 점검하지 못한 사건과 관련하여 처음 사용되었다. 자동화와 관련 있든 없든 운영자의 안일함은 항공사고의 선도적 요인으로 오랫동안 인식되어 왔다.[12]
이와 같이 일반적으로 신뢰성에 대한 인식은 자동화를 더 많이 수행하면 인지 작업부하는 감소하지만 오류를 모니터링할 기회를 증가시킬 수 있는 자동화 아이러니의 형태로 귀결될 수 있다. 이와는 대조적으로, 낮은 자동화는 작업량을 증가시키지만 오류를 모니터링할 기회는 감소시킬 수 있다.[18] 예를 들어, 궂은 날씨를 뚫고 비행하는 조종사를 예로 들자면, 지속적인 천둥소리가 항공 교통 관제사(ATC)가 전송하는 정보를 이해하는 조종사의 능력을 방해하는 것이다. 항공 교통 관제사가 전송하는 정보를 이해하는 데 얼마나 많은 노력을 할애하고 있음에도 불구하고, 조종사의 수행은 업무에 필요한 정보의 출처에 의해 제한된다. 따라서 조종사는 비행 경로 정보를 이해하기 위해 조종석에 있는 자동 계기판에 의존해야 한다. 조종사가 자동측정기의 신뢰성이 높다고 판단하면 ATC와 자동측정기를 이해하는 데 필요한 노력의 양이 감소할 수 있다. 또한, 자동화된 게이지가 매우 신뢰할 수 있다고 인식되는 경우 조종사는 그러한 게이지를 무시하여 항공 교통 관제사가 전송하는 정보를 해독하기 위한 정신적 자원을 투입할 수 있다. 그렇게 함으로써 파일럿은 안일한 모니터가 되어 자동화된 게이지로 전달되는 중요한 정보가 누락될 위험이 있다. 그러나 파일럿이 자동화된 게이지를 신뢰할 수 없다고 인식한다면, 이제 파일럿은 ATC와 자동 게이지의 정보를 동시에 해석해야 할 것이다. 이는 자동화가 실제로 신뢰할 수 있을 때 운영자가 불필요한 인지 자원을 낭비할 수 있는 시나리오를 만들지만, 또한 이러한 상황이 발생할 경우 기상 측정기의 잠재적 오류를 식별할 확률을 증가시킨다. 조종사의 신뢰성 인식을 교정하기 위해 자동화는 작업부하를 적절한 수준으로 유지하는 동시에 운영자가 모니터링 작업에 계속 관여하도록 설계되어야 한다. 운영자는 시스템 신뢰성이 일관적인 시스템에 비해 시스템 신뢰성이 변경될 수 있는 경우 모니터링에서 벗어날 가능성이 적어야 한다(Parasuraman,[19] 1993)
사용자 안일함은 어느 정도 자동화의 이점을 상쇄하고, 자동화 시스템의 신뢰성 수준이 일정 수준 이하로 떨어지면 자동화는 더 이상 순자산이 아닐 것이다. 2007년 한 연구에 따르면 이러한 자동화는 신뢰성 수준이 약 70%에 도달할 때 발생한다고 한다. 다른 연구에서는 신뢰성 수준이 70% 미만인 자동화는 원시 정보원에 접근하는 사람이 사용할 수 있으며, 이를 자동화 출력과 결합하여 성능을 개선할 수 있다는 것을 밝혀냈다.[12]
섹터
자동화 편향은 많은 연구 분야에 걸쳐 조사되어 왔다.[13] 특히 항공, 의료, 공정 통제, 군 지휘통제 운영에서 중요한 관심사가 될 수 있다.[12]
항공
처음에는 자동화 편향에 대한 논의가 주로 항공 분야에 집중되었다. 자동화된 보조 장치는 가장 연료 효율이 높은 경로를 결정하고, 항해를 하고, 시스템 오작동을 감지하고 진단하는 것과 같은 비행 작업을 제어하는 데 점점 더 많은 역할을 하고 있다. 그러나 이러한 보조기구의 사용은 인간의 입장에서 덜 주의깊고 덜 경계하는 정보를 찾고 처리하는 것으로 이어질 수 있다. 경우에 따라서는 인간이 자신의 기술보다 비행 컴퓨터가 제공하는 오보에 더 많은 신뢰를 둘 수도 있다.[7]
항공 관련 자동화 편향의 중요한 요인은 조종사들이 자동화된 보조장치에 의해 수행되고 있는 과제에 대해 스스로 책임지고 있다고 인식하는 수준이다. 조종사들에 대한 한 연구는 조종석에 두 번째 승무원이 있는 것이 자동화 편향에 영향을 미치지 않는다는 것을 보여주었다. 1994년의 한 연구는 낮은 수준의 자동화 수준과 높은 자동화 수준(LOA)이 파일럿 성능에 미치는 영향을 비교했고, 높은 LOA로 작업하는 파일럿이 비행 결정에 독립적으로 반영하는 데 더 적은 시간을 소비한다는 결론을 내렸다.[12]
또 다른 연구에서는, 같은 조종사들이 인터뷰에서 엔진을 정지시켜 그러한 경보에 응답하지 않을 것이며, 대신 전력을 공회전 상태로 줄일 것이라고 주장했음에도 불구하고, 엔진을 끄라고 지시하는 잘못된 자동 경보를 제공했던 모든 조종사들이 그렇게 했다. 1998년 한 연구에서는 약 440시간의 비행 경험을 가진 조종사들이 비 조종사들보다 더 많은 자동화 실패를 감지했지만, 두 그룹 모두 만족스러운 효과를 보였다. 조종석 자동화 시스템을 사용하는 조종사들에 대한 2001년 연구, 엔진 표시 및 승무원 알림 시스템(EICAS)은 안일하다는 증거를 보여주었다. 조종사들은 수동으로 작업을 수행할 때보다 시스템을 사용할 때 엔진 오작동을 덜 감지했다.[12]
2005년 연구에서 숙련된 항공 교통 관제사는 "자체 분리" 항공기 사이의 충돌을 탐지하는 것과 관련된 ATC(자유 비행) 시나리오의 높은 충실도 시뮬레이션을 사용했다. 그들은 몇 분 전에 잠재적 충돌을 식별하는 자동화된 장치에 접근할 수 있었다. 기기가 시뮬레이션 프로세스가 거의 끝나갈 때 고장났을 때 상황을 수동으로 처리할 때보다 훨씬 적은 수의 컨트롤러가 충돌을 감지했다. 다른 연구들도 비슷한 연구결과를 내놓았다.[12]
항공의 자동화 편향에 대한 두 연구에서는 누락 오류보다 수수료 오류 발생률이 더 높았고, 또 다른 항공 연구에서는 누락률 55%와 수수료율 0%가 검출되었다.[13] 크루즈 단계에서 특히 자동화 관련 누락 오류가 흔하다. 차이나 에어라인 항공기가 한 엔진에서 동력을 잃자 오토파일럿은 승무원들에게 문제를 숨긴 행동인 왼쪽 날개를 내려 이 문제를 바로잡으려 했다. 자동 조종 장치가 풀리자 비행기가 오른쪽으로 굴러 가파르게 하강해 막대한 피해를 입혔다. 1983년 소련 상공에서 대한항공 747기가 격추된 것은 한국 승무원들이 "부적절하게 설치된 자동화에 의존했고, 진행 상황을 수동으로 점검한 적도 없다"[7]는 이유에서다.
헬스케어
임상 의사 결정 지원 시스템(CDSS)은 임상 의사 결정을 지원하도록 설계된다. 그들은 이와 관련하여 큰 개선 효과를 낼 수 있고, 환자 결과를 개선할 수 있는 잠재력을 가지고 있다. 그러나 CDS를 제대로 사용하면 전반적인 성능 개선이 이루어지지만 자동화 편중으로 인해 인식되지 않을 수 있는 오류도 발생한다. 한 가지 위험은 이러한 시스템이 제공하는 잘못된 조언이 사용자가 스스로 내린 올바른 결정을 바꾸게 할 수 있다는 것이다. 건강관리 분야에서 AB의 잠재적 결과 중 일부에 대한 매우 심각한 특성을 고려할 때, 특히 임상 환경에서 발생할 때 이 문제를 인식하는 것이 중요하다.[13]
때때로 임상 환경에서 자동화 편향은 CDS를 균형 있게 역효과적으로 만드는 주요 문제일 수 있으며, 때로는 작은 문제일 수 있으며, 이로 인해 발생한 피해보다 더 큰 이익이 발생한다. 한 연구는 고령 사용자들 사이에서 자동화 편향이 더 높다는 것을 발견했지만, 이는 연령대가 아닌 경험의 결과일 수 있다는 점에 주목했다. 실제로 연구들은 CDS에 익숙해진 것이 종종 감쇠화와 거주화 효과로 이어진다는 것을 시사한다. 주어진 업무에 경험이 부족한 사람 사이에서 자동화 편향이 더 자주 발생하지만, 미숙한 사용자는 CDS를 사용할 때 가장 많은 성능 향상을 보인다. 한 연구에서 CDS의 사용은 29%에서 50%로 21% 개선되었으며, 올바른 비 CDSS 답변의 7%가 잘못 변경되었다.[13]
2005년 한 연구에 따르면 1차 진료의사가 PubMed, Medline, Google과 같은 전자 소스를 사용할 때 정답을 "소형에서 중간"으로 증가시키는 반면, 동일한 비율의 의사들이 정답을 사용하는 것에 현혹되어 정답을 오답으로 바꾸었다.[12]
2004년과 2008년 유방암 진단에 대한 자동화 지원의 효과와 관련된 연구는 누락 오류가 포함된 자동화 편향의 명확한 증거를 발견했다. 자동원조 없이 46%가 진단받은 암은 자동원조된 암의 21%만이 암을 식별하지 못하는 것으로 나타났다.[12]
군대
자동화 편향은 군 지휘통제 운용에 지능형 의사결정 지원 시스템을 사용하는 데 중요한 요인이 될 수 있다. 2004년의 한 연구는 자동화 편향 효과가 이라크 전쟁 중 친선 사격 살해를 포함한 많은 치명적인 군사적 결정에 기여했다는 것을 발견했다. 연구자들은 이 분야의 의사결정 지원 시스템에 적합한 LOA를 결정하기 위해 노력해왔다.[12]
자동차
자동화에 안주하는 것도 사람이 시스템을 감시하거나 예비 운전자의 역할만 하면 되는 자동 운전 시스템에는 도전이다. 예를 들어 우버 시험 차량과 보행자 일레인 헤르츠버그 사이의 치명적인 사고에 대해 국가교통안전위원회 보고서에서 논의된 사례다. [20]
치우침 수정
자동화의 편향은 표시장치의 중요성 감소, 표시 정보의 상세성 또는 복잡성 감소, 지시나 명령이 아닌 지원 정보로서 자동화된 지원을 제공하는 것과 같은 자동화된 시스템의 설계에 의해 완화될 수 있다.[13] 의도적인 오류를 도입하는 것을 포함하는 자동화 시스템에 대한 교육은 사용자에게 오류가 발생할 수 있다는 것을 알리는 것보다 자동화 편견을 줄이는 데 훨씬 더 효과적인 것으로 나타났다.[21] 그러나 자동화된 지원을 과도하게 점검하고 질문하면 작업 시간의 압박과 복잡성이 증가하여 자동화된 지원의 편익을 줄일 수 있으므로 자동화된 의사결정 지원 시스템의 설계는 부정적인 영향을 제거하기 위한 시도보다는 긍정적 효과와 부정적 효과의 균형을 맞출 수 있다.[14]
참고 항목
참조
- ^ Cummings, Mary (2004). "Automation Bias in Intelligent Time Critical Decision Support Systems" (PDF). AIAA 1st Intelligent Systems Technical Conference (PDF). doi:10.2514/6.2004-6313. ISBN 978-1-62410-080-2. Archived from the original on 2014-11-01.CS1 maint: bot: 원래 URL 상태를 알 수 없음(링크)
- ^ 브루너, J. S. & Tagiuri, R. 1954. "사람에 대한 인식" G. Lindzey (Ed.)에서 사회심리학 핸드북 (vol 2): 634-654. 독서, MA: 애디슨 웨슬리.
- ^ Madhavan, P.; Wiegmann, D. A. (2007-07-01). "Similarities and differences between human–human and human–automation trust: an integrative review". Theoretical Issues in Ergonomics Science. 8 (4): 277–301. doi:10.1080/14639220500337708. S2CID 39064140.
- ^ Dzindolet, Mary T.; Peterson, Scott A.; Pomranky, Regina A.; Pierce, Linda G.; Beck, Hall P. (2003). "The role of trust in automation reliance". International Journal of Human-Computer Studies. 58 (6): 697–718. doi:10.1016/S1071-5819(03)00038-7.
- ^ a b c d e f g Skitka, Linda. "Automation". University of Illinois. University of Illinois at Chicago. Retrieved 16 January 2017.
- ^ a b c Parasuraman, Raja; Riley, Victor (1997). "Humans and Automation: Use, Misuse, Disuse, Abuse". Human Factors: The Journal of the Human Factors and Ergonomics Society. 39 (2): 230–253. doi:10.1518/001872097778543886. S2CID 41149078.
- ^ a b c d Mosier, Kathleen; Skitka, Linda; Heers, Susan; Burdick, Mark (1997). "Automation Bias: Decision Making and Performance in High-Tech Cockpits". International Journal of Aviation Psychology. 8 (1): 47–63. doi:10.1207/s15327108ijap0801_3. PMID 11540946.
- ^ a b c d Lyell, David; Coiera, Enrico (August 2016). "Automation bias and verification complexity: a systematic review". Journal of the American Medical Informatics Association. 24 (2): 424–431. doi:10.1093/jamia/ocw105. PMC 7651899. PMID 27516495.
- ^ Tversky, A.; Kahneman, D. (1974). "Judgment under Uncertainty: Heuristics and Biases". Science. 185 (4157): 1124–1131. Bibcode:1974Sci...185.1124T. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
- ^ a b Wickens, Christopher D.; Hollands, Justin G.; Banbury, Simon; Parasuraman, Raja (2015). Engineering Psychology and Human Performance (4th ed.). Psychology Press. ISBN 9781317351320.
- ^ a b c Mosier, Kathleen L.; Dunbar, Melisa; McDonnell, Lori; Skitka, Linda J.; Burdick, Mark; Rosenblatt, Bonnie (1998). "Automation Bias and Errors: Are Teams Better than Individuals?". Proceedings of the Human Factors and Ergonomics Society Annual Meeting. 42 (3): 201–205. doi:10.1177/154193129804200304. S2CID 62603631.
- ^ a b c d e f g h i j k l m n o p Parasuraman, Raja; Manzey, Dietrich (June 2010). "Complacency and Bias in Human Use of Automation: An Attentional Integration". The Journal of the Human Factors and Ergonomics Society. 52 (3): 381–410. doi:10.1177/0018720810376055. PMID 21077562. S2CID 2279803. Retrieved 17 January 2017.
- ^ a b c d e f g h i j k l m Goddard, K.; Roudsari, A.; Wyatt, J. C. (2012). "Automation bias: a systematic review of frequency, effect mediators, and mitigators". Journal of the American Medical Informatics Association. 19 (1): 121–127. doi:10.1136/amiajnl-2011-000089. PMC 3240751. PMID 21685142.
- ^ a b Alberdi, Eugenio; Strigini, Lorenzo; Povyakalo, Andrey A.; Ayton, Peter (2009). "Why Are People's Decisions Sometimes Worse with Computer Support?" (PDF). Computer Safety, Reliability, and Security. Lecture Notes in Computer Science. 5775. Springer Berlin Heidelberg. pp. 18–31. doi:10.1007/978-3-642-04468-7_3. ISBN 978-3-642-04467-0.
- ^ Goddard, Kate; Roudsari, Abdul; Wyatt, Jeremy C. (2014). "Automation bias: Empirical results assessing influencing factors". International Journal of Medical Informatics. 83 (5): 368–375. doi:10.1016/j.ijmedinf.2014.01.001. PMID 24581700.
- ^ a b Mosier, Kathleen; Skitka, Linda; Dunbar, Melisa; McDonnell, Lori (November 13, 2009). "Aircrews and Automation Bias: The Advantages of Teamwork?". The International Journal of Aviation Psychology. 11 (1): 1–14. doi:10.1207/S15327108IJAP1101_1. S2CID 4132245.
- ^ Endsley, Mica (2017). "From Here to Autonomy Lessons Learned From Human–Automation Research". Human Factors. 59 (1): 5–27. doi:10.1177/0018720816681350. PMID 28146676. S2CID 3771328.
- ^ Bainbridge, Lisanne (1983). "Ironies of automation" (PDF). Automatica. 19 (6): 775–779. doi:10.1016/0005-1098(83)90046-8.
- ^ Parasuraman, Raja; Molloy, Robert; Singh, Indramani L. (1993). "Performance Consequences of Automation-Induced 'Complacency'". The International Journal of Aviation Psychology. 3: 1–23. doi:10.1207/s15327108ijap0301_1.
- ^ "Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian". www.ntsb.gov. Retrieved December 19, 2019.
- ^ Bahner, J. Elin; Hüper, Anke-Dorothea; Manzey, Dietrich (2008). "Misuse of automated decision aids: Complacency, automation bias and the impact of training experience". International Journal of Human-Computer Studies. 66 (9): 688–699. doi:10.1016/j.ijhcs.2008.06.001.
추가 읽기
- Goddard, K; Roudsari, A; Wyatt, J. C. (2011). "Automation bias - a hidden issue for clinical decision support system use". International Perspectives in Health Informatics. Studies in Health Technology and Informatics. 164. pp. 17–22. ISBN 978-1-60750-708-6. PMID 21335682.
