인적 신뢰성
Human reliability인간의 신뢰성(인간 성능 또는 HU라고도 함)은 인적 요인 및 인체공학 분야와 관련이 있으며 제조, 의학, 원자력 등의 분야에서 인간의 신뢰성을 의미한다.인간의 수행은 나이, 정신 상태, 신체적 건강, 태도, 감정, 특정한 일반적인 실수에 대한 성향, 오류와 인지적 편견 등과 같은 많은 요인에 의해 영향을 받을 수 있다.
인간의 신뢰성은 특히 오늘날 흔히 볼 수 있는 대규모 사회 기술 시스템의 중요한 부분인 경우 시스템의 복원력과 인간의 실수 또는 과실의 가능한 역효과에 대한 인간의 기여로 인해 매우 중요하다.사용자 중심 설계와 오류 허용 설계는 인간의 작업에 더 적합한 기술을 만들기 위한 노력을 설명하기 위해 사용되는 많은 용어 중 두 개에 불과합니다.
인간 본성의 일반적인 함정
사람들은 일을 할 때 통제력을 유지하는 능력을 과대평가하는 경향이 있다.다음에 설명하는 인간성의 공통적인 특성은 복잡한 작업 환경에서 작업을 [1]수행할 때 특히 강조됩니다.
스트레스 스트레스의 문제는 그것이 사람을 축적하고 제압할 수 있고, 따라서 수행에 해가 될 수 있다는 것입니다.
정신적 스트레스의 회피 인간은 오랜 기간 동안 높은 수준의 주의를 필요로 하기 때문에 오랫동안 집중된 사고에 관여하는 것을 꺼립니다.
정신적 노력을 줄이고 의사결정을 촉진하기 위해 종종 사용되는 정신적 편견 또는 지름길은 다음과 같다.
- 전제 조건 – 사실 확인 없이 당연하게 여겨지거나 사실 확인 없이 사실로 받아들여지는 조건.
- 습관 – 빈번한 반복을 통해 획득되는 무의식적인 행동 패턴.
- 확인 편견 – 현재의 솔루션을 포기하기를 꺼리는 것.
- 유사성 편견 – 유사해 보이는 상황에서 솔루션을 떠올리는 경향
- 주파수 바이어스– 자주 사용하는 솔루션이 기능하는 도박입니다.
- 가용성 바이어스– 쉽게 떠오르는 솔루션 또는 행동 방침에 따라 결정되는 경향.
제한된 작업 메모리 - 정신의 단기 기억은 문제 해결과 의사결정을 위한 "작업대"입니다.
제한된 주의 자원 - 두 개 이상의 활동에 집중하는 능력이 제한적이기 때문에 문제 해결에 필요한 정보를 처리하는 능력이 어려워집니다.
마인드셋 사람들은 인간이 본질적으로 목표 지향적이기 때문에 그들이 성취하고 싶은 것(목표)에 더 집중하는 경향이 있고 피해야 할 것에 덜 집중하는 경향이 있다.이와 같이, 사람들은 마음이 기대하거나 보기를 원하는 것만을 보는 경향이 있다.
자신의 오류를 확인하는 데 어려움 - 개인은 특히 혼자 작업할 때 누락된 오류에 특히 취약합니다.
제한된 시각 - 인간은 볼 수 있는 모든 것을 볼 수 없습니다.의사결정에 관련된 모든 사실을 인지하지 못하는 인간의 정신은 문제 해결에 도전한다.
감정적/사회적 요인에 대한 민감성 - 분노와 당혹감은 팀과 개인의 성과에 악영향을 미칩니다.
피로 - 사람들은 지친다.신체적, 정서적, 정신적 피로는 오류와 판단력 저하로 이어질 수 있습니다.
프레젠티즘 - 일부 직원은 질병이나 부상으로 인해 업무를 수행할 능력이 저하되어도 직장에 소속되어 있어야 합니다.
분석 기법
인체 신뢰성 분석(HRA)[2][3]에는 다양한 방법이 존재한다.두 가지 일반적인 방법은 확률론적 위험 평가(PRA)에 기초한 방법과 인지적 통제 이론에 기초한 방법이다.
PRA 기반 기술
인간의 신뢰성을 분석하는 한 가지 방법은 확률론적 위험 평가(PRA)의 간단한 확장이다. 즉, 발전소에서 기기가 고장날 수 있으므로 인간 운전자도 오류를 범할 수 있다.두 경우 모두 분석(인간을 위한 장비 및 과제 분석을 위한 기능 분해)은 고장 또는 오류 확률을 할당할 수 있는 세부 수준을 명확하게 나타낼 것이다.이 기본 개념은 인간 오류율 예측 기법(THERP)[4]의 배후에 있습니다.THERP는 PRA에 통합될 인간 오류 확률을 생성하기 위한 것이다.사고 시퀀스 평가 프로그램(ASEP) 인간 신뢰성 절차는 THERP의 단순한 형태이며, 관련 계산 도구는 SHEAN([5]Simplified Human Error Analysis Code)이다.최근 미국 원자력규제위원회는 인간 [6][7]오류 가능성을 고려하기 위해 표준화된 발전소 분석 위험 - 인간 신뢰성 분석(SPAR-H) 방법을 발표했다.
인지 제어 기반 기술
에릭 Hollnagel은 문맥론적 관리 모델(코콤)[8]과의 인식 차 신뢰성 오류 분석 방법(CREAM)[9]코콤 모델 제어의 집합modes—strategic(장기 계획에 따라), 전술(절차에 따라), 편의적(현재 컨텍스트를 기초로)로 인간 능력에 자신의 일에, 생각의 이 선을 개발했다. 할퀴다lead(진행) - 이러한 제어 모드 간의 전환 방법에 대한 모델을 제안합니다.이 제어 모드 전환 모델은 조치의 결과에 대한 인간 운영자의 추정치(성공 또는 실패), 조치 달성을 위한 남은 시간(적절하거나 부적절), 그리고 그 당시 인간 운영자의 동시 목표 수를 포함한 많은 요소로 구성된다.CREAM은 COCOM을 기반으로 한 인체 신뢰성 분석 방법입니다.
관련 기술
안전 엔지니어링 및 신뢰성 엔지니어링의 관련 기술에는 고장 모드 및 영향 분석, 위험, 고장 트리 및 SAFIRE(Systems Analysis Programs for Hand-on Integrated Reliability Evaluations)가 포함됩니다.
인적 요인 분석 및 분류 시스템(HFACS)
HFACS(Human Factors Analysis and Classification System)는 항공사고에서 "[10][11]인간 오류"의 역할을 이해하기 위한 프레임워크로 처음 개발되었다.이것은 복잡한 시스템에서의 인간 오류에 대한 James Reason의 스위스 치즈 모델에 기초하고 있습니다.HFACS는 안전하지 않은 행동의 '액티브 장애'와 안전하지 않은 행동, 안전하지 않은 감독 및 조직에 미치는 영향에 대한 전제 조건의 '잠시 장애'를 구분합니다.이러한 범주는 많은 항공 사고 보고서를 기반으로 경험적으로 개발되었다.
"안전하지 않은 행위"는 "전선에서" 인간 오퍼레이터(예: 조종사, 항공 교통 관제사, 운전자)에 의해 수행됩니다.안전하지 않은 행동은 오류(인식, 의사결정 또는 스킬 기반 성능) 또는 위반(루틴 또는 예외)일 수 있습니다.여기서의 오류는 위의 설명과 유사합니다.위반은 규칙과 절차를 의도적으로 무시하는 것입니다.이름에서 알 수 있듯이 일상적 위반은 습관적으로 발생하는 위반으로, 일반적으로 조직이나 당국에 의해 허용됩니다.예외적인 위반은 드물고 종종 극단적입니다.예를 들어, 55mph 구역 제한 속도에서 60mph를 주행하는 것은 일상적인 위반이지만, 같은 구역에서 130mph를 주행하는 것은 예외적입니다.
안전하지 않은 행위에 대한 전제 조건에는 두 가지 유형이 있다. 즉, 인간 운영자의 내부 상태와 관련된 조건과 인간 운영자의 관행 또는 작업 방법과 관련된 조건이다.부정적인 내부 상태는 생리(예: 질병)와 정신 상태(예: 정신적으로 피곤하고 산만함)와 관련된 상태를 포함한다.'내부 상태'의 세 번째 측면은 실제로 운영자의 능력과 작업 요구 간의 불일치이다. 예를 들어, 운영자는 눈앞의 작업을 지원할 만큼 시각적인 판단을 내리거나 신속하게 반응하지 못할 수 있다.부실한 운영자 관행은 안전하지 않은 행위를 위한 또 다른 유형의 전제 조건입니다.여기에는 열악한 승무원 자원 관리(리더십 및 커뮤니케이션 등의 문제)와 열악한 개인 준비 관행(예: 항공 승무원 휴식 요건 위반)이 포함된다.
안전하지 않은 감독에는 부적절한 감독, 계획된 부적절한 조작, 알려진 문제를 수정하지 못한 경우 및 감독 위반의 4가지 유형이 있습니다.
조직의 영향에는 자원 관리(예: 불충분한 인적 자원 또는 재정적 자원), 조직 환경(구조, 정책, 문화) 및 조직 프로세스(예: 절차, 일정, 감독)와 관련된 영향이 포함됩니다.
「 」를 참조해 주세요.
- 절대확률판단
- ATEANA – 인체 신뢰성 평가 분야에서 사용되는 기술(인간 이벤트 분석 기술)
- 인간의 신뢰성 분야에서 사용되는 기술인 HEART(Human Error Assessment and Reduction Technology)
- 영향도 접근법
- 잠재적 인적 오류 – 안전 작업 및 사고 예방에 사용되는 용어
- 팀오류
- TESEO(Tecnica Experimica Stima Errori Operatori)
각주
- ^ https://www.standards.doe.gov/standards-documents/1000/1028-BHdbk-2009-v1/@@filename/파일 DOE-HDBK-1028-2009
- ^ 키르완 앤 아인스워스, 1992년
- ^ 키르완, 1994
- ^ 스와인 & 구트만, 1983년
- ^ 단순화된 인간 오류 분석 코드(Wilson, 1993년)
- ^ SPAR-H
- ^ Gertman et al., 2005
- ^ (Hollnagel, 1993년)
- ^ (Hollnagel, 1998)
- ^ 샤펠과 비그만, 2000년
- ^ 비그만과 샤펠, 2003
레퍼런스
- Gertman, D. L.; Blackman, H. S. (2001). Human reliability and safety analysis data handbook. Wiley.
- Gertman, D., Blackman, H., Marble, J., Byers, J. and Smith, C. (2005). The SPAR-H human reliability analysis method. NUREG/CR-6883. Idaho National Laboratory, prepared for U. S. Nuclear Regulatory Commission.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크)[1] - M. Cappelli, A.M.Gadomski, M.Sepielli (2011). Human Factors in Nuclear Power Plant Safety Management: A Socio-Cognitive Modeling Approach using TOGA Meta-Theory. Proceedings of International Congress on Advances in Nuclear Power Plants. Nice (FR). SFEN (Société Française d'Energie Nucléaire).
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Hollnagel, E. (1993). Human reliability analysis: Context and control. Academic Press.
- Hollnagel, E. (1998). Cognitive reliability and error analysis method: CREAM. Elsevier.
- Hollnagel, E.; Amalberti, R. (2001). The Emperor's New Clothes, or whatever happened to "human error"? Invited keynote presentation at 4th International Workshop on Human Error, Safety and System Development. Linköping, June 11–12, 2001.
- Hollnagel, E., Woods, D. D., and Leveson, N. (Eds.) (2006). Resilience engineering: Concepts and precepts. Ashgate.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Jones, P. M. (1999). Human error and its amelioration. In Handbook of Systems Engineering and Management (A. P. Sage and W. B. Rouse, eds.), 687-702. Wiley.
- Kirwan, B. (1994). A Guide to Practical Human Reliability Assessment. Taylor & Francis.
- Kirwan, B. and Ainsworth, L. (Eds.) (1992). A guide to task analysis. Taylor & Francis.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Norman, D. (1988). The psychology of everyday things. Basic Books.
- Reason, J. (1990). Human error. Cambridge University Press.
- Roth, E.; et al. (1994). An empirical investigation of operator performance in cognitive demanding simulated emergencies. NUREG/CR-6208, Westinghouse Science and Technology Center. Report prepared for Nuclear Regulatory Commission.
- Sage, A. P. (1992). Systems engineering. Wiley.
- Senders, J.; Moray, N. (1991). Human error: Cause, prediction, and reduction. Lawrence Erlbaum Associates.
- Shappell, S.; Wiegmann, D. (2000). The human factors analysis and classification system - HFACS. DOT/FAA/AM-00/7, Office of Aviation Medicine, Federal Aviation Administration, Department of Transportation.[2]
- Swain, A. D., & Guttman, H. E. (1983). Handbook of human reliability analysis with emphasis on nuclear power plant applications. NUREG/CR-1278 (Washington D.C.).
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Wallace, B.; Ross, A. (2006). Beyond human error. CRC Press.
- Wiegmann, D.; Shappell, S. (2003). A human error approach to aviation accident analysis: The human factors analysis and classification system. Ashgate.
- Wilson, J.R. (1993). SHEAN (Simplified Human Error Analysis code) and automated THERP. United States Department of Energy Technical Report Number WINCO--11908. [3]
- Woods, D. D. (1990). Modeling and predicting human error. In J. Elkind, S. Card, J. Hochberg, and B. Huey (Eds.), Human performance models for computer-aided engineering (248-274). Academic Press.
- 연방 항공국2009년 전자 규제 코드.https://web.archive.org/web/20120206214308/http에서 2009년 9월 25일 취득://www.airweb.faa.gov/Regulatory_and_Guidance_library/rgMakeModel.nsf/0/5a9adccea6c0c4e286256d3900494a77/$FILE/H3WE.pdf
추가 정보
- Autrey, T.D. (2015). 6-Hour Safety Culture: How to Sustainably Reduce Human Error and Risk (and do what training alone can't possibly do). Human Performance Association.
- Davies, J.B., Ross, A., Wallace, B. and Wright, L. (2003). Safety Management: a Qualitative Systems Approach. Taylor and Francis.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Dekker, S.W.A. (2005). Ten Questions About Human Error: a new view of human factors and systems safety. Lawrence Erlbaum Associates.
- Dekker, S.W.A. (2006). The Field Guide to Understanding Human Error. Ashgate.
- Dekker, S.W.A. (2007). Just Culture: Balancing Safety and Accountability. Ashgate.
- Dismukes, R. K., Berman, B. A., and Loukopoulos, L. D. (2007). The limits of expertise: Rethinking pilot error and the causes of airline accidents. Ashgate.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Forester, J., Kolaczkowski, A., Lois, E., and Kelly, D. (2006). Evaluation of human reliability analysis methods against good practices. NUREG-1842 Final Report. U. S. Nuclear Regulatory Commission.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) [4] - Goodstein, L. P., Andersen, H. B., and Olsen, S. E. (Eds.) (1988). Tasks, errors, and mental models. Taylor and Francis.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Grabowski, M.; Roberts, K. H. (1996). "Human and organizational error in large scale systems". IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans. 26: 2–16. doi:10.1109/3468.477856.
- Greenbaum, J. and Kyng, M. (Eds.) (1991). Design at work: Cooperative design of computer systems. Lawrence Erlbaum Associates.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Harrison, M. (2004). Human error analysis and reliability assessment. Workshop on Human Computer Interaction and Dependability, 46th IFIP Working Group 10.4 Meeting, Siena, Italy, July 3–7, 2004. [5]
- Hollnagel, E. (1991). The phenotype of erroneous actions: Implications for HCI design. In G. W. R. Weir and J. L. Alty (Eds.), Human-computer interaction and complex systems. Academic Press.
- Hutchins, E. (1995). Cognition in the wild. MIT Press.
- Kahneman, D., Slovic, P. and Tversky, A. (Eds.) (1982). "Judgment under uncertainty: Heuristics and biases". Science. Cambridge University Press. 185 (4157): 1124–31. doi:10.1126/science.185.4157.1124. PMID 17835457. S2CID 143452957.
{{cite journal}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Leveson, N. (1995). Safeware: System safety and computers. Addison-Wesley.
- Morgan, G. (1986). Images of Organization. Sage.
- Mura, S. S. (1983). Licensing violations: Legitimate violations of Grice's conversational principle. In R. Craig and K. Tracy (Eds.), Conversational coherence: Form, structure, and strategy (101-115). Sage.
- Perrow, C. (1984). Normal accidents: Living with high-risk technologies. Basic Books. ISBN 9780465051441.
- Rasmussen, J. (1983). Skills, rules, and knowledge: Signals, signs, and symbols and other distinctions in human performance models. IEEE Transactions on Systems, Man, and Cybernetics, SMC-13, 257-267.
- Rasmussen, J. (1986). Information processing and human-machine interaction: An approach to cognitive engineering. Wiley.
- Silverman, B. (1992). Critiquing human error: A knowledge-based human-computer collaboration approach. Academic Press.
- Swets, J. (1996). Signal detection theory and ROC analysis in psychology and diagnostics: Collected papers. Lawrence Erlbaum Associates.
- Tversky, A.; Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases. Science, 185, 1124-1131.
- Vaughan, D. (1996). The Challenger launch decision: Risky technology, culture, and deviance at NASA. University of Chicago Press. ISBN 9780226851761.
- Woods, D. D., Johannesen, L., Cook, R., and Sarter, N. (1994). Behind human error: Cognitive systems, computers, and hindsight. CSERIAC SOAR Report 94-01. Crew Systems Ergonomics Information Analysis Center, Wright-Patterson Air Force Base, Ohio.
{{cite book}}: CS1 maint: 여러 이름: 작성자 목록(링크) - Wu, S., Hrudey, S., French, S., Bedford, T., Soane, E. and Pollard, S. (2009). "A role for human reliability analysis (HRA) in preventing drinking water incidents and securing safe drinking water" (PDF). Water Research. 43 (13): 3227–3238. doi:10.1016/j.watres.2009.04.040. PMID 19493557.
{{cite journal}}: CS1 maint: 여러 이름: 작성자 목록(링크) - CCPS, 인간의 실수를 방지하기 위한 가이드라인.이 책은 인간의 실수를 예측하기 위한 정성적, 정량적 방법론에 대해 설명합니다.질적 방법론인 SPEAR: 인간의 오류와 회복을 예측하기 위한 시스템, 정량적 방법론에는 THERP 등도 포함되어 있습니다.
외부 링크
표준 및 지침 문서
- IEEE 표준 1082(1997): 원자력 발전소에 대한 인간 행동 신뢰성 분석을 통합하기 위한 IEEE 지침
- DOE 표준 DOE-HDBK-1028-2009 : 인간성능개선 핸드북
도구들
연구실
- MINES 파리 위기 및 리스크 연구 센터의 에릭 홀나겔 씨테크놀로지
- 미국 샌디아 국립 연구소의 인체 신뢰성 분석
- 미국 오크리지 국립연구소 인간신뢰성 연구센터
- NASA 에임스 연구센터 비행인식연구소
- 오하이오 주립대학교 인지시스템공학연구소의 David Woods씨
- Sidney Dekker의 Leonardo da Vinci 연구실, 스웨덴 Lund University, 복잡성과 시스템 사고를 위한 연구실
매체의 보도 내용
- "IT에서의 인적 오류를 방지하는 방법"
- 「인간의 신뢰성. 델은 기계와 마찬가지로 분해됩니다."인더스트리얼 엔지니어 - 2004년 11월 (11일) : 66