시스템사고

System accident

시스템 사고(또는 정상 사고)는 복잡한 시스템에서 "여러 고장의 예상치 못한 상호작용"이다.[1] 이러한 복잡성은 기술이나 인적 조직의 것일 수 있으며, 종종 둘 다일 수 있다. 시스템 사고는 나중에 보면 쉽게 볼 수 있지만, 모든 것을 심각하게 고려하기에는 단순히 행동 경로가 너무 많기 때문에 예지력이 극도로 어렵다. 찰스 페로는 1980년대 중반에 이러한 아이디어를 처음 개발했다.[1] 1990년대 후반 윌리엄 랜지위슈는 "가장 위험한 기술 중 일부에 대한 통제와 운영은 매우 복잡한 조직들을 필요로 하기 때문에 심각한 실패가 사실상 보장된다"고 썼다.[2]

안전 시스템 자체는 때때로 이러한 유형의 사고를 유발하는 복잡성을 가중시킨다.[3]

기업이 많은 직원, 전문화, 백업 시스템, 복식 확인, 세부 매뉴얼, 공식 커뮤니케이션 등 일정 규모에 도달하면 직원들은 너무 쉽게 프로토콜, 습관, 그리고 "올바른"에 의지할 수 있다. 복잡한 영화를 낯선 언어로 보려는 것처럼 서술형 스루무슨 일이 일어나고 있는지 잊어버릴 수 있다. 그리고 실제 세계 사고는 거의 항상 여러 가지 원인이 있기 때문에 집단사고와 같은 다른 현상도 동시에 일어날 수 있다. 특히 무언가를 만진 마지막 사람을 단순히 나무라는 것은 기능장애 조직의 표시다.

2012년 찰스 페로는 "정상적인 사고[시스템 사고]는 모두가 안전을 위해 매우 열심히 노력하지만 (양방향 복잡성 때문에) 두 개 이상의 고장의 예상치 못한 상호작용으로 인해 (결합이 조여져) 연쇄 고장의 원인이 된다"고 썼다. 찰스 페로는 정상사고라는 용어를 사용하여 현재의 기술 수준을 감안할 때 그러한 사고는 수 년 또는 수십 년에 걸쳐 발생할 가능성이 매우 높다고 강조한다.[4]

제임스 T. 이유 [fr]이러한 접근방식[5] 인간 신뢰성과 스위스 치즈 모델로 확장하였으며, 현재 항공 안전과 의료 분야에서 널리 인정받고 있다.

동물이 자신의 꼬리를 집어삼키는 측면이 있는데, 이를 정확히 맞추려는 더 많은 형식과 노력이 실제로 상황을 더 악화시킬 수 있다는 것이다.[6] 예를 들어, 변화하는 환경에 적응하는 데 조직적인 어려움이 더 많이 수반될수록, 직원들은 그러한 변화, "문제" 그리고 예상치 못한 조건들을 보고하는 것을 더 늦출 것이다.

이런 사고들은 종종 작은 판단의 오류, 기술의 결함, 그리고 사소한 손상이 결합되어 긴급한 재난을 형성한다는 점에서 루브 골드버그 장치와 닮는다.

윌리엄 랑게비쉬는 "실제로 조작할 수 없는 명령 체인, 학습할 수 없는 훈련 프로그램, 읽을 수 없는 설명서, 그리고 규제, 점검, 통제라는 허구들을 포함하는 전체 가짜 현실"[6]에 대해 쓰고 있다.

반대되는 생각은 신뢰성이 높은 조직의 생각이다.[7]

스콧 세이건

스콧 세이건은 특히 핵무기에 관한 복잡한 시스템의 신뢰성을 논하는 여러 출판물을 가지고 있다. '안전의 한계'(1993)는 냉전 기간 중 우연히 핵전쟁을 일으킬 수 있었던 근접전들에 대한 광범위한 검토를 제공했다.[8]

시스템 사고 발생 가능성

아폴로 13호 우주 비행, 1970년

아폴로 13호 검토 위원회:


"[소개]...이번 사고는 통계적 의미에서의 우연 오작동의 결과가 아니라 다소 부족하고 용서할 수 없는 설계와 결합하여 비정상적인 실수의 조합에서 비롯되었다는 것이 밝혀졌다[강조 추가].

"g. 비행 전 이러한 절차를 검토하는 과정에서 NASA, ER, Beech 관계자들은 과열로 인한 피해 가능성을 인식하지 못했다. 이들 공무원들 중 다수는 연장된 히터 작동에 대해 알지 못했다. 어떤 경우에도 적절한 온도 조절 스위치가 탱크를 보호할 것으로 예상되었을 수 있다."[9]

스리마일 섬, 1979년

찰스 페로:

"이는 원자력발전소와 기타 고위험, 복잡하고 상호의존성이 높은 운영자-기계시스템에서의 다른 사고와 유사했다. 이러한 특성이 존재하며 예상했어야 했지만, 사고들 중 어느 것도 관리나 운영자의 미숙함이나 정부의 부실한 규제에 의해 야기된 것은 아니었다. 복잡한 시스템에서는 계획으로 피할 수 없는 다중 고장이 발생할 수밖에 없고 운영자가 즉시 이해할 수 없기 때문에 사고는 정상이었다고 주장했다.[10]

ValueJet (AirTran) 592, 에버글레이즈, 1996

윌리엄 랑게비슈:

그는 "엄청난 MD-80 유지보수 매뉴얼... 자신의 선택사항을 부지런히 추구함으로써, 정비사가 매뉴얼의 다른 부분으로 가는 길을 찾아냈을 수 있었는데, 그것은... [산소 생성기]는 현지 규제 컴플라이언스에 따라 허가된 절차를 사용하여 폐기되어야 한다는 것을 알게 된 것"[6]이라고 지적한다.

즉, 어떤 의미에서 쓰여진 대부분의 안전 절차는 "올바른" 것이지만 도움이 되거나 유익하지는 않다.

브라이언 스팀슨:

2단계. 부품 선반 위에 몇 주 동안 보관되어 있던 마분지 상자는 사브르에게 넘겨졌다.테크사의 배송 및 수령 부서가 ValueJet 부동산에 할당된 구역에 있는 바닥에 방치되었다.

3단계. 사브르테크의 잠재 고객인 콘티넨탈 항공사는 시설에 대한 검사를 계획하고 있었기 때문에, 사브르테크의 선적 담당 직원에게 작업장을 정리하라는 지시를 받았다. 그는 아틀란타에 있는 밸류제트의 본사로 산소 발전기를 보내기로 결정했고, 그 상자에 "항공기 부품"이라고 라벨을 붙였다. 그는 이전에 공식적인 승인 없이 ValueJet 자재를 애틀랜타로 선적했었다. 게다가, 그는 녹색 태그가 "서비스 불가능" 또는 "서비스 불능"을 나타내는 것으로 오해하고 발전기가 비어 있다는 결론으로 뛰어 들었다.

4단계. 선사는 5박스에 큰 메인 타이어 2개와 작은 코 타이어를 더해서 전진 화물칸을 위해 짐을 꾸렸다. 그는 동료에게 "산소 통 - 비었다"라고 적힌 운송표를 준비하라고 지시했다. 동료는 "옥시 캐니스터" 뒤에 인용 부호로 "빈"이라고 썼다. 타이어도 나열돼 있었다.

5단계. 하루나 이틀 후, 박스들은 592편 비행편에서 승인을 받기 위해 밸류제트 램프 대리점에 배달되었다. 타이어와 산소통을 나열한 운송표가 그의 관심을 끌었어야 했지만 그러지 못했다. 이후 밸류제트가 유해물질 운송에 등록되지 않았기 때문에, 캐니스터는 연방 규정에 반하여 적재되었다. 램프 요원의 생각으로는 사브레테크 노동자들이 그에게 위험한 화물을 보낼 가능성은 상상도 할 수 없었을 가능성이 있다.[11][12]

2008년 금융 기관 거의 다운

경제학자 앨런 블라인더는 2014년 모노그래프에서 복잡한 금융상품은 잠재적 투자자들이 가격이 합리적인지 판단하기 어렵게 만들었다고 말했다. 그는 또 "리슨 #6: 과도한 복잡성은 단순히 반경쟁적일 뿐만 아니라 위험하다"고 덧붙였다. 투자자들이 여기서 그들이 구입하는 유가증권의 위험을 이해하지 못할 때(예: CDO-Squared의 메자닌 트랑슈;합성CDOCDS 등), 큰 실수를 할 수 있다. 특히 평가기관에서 그들이 트리플A라고 말하면, 재치있고, 할머니에게 충분히 안전하다. 따라서 폭락 사태가 발생하면 투자자가 상상할 수 있는 것보다 손실이 훨씬 더 클 수 있다. 이 유가증권의 가치를 아무도 모르기 때문에 시장이 마를 수도 있다. 공황 상태가 올지도 모른다. 따라서 복잡성은 위험의 원천이다."[13]

세월호 침몰(2014년)

세월호는 2014년 4월 16일 인천에서 제주로 향하던 중 침몰해 승객과 선원 476명 중 304명이 숨졌다. 그녀는 최대 허용량인 987톤보다 2배가 넘는 2,142.7톤의 화물을 운반하고 있었다. 그 선박은 유지보수를 미루고 서류를 위조한 기록이 있었다.

인천항만공사는 사고 일주일 전 세월호의 정기 선장 신모씨가 선주들에게 문제를 경고한 문건을 입수했다. 신 회장은 이후 회사가 이의제기를 계속하면 해고하겠다고 협박했다고 주장했다. 사고 당시 대체 선장이 배를 지휘하고 있었다.

미래의 가능한 개념 적용

1980년대 이후 항공기 안전성이 5배 증가했지만, 비행 시스템은 스스로 예상치 못한 '모드'로 전환되기도 한다.

"인간적 요인"이라는 제목의 기사에서 윌리엄 랜지위슈는 2009년 대서양 중부 상공에서 발생한 에어프랑스 447편 추락 사고에 대해 이야기한다. 그는 자동 조종실 시스템으로의 전환이 시작된 1980년대 이후 안전성이 5배 향상됐다고 지적한다. 랑위슈는 조종석의 사생활과 대중의 시야를 벗어나 조종사들은 시스템 매니저로서의 일상적인 역할로 밀려났다고 쓰고 있다. 그는 윈저 공작 부인에게 기인하는 유머러스한 진술을 하는 엔지니어 얼 위너의 말을 인용, "너무 부유하거나 너무 말랐을 수는 없다"고 덧붙인다. Wiener는 자동화의 효과는 일반적으로 가벼울 때는 작업량을 줄이고, 무거울 때는 작업량을 늘리는 것이라고 말한다.

보잉 엔지니어 델마르 파든은 일단 비행 관리 시스템에 용량이 추가되면 인증 요건 때문에 제거 비용이 불가능할 정도로 비싸진다고 말했다. 그러나 사용하지 않으면 어떤 의미에서는 보이지 않는 깊은 곳에 숨어 있을지도 모른다.[14]

란제비쉬는 산업 엔지니어인 나딘 사터를 인용, "자동화 놀라움"에 대해 쓰는데, 종종 조종사가 시스템 모드를 완전히 이해하지 못하거나 시스템이 스스로 전환되는 것과 관련이 있다. 사실, 오늘날 콕핏으로 더 흔히 묻는 질문 중 하나는 "지금 뭐하는 거지?"이다. 이에 대해 란제비슈는 다시 안전성이 5배나 높아진 점을 지적하며 "누구도 합리적으로 과거의 매력으로 회귀하는 것을 주장할 수 없다"[14]고 썼다.

안전 규칙이 때때로 변경되는 이론과 실천 사이의 더 건강한 상호 작용?

Nancy Leveson, Safety Science의 "A New Incident Model for Engineering Safety Systems" 기사에서 2004년 4월:
"하지만, 사업자들이 보다 효율적이고 생산적이며 시간 압력에 대처하기 위해 노력하기 때문에, 지침과 서면 절차는 거의 정확히 지켜지지 않는다. ..... 원자력 발전소처럼 매우 제약이 많고 위험성이 높은 환경에서도, 지침의 수정은 반복적으로 발견되고 규칙 위반은 유화된다.운영자가 업무를 수행해야 하는 실제 작업 부하 및 타이밍 제약 조건을 고려할 때 상당히 합리적이여야 하는 사항. 이러한 상황에서는 규범적 절차의 편차로 보이는 오류와 일반적으로 사용되는 유효 절차의 편차로 보이는 오류 사이에 기본적인 충돌이 존재한다(Rasmussen과 Pejtersen, 1994).[15]

참고 항목

참조

메모들

  1. ^ a b 페로, 찰스(1984년 & 1999년). 일반 사고: 고위험 기술, 새로운 애프터워드 포스트스크립트로 Y2K 문제, 기본서, 1984, 프린스턴 대학교 출판부, 1999, 70페이지.
  2. ^ "찰스 페로의 생각은 나 같은 조종사들이 받아들이기 더 어렵다. 페로우는 대기업들의 실패에 대해 연구한 결과, 본의 아니게 정상사고에 대한 자신의 이론에 도달했다. 그의 요점은 어떤 기술이 다른 기술보다 더 위험하다는 것이 아니라, 가장 위험한 기술의 통제와 운영은 조직이 너무 복잡해서 심각한 실패가 실제로 일어날 수 있도록 보장되어야 한다는 것이다[강조 추가]. 그러한 실패는 때때로 예측할 수 없는 방식으로 결합될 수 있으며, 만약 그것들이 밀접하게 상호 관련되는 운영 환경에서 더 이상의 실패를 유발한다면, 실패는 통제할 수 없게 되어 모든 개입을 물리칠 것이다." - 1998년 3월, "정상적인 악세이드"라는 제목의 섹션의 "밸류젯 592교훈"에서.전체 기사의 약 3분의 2에 해당하는" 포함"
  3. ^ '밸런스젯의 추락 592: 헬스케어를 위한 시사점, J. 다니엘 베컴, 99년 1월. DOC 파일 --> http://www.beckhamco.com/41articlescategory/054_crashofvalujet592.doc 베컴 씨는 건강관리 컨설팅 회사를 운영하고 있으며, 이 기사는 회사 웹사이트에 포함되어 있다. 그는 "체르노빌과 스리마일 섬 양쪽의 사고들은 실패한 안전 시스템에 의해 촉발되었다"고 쓰고 있다.
  4. ^ 재해에 대비: 집중력, 복잡함ITY & Coupling, Charles Perrow, The Montréal Review, 2012년 12월.
  5. ^ Reason, James (1990-10-26). Human Error. Cambridge University Press. ISBN 0-521-31419-4.
  6. ^ a b c 랑게비슈, 윌리엄 (1998년 3월) '밸류젯 592교훈, 대서양' 특히 이 긴 기사의 마지막 세 단락을 보라: "... 왜 우리가 시스템을 더 복잡하게 만들지 못하게 하는지 이해하고, 따라서 아마도 더 위험해질 수도 있다."
  7. ^ 높은 신뢰도 조직으로 거듭나는 M. 크리스천슨, K. 서클리프 외 2011년 12월 8일 반대 개념. 이것은 시스템 사고와 상충되는 개념이다.
  8. ^ Sagan, Scott D. (1993). The Limits of Safety: Organizations, Accidents, and Nuclear Weapons. Princeton U. Pr. ISBN 0-691-02101-5.
  9. ^ 아폴로 13 검토 위원회 보고서("권한 보고서"), 에드가 M 의장 Cortright, 5장, 소견, 결정 및 권장 사항.
  10. ^ Perrow, C. (1982)는 Sils, D., Wolf, C., Selanski, V. (Eds), Three Mile Island에서 일어난 "대통령 위원회와 정상 사고"라는 제목의 그의 지부 요약본이다. 미국 콜로라도 볼더, 웨스트뷰 프레스, 1982 페이지 173–184.
  11. ^ Stimpson, Brian (1998년 10월) 매우 복잡하고 위험한 기술 시스템을 실수 없이 운영: Manitoba Professional Engineer ValueJet 592의 잘못된 교훈. 이 글은 미국 니미츠급 항공모함, 캘리포니아주 디아블로 캐년 원전 등 안전기록이 좋은 복합기구에 대한 역례를 제공한다.
  12. ^ 또한 일반 사고: 고위험 기술을 이용한 생활, 1999년 개정판 383 & 592페이지를 참조하십시오.
  13. ^ 우리는 금융위기, 대공황, 그리고 한심한 회복으로부터 무엇을 배웠는가? (PDF 파일), Alan S. Blinder, 프린스턴 대학교, Griswold 경제정책연구센터, 2014년 11월, 작업용지 243호.
  14. ^ a b 휴먼 팩터, 배니티 페어, 윌리엄 랜지위슈, 2014년 9월 17일. " . . . 조종사들은 시스템 매니저로서의 일상적인 역할로 강등되어 왔다. . 교대 근무가 시작된 1980년대 이후 안전 기록은 5배 향상되어 현재 500만 번의 출발마다 1건의 치명적인 사고로 기록되었다. 누구도 합리적으로 과거의 매력으로 되돌아가는 것을 주장할 수는 없다."
  15. ^ Nancy Leveson, Safety Science, Vol. 42번, No. 4번, 2004년 4월 엔지니어링 안전 시스템을 위한 새로운 사고 모델. 국립과학재단과 NASA가 부분적으로 지원하는 연구에 기반을 둔 논문. "사실 노동자들이 실제로 파업에 나가지 않고 경영진에 압력을 가하는 일반적인 방법은 '통치에 힘쓰는 것'으로, 생산성의 붕괴와 심지어 혼란까지 초래할 수 있다."

추가 읽기

  • Cooper, Alan (2004-03-05). The Inmates Are Running The Asylum: Why High Tech Products Drive Us Crazy and How To Restore The Sanity. Indianapolis: Sams - Pearson Education. ISBN 0-672-31649-8.
  • 징그럽다, 마이클 조셉 (2015년 5월 29일) Sirque du Soleil에서의 삶과 죽음, 이 배니티 페어 기사는 다음과 같이 말하고 있다: " . . 시스템 사고는 폭포 속에서 많은 일이 잘못되야 하는 것이다. 폭포의 어떤 요소라도 바꾸면 사고가 일어나지 않을 수도 있지만, 모든 요소들은 책임을 공유하고 있다. "
  • Helmreich, Robert L. (1994). "Anatomy of a system accident: The crash of Avianca Flight 052". International Journal of Aviation Psychology. 4 (3): 265–284. doi:10.1207/s15327108ijap0403_4. PMID 11539174.
  • Hopkins, Andrew (June 2001). "Was Three Mile Island A Normal Accident?" (PDF). Journal of Contingencies and Crisis Management. 9 (2): 65–72. doi:10.1111/1468-5973.00155. Archived from the original (PDF) on August 29, 2007. Retrieved 2008-03-06.
  • 비욘드 엔지니어링: 기술에 대한 새로운 사고방식, 토드 라 프로테, 칼렌 로버츠, 그리고 진 로클린 옥스퍼드 대학 출판부, 1997. 이 책은 안전 기록이 좋은 복잡한 시스템에 대한 반례를 제공한다.
  • Pidgeon, Nick (2011년 9월 22일) "돌아보면: 정상적인 사고" 자연.
  • Perrow, Charles (May 29, 2000). "Organizationally Induced Catastrophes" (PDF). Institute for the Study of Society and Environment. University Corporation for Atmospheric Research. Retrieved February 6, 2009. {{cite journal}}: Cite 저널은 필요로 한다. journal= (도움말)
  • 루우, 웨이드 에드먼드. 재난과 통제: 기술 재난이 어떻게 민주주의를 강화시키는지, 박사 논문, 매사추세츠 공과대학, 1994, 15페이지. . '정상 사고는 오늘날 산업 관리자, 조직 사회학자, 기술의 역사가, 그리고 관심 있는 일반인들에게 필수적인 책이다. 왜냐하면 그것은 주요 전략을 보여주기 때문이다.y 엔지니어는 이번 세기 동안 위험한 기술("fail-safe" 백업 장치의 계층)을 제어하기 위해 사용해 왔으며, 시스템 전체에 예측 불가능한 위험한 수준을 추가했다.'
  • "Test shows oxygen canisters sparking intense fire". CNN.com. 1996-11-19. Retrieved 2008-03-06.
  • Wallace, Brendan (2009-03-05). Beyond Human Error. Florida: CRC Press. ISBN 978-0-8493-2718-6.