ヒューマン・ファクター 2002.5.31
人間ー機械系 機械設計時には「いかなる状態において」「どのように」「どのようなレベルの人間が」使用するかをよく考えねばならない ミスをしても安全が確保される:フール・プルーフ、エラー・レジスタント、エラー・トレラント 機械が故障しても安全性を阻害しない:フェール・セーフ
自動化 人間は何もしなくなる(作業者が単調や退屈に陥る、意識水準が低下する) 過剰な信頼感や依存性 安易な気持ちで操作したスイッチにより重大な事故に至った臨場感の欠如 緊急時における熟練度の低下 『「信じられないミス」はなぜ起こる』黒田勲 中災防新書
飛行システムと人間の対立 どのようにシステムを設計するか ただ、戦闘機はコンピュータなしには動かない
航空機の歴史 1903年12月17日 ライト兄弟がライト・フライヤー1号で人類初の動力飛行を実施 時速16㎞、距離37㍍、飛行時間12秒、高度3㍍ 1910年日本での初飛行 代々木練兵場 高度70㍍、飛行距離3,000㍍、飛行時間3分
危険な11分間 離陸・上昇時の3分間と、初期進入より着陸までの8分間: この間に70%以上の事故が発生 離着陸時:短時間の間に多量の情報処理をする必要のある忙しいフェーズで、判断や操作の間違い、定められた手順からの逸脱がある 降下から着陸:空間の位置づけが重要なフェーズで、思考や判断を必要とする航法ミスがある
航空事故 年間死亡率: 航空事故:1千万人当たり4.4 自動車運転中の事故:十万人当たり5.1 1975年以来、航空事故の主因の大半がヒューマン・ファクターに起因する
ヒヤリ・ハットの報告システム 米国「エビエーション・セイフティ・リポーティング・システムASRS」(米国航空宇宙局) 航空に関するあらゆる分野からの報告を受ける 報告者は匿名 罰則の対象とならないように、免責担保がなされている)
ヒューマン・エラーの上流 貧弱な作業環境 不適切な装置や道具 厳しい労働負荷 不十分な訓練 組織の安全管理体制・体質 装置設計の不備
コクピットの自動化 利点: 事故率低下 燃料消費効率や運行効率を考慮した飛行計画 視界不良時の安全な着陸 乗客の快適性の向上
コクピットの自動化(続き) かつては人間は航空機を制御していた その作業を自動システムが取って代わった パイロットはシステムを管理することになった(状況をモニタし、適切な指示を与える) アブノーマルが発生した場合、ワークロードが劇的に増加する パイロットが航空機の状況を適切に認識できなくなり、適切な対処ができなくなる
人間行動の5原則 1.人間は流れに従って行動する 2.つぎの行動の予測に情報を必要とする 3.ワークロードを増加させて困難な仕事に対応するが、それには限界がある 4.システムの情緒的雰囲気により作業精度が異なる 5.置かれた環境の危険を、その中で評価できない(おか目八目)
重大事故 スリーマイル島原発:制御室の設計不良、運転員の判断ミス、メンテナンス不良 ボパール:作業者の知識と技能の不足、勤務態度の怠慢 信楽高原鉄道:安全装置の欠陥、異常時対応の規則違反、安全投資の削減 ニュートラム暴走:無人運転システムの在り方、新技術や高度技術の導入法
中華航空機 ★人間と機械(自動操縦装置)との不整合 誤ったレバー操作 「着陸やり直しモード」での自動操縦装置使用 わかりにくい操縦手引き書 自動失速防止装置による機首上げ
日本の原子力施設 昭和41年から平成10年度までに通産省に報告されたトラブル事例のうち、ヒューマンエラーが直接の原因とされたものは、200件、全体の20% 保守作業(ボルトの締め付け不良等)60% 運転(操作手順の間違い)15% ★手順書、管理手法の改善がエラー低減に有効