ヒューマン・ファクター 2002.5.31 人間ー機械系 • 機械設計時には「いかなる状態において」 「どのように」「どのようなレベルの人間が」 使用するかをよく考えねばならない • ミスをしても安全が確保される:フール・プ ルーフ、エラー・レジスタント、エラー・トレラ ント • 機械が故障しても安全性を阻害しない: フェール・セーフ 自動化 • 人間は何もしなくなる(作業者が単調や退 屈に陥る、意識水準が低下する) • 過剰な信頼感や依存性 • 安易な気持ちで操作したスイッチにより重 大な事故に至った臨場感の欠如 • 緊急時における熟練度の低下 • 『「信じられないミス」はなぜ起こる』黒田勲 中災 防新書 飛行システムと人間の対立 • どのようにシステムを設計するか • ただ、戦闘機はコンピュータなしには動か ない 航空機の歴史 • 1903年12月17日 • ライト兄弟がライト・フライヤー1号で人類 初の動力飛行を実施 • 時速16㎞、距離37㍍、飛行時間12秒、高 度3㍍ • 1910年日本での初飛行 代々木練兵場 • 高度70㍍、飛行距離3,000㍍、飛行時間3 分 危険な11分間 • 離陸・上昇時の3分間と、初期進入より着陸まで の8分間: • この間に70%以上の事故が発生 • 離着陸時:短時間の間に多量の情報処理をする 必要のある忙しいフェーズで、判断や操作の間 違い、定められた手順からの逸脱がある • 降下から着陸:空間の位置づけが重要なフェー ズで、思考や判断を必要とする航法ミスがある 航空事故 • • • • 年間死亡率: 航空事故:1千万人当たり4.4 自動車運転中の事故:十万人当たり5.1 1975年以来、航空事故の主因の大半が ヒューマン・ファクターに起因する ヒヤリ・ハットの報告システム • 米国「エビエーション・セイフティ・リポーティ ング・システムASRS」(米国航空宇宙局) • 航空に関するあらゆる分野からの報告を 受ける • 報告者は匿名 • 罰則の対象とならないように、免責担保が なされている) ヒューマン・エラーの上流 • • • • • • 貧弱な作業環境 不適切な装置や道具 厳しい労働負荷 不十分な訓練 組織の安全管理体制・体質 装置設計の不備 コクピットの自動化 • 利点: • 事故率低下 • 燃料消費効率や運行効率を考慮した飛行 計画 • 視界不良時の安全な着陸 • 乗客の快適性の向上 コクピットの自動化(続き) • かつては人間は航空機を制御していた • その作業を自動システムが取って代わった • パイロットはシステムを管理することになった(状 況をモニタし、適切な指示を与える) • アブノーマルが発生した場合、ワークロードが劇 的に増加する • パイロットが航空機の状況を適切に認識できなく なり、適切な対処ができなくなる 人間行動の5原則 • 1.人間は流れに従って行動する • 2.つぎの行動の予測に情報を必要とする • 3.ワークロードを増加させて困難な仕事 に対応するが、それには限界がある • 4.システムの情緒的雰囲気により作業精 度が異なる • 5.置かれた環境の危険を、その中で評価 できない(おか目八目) 重大事故 • スリーマイル島原発:制御室の設計不良、 運転員の判断ミス、メンテナンス不良 • ボパール:作業者の知識と技能の不足、 勤務態度の怠慢 • 信楽高原鉄道:安全装置の欠陥、異常時 対応の規則違反、安全投資の削減 • ニュートラム暴走:無人運転システムの在 り方、新技術や高度技術の導入法 中華航空機 • ★人間と機械(自動操縦装置)との不整合 • 誤ったレバー操作 • 「着陸やり直しモード」での自動操縦装置 使用 • わかりにくい操縦手引き書 • 自動失速防止装置による機首上げ 日本の原子力施設 • 昭和41年から平成10年度までに通産省に 報告されたトラブル事例のうち、ヒューマン エラーが直接の原因とされたものは、200 件、全体の20% • 保守作業(ボルトの締め付け不良等)60% • 運転(操作手順の間違い)15% • ★手順書、管理手法の改善がエラー低減 に有効
© Copyright 2024 ExpyDoc