750 likes | 1.19k Views
Human factor. faq. Perché in inglese? Factor o Factors? A che serve? A chi è rivolto? Come spiegarlo?. 20. 0,5 per milione di tratte. 10. 60 70 80 90 00. La curva degli incidenti.
E N D
faq • Perché in inglese? • Factor o Factors? • A che serve? • A chi è rivolto? • Come spiegarlo?
20 0,5 per milione di tratte 10 60 70 80 90 00 La curva degli incidenti Causa: Perdita di controllo. Soluzione: ingegneria Causa: perdita di controllo. Soluzione: ergonomia Causa: CFIT Soluzione: CRM
Il progetto • 1. sicurezza ed errore umano • 2. prestazioni e limitazioni umane • 3. il lavoro di gruppo • 4. il rapporto uomo-macchina
Se qualcosa puo’ andare storto…. lo fara’ (legge di Murphy)
sicurezza • SAFETY: • Si riferisce alla prevenzione contro eventi causati da atti non intenzionali (es: errori, omissioni, coincidenze) • SECURITY: • Prevenzione contro pericoli derivanti da atti illeciti (es: attentati) • EMERGENCY: • Attività volta a limitare i danni derivanti da un evento critico già accaduto. (Es: Pompieri, Pronto soccorso)
Definizioni • PERICOLO (HAZARD): • È in relazione stretta alla gravità della conseguenza • Più pericolo = più danno possibile • RISCHIO (RISK): • È la probabilità a priori che un evento accada, correlando la sua frequenza con il danno potenziale. • MINACCIA (THREAT) • Precursore del rischio
pericolo • I – Trascurabile: assenza di ferite o danni; • II – Minore: piccoli danni occupazionali, ambientali e sistemici; • III – Maggiore: gravi danni occupazionali, ambientali e sistemici • IV – Pericoloso: Ferite severe, danni gravi • V – Catastrofico: morte o perdita del sistema.
Accident • Incidentechecausamorte o feritegravi; 2) Dannoall’aeromobilesostanziale, oppure; 3) L’aeromobile è disperso o inaccessibile;
Seriousincident Un serious incident è un incidente in cui le circostanzeindicanochecisi è avvicinatiallapossibilitàdi un ‘ACCIDENT’.
incident • E’ un accadimento associato con le operazioni di un aeromobile che incide o potrebbe incidere sul livello atteso di sicurezza delle operazioni.
I sistemi ultra-safe Eventualità di un incidente inferiore a un evento per milione Aviazione • Volo commerciale di linea: 10-7 • Volo Charter: 10-6 • Volo acrobatico:10-4 • Volo militare: 10-3
Anni ’60: loss ofcontrol • prestazioni e limitazioni umane • Soluzione: ingegneria • Autopilota • Auto-throttle • Simulatori di volo • Radar meteo • ILS • Radar di controllo atc
Anni ’70: CFIT • Problemi di integrazione all’interno dell’equipaggio • Soluzione: Psicologia • Corsi C.R.M.
Anni ’90: Loss ofcontrol • Interazione uomo-macchina • Soluzione: ergonomia di progettazione • Esperti human factor entrano nel momento del disegno degli impianti e strumenti di bordo
sicurezza • Reattiva • Proattiva
Evoluzione della sicurezza • Diffidenza, scetticismo; • Mancanza di approccio sistemico; • Approccio burocratico; • Difficoltà nell’accettare l’errore e riportarlo come esperienza; • Nessuna analisi degli eventi; • Inconsapevolezza delle prestazioni e limitazioni umane; • La sicurezza è un problema dei piloti, non del sistema; • Regolamentazione di difficile applicazione pratica; • Assenza di presidi organizzativi dedicati; • Impatto limitato sulla riduzione degli incidenti.
Dopo molti anni….. • Approccio sistemico (Safety Management System) • Ampia regolamentazione • Forte commitment • Investimenti culturali (Just Culture – No Blame) • Consapevolezza dello Human Factor • Efficaci sistemi di reporting • Trend/threatanalysis • Presidi organizzativi di alto livello
I modelli della sicurezza • Detto giapponese: Se hai un martello in mano, tutti i problemi avranno forma di chiodo
Modelli della sicurezza • Modello lineare (effetto domino) • Modello sistemico (Swiss cheese) • Modelli complessi (NAT, HRO, Resilience Engineering)
Modello sistemico • Swiss cheese model
SHELL • Software: norme, simbologie, procedure • Hardware: macchine, computer, strumenti • Environment: ambiente fisico (temperatura, comfort, luminosità) e ambiente organizzativo • Liveware: elemento umano, stili comunicativi-relazionali, cognitivi, emotivi (Human Factor)
Dal Modello SHEL (Edwards) al modello shell (Hawkins): tenerife
Sistemi complessi • NAT (Normal Accident Theory) • HRO (High Reliable Organization) • Resilience Engineering
HRO • Il primo errore potrebbe essere l’ultimo • Preoccupazione per i fallimenti • Approcci eterogenei • Rispetto per l’esperienza • Condivisione delle informazioni • No news, good news?
Resilience engineering • Anticipare gli eventi • Monitorare l’attività • Reagire alle perturbazioni • Imparare dall’esperienza • E.t.t.o.
HUMAN FACTOR • Capacità non tecniche (No-techs) • Leadership • Assertività • Critica • Iniziativa • Flessibilità • Disciplina operativa • Auto-controllo • Processo decisionale • Gestione dello stress • Qualità della comunicazione
Il CRM: Crew resource management • Che cos’è • A che serve • Come è stato recepito • Come si è evoluto
Evoluzione del CRM • I generazione: arrivano gli psicologi • II generazione: da nice to know a need to know • III generazione: da cockpit a crew • IV generazione: integrazione del CRM nelle procedure (es. briefing) • V generazione: il TEM
Errore • Fallimento nella pianificazione e/o nell’esecuzione di una sequenza di azioni che determina il mancato raggiungimento, non attribuibile al caso, dell’obiettivo desiderato
Operator-induced errors • Limiti fisici (dimensioni, forza) • Limiti fisiologici (illusioni ottiche) • Limiti psicologici (capacità di calcolo, attenzione, trappole cognitive)
Approccio individualistico • Errare non è ammissibile • Di chi è la colpa • Fallimento individuale • Atteggiamento difensivo dei singoli • Controllo e gestione dei contenziosi • Gli errori degli operatori di front-line causano la maggior parte degli incidenti; • I sistemi, di per sé, sono sicuri. È l’uomo che introduce la variabile che può portare il sistema a collassare; in pratica, la tecnologia è sicura e l’uomo è la minaccia.
Approccio sistemico • Errare è umano • Cosa è successo • Fallimento del sistema • Atteggiamento proattivo del sistema • Prevenzione e gestione del rischio • Gli errori sono dei sintomi di falle che si trovano a differenti livelli dell’organizzazione; • I sistemi non sono sicuri di per sé; è l’essere umano che crea la sicurezza. • C’è una relazione costante tra l’uomo e gli strumenti, i compiti e l’ambiente operativo. I progressi della sicurezza derivano dalla migliore comprensione di questi elementi e nel disegno di sistemi che prendano in considerazione le caratteristiche umane.
Violazione • Deliberata inosservanza delle regole • Sempre nociva? • Non si vuole • Non si sa • Non si può • Non è saggio • Non si impone
Causa effetto • Indisciplina • Incompetenza • Impedimento • Inopportunità • insignificante • Rischio • Pericolo • Unica alternativa • Male minore • indifferente
Threat and error management • EVITARE - (briefing, procedure, prassi, critica costruttiva, disciplina operativa, standard) • ACCORGERSI - (strumenti, checklist, team work, call-out, controllo incrociato) • MITIGARE - (procedure, conoscenza)
Safetyreporting system • 1. Politica della sicurezza con i relativi obiettivi; • 2. Analisi e gestione del rischio; • 3. Valutazione dei pericoli e assessment del reale livello di sicurezza nel sistema; • 4. Promozione della sicurezza all’interno del sistema considerato.