180 likes | 294 Views
Université des Sciences et de la Technologie d’Oran « Mohamed Boudiaf ». Le RISK MANAGEMENT ET LA SURETE DE FONCTIONNEMENT. Examiné par : Mr. Hamdaoui. Présenté par :. Présenté par :. Belghomari Meryem . Mehenni Souhila. MOKDAD Sofiane. HABIB ZAHMANI Soria.
E N D
Université des Sciences et de la Technologie d’Oran « Mohamed Boudiaf » Le RISK MANAGEMENT ET LA SURETE DE FONCTIONNEMENT Examiné par : Mr. Hamdaoui Présenté par : Présenté par : • Belghomari Meryem . • Mehenni Souhila. • MOKDAD Sofiane. • HABIB ZAHMANI Soria
Définition du risque : gqsfhSGHHHHBVSNSWWWWWWWWWWWWWW Le risque est une exposition à un danger potentiel, inhérent à une situation ou une activité. Le risque est inhérent à l’homme car toute entreprise humaine comporte des risques.En conséquence, toute activité humaine doit, pour avoir plus de chances d’aboutir, faire intervenir des procédés plus ou moins sophistiqués pour se prémunir contre les risques.Aujourd’hui, la société ne cesse de mettre en évidence ce besoin, en institutionnalisant, en médiatisant et en industrialisant l’art de la gestion des risques.
Le risque dans l’entreprise : Introduction gqsfhSGHHHHBVSNSWWWWWWWWWWWWWW Leurs dirigeants ont pour mission, au mieux, de développer l’activité de l’entreprise, au pire, d’en assurer la pérennité. Ils sont donc les principaux acteurs concernés par les risques qui pèsent sur elle.Pour une entreprise, un risque se définit comme un événement possible qui peut entraîner des conséquences négatives pour l’organisation ou les personnes. Son impact peut remettre en cause: -L’existence même de l’entreprise, -Ses ressources (humaines ou financières) -Ses produits et ses services, -Ses clients
A plus grande échelle, il peut nuire : -Au marché, -A l’environnement -A la collectivité Dans les grandes entreprises, on trouve donc des équipes spécialisées à la tête desquelles œuvre un gestionnaire du risque ou risk manager.La gestion des risques ou risk management est dès lors l’activité qui veille à mesurer et évaluer le risque puis à développer les diverses stratégies destinées à le garder sous contrôle. Ces stratégies vont du transfert du risque à l’évitement en passant par la réduction des effets néfastes et l’acceptation de certaines conséquences du risque. Introduction Chapitre 1 Chapitre 2 Chapitre 3
Risk Management : Introduction KHHHHBVSNSWWWWWWWWWWWWWW C'est l'art de protéger l'entreprise contre les incertitudes ou encore la combinaison des techniques permettant de limiter la survenance d'événements aléatoires pouvant compromettre la pérennité de l'entreprise.La gestion des risques est un outil de pilotage opérationnel et d'aide à la décision stratégique.
Evolution de la profession : Introduction KHHHHBVSNSWWWWWWWWWWWWWW • La gestion des risques constitue une démarche d'analyse et d'identification systématique relativement récente dans le monde économique, mise à part certains secteurs historiques comme l’industrie maritime, nucléaire, pétrolière, chimique ou l’aviation, ... mais cela n'élimine pas totalement le risque !Le Risk Management est devenu une des fonctions principales de la gestion d'une entreprise: le marché des capitaux ne pardonne plus aucune faute grave, et le Risk Management fait partie intégrale des nouvelles réglementations comme le Sarbanes-Oxley Act ou Bâle II.
Introduction SURETE DE FONCTIONNEMENT KHHHHBVSNSWWWWWWWWWWWWWW Par MOKDAD Sofiane
Qu’est-ce que la fiabilité des logiciels ? Introduction • La fiabilité d’un logiciel, ou plus généralement d’un système, désigne son aptitude à assurer sa mission dans des conditions d’environnement données et pendant une durée donnée. En d’autres termes, la fiabilité caractérise la confiance que l’utilisateur peut placer dans le service rendu par un système.
Modèles à croissance de fiabilité : Introduction WWWWWWWWWWW • Évolution des modèles • Les premiers travaux sur la fiabilité des logiciels se sont intéressés à l’évaluation du nombre de défauts présents dans le code. • en 1972, Mills a proposé un modèle basé sur la technique d’essaimage de défauts . • En 1978, Nelson a également proposé un modèle d’évaluation de la fiabilité des logiciels. Mais ce modèle présentait l’inconvénient majeur de ne pas tenir compte de l’amélioration de fiabilité liée à la correction des défauts dans le logiciel.
Principaux modèles : Introduction WWWWWWWWWWW • Les modèles de fiabilité du logiciel proposés dans la littérature s’appuient, pour la plupart, sur deux hypothèses de base ayant un fort impact mathématique : • Hypothèse 1 : la correction des défauts est immédiate, c’est-à-dire qu’une défaillance due à un défaut donné n’apparaît qu’une seule fois. • Hypothèse 2 : cette correction est parfaite, c’est-à-dire qu’elle ne crée pas de nouveaux défauts dans le code.
Principes de modélisation Introduction WWWWWWWWWWW • la modélisation consiste à utiliser des outils mathématiques permettant de calibrer un modèle d’une forme donnée sur le processus mis en évidence par les essais et à utiliser la meilleure fonction ainsi déterminée.
Modèle de Jelinski-Moranda (1972) Introduction WWWWWWWWWWW • Ce modèle est l’un des premiers modèles à taux de panne proposé pour le logiciel. Il fait « naturellement » l’hypothèse que l’intensité de défaillance décroît d’une valeur constante Φ à chaque fois qu’un défaut est détecté et corrigé, et ce jusqu’à ce qu’il n’y ait plus de défaut dans le code. Dans ce modèle : • Hi (t) = λiexp (− λit) • hi = (N − (i − 1))Φ • avec : • N : nombre total de défauts, supposé fini.
Modèle de Jelinski-Moranda (1972) Introduction WWWWWWWWWWW
Modèle de Musa-Okumoto (ou « modèle logarithmique ») (1984) Introduction WWWWWWWWWWW Ce modèle suppose que l’intensité décroît exponentiellement avec le nombre de défaillances Cela signifie que la correction des premiers défauts mis en évidence réduit plus l’intensité de défaillance que la correction des défauts suivants. Dans ce modèle, le nombre de défaillances possibles est infini et la fiabilité est croissante : H(t) = λ0 ln (λ0θt + 1) où λ0 et θ > 0.
Modèle de Littlewood-Verrall (1973) Introduction WWWWWWWWWWW Il s’agit ici d’un modèle bayésien. Selon la vision bayésienne, le logiciel est d’autant plus fiable qu’on le voit fonctionner longtemps sans défaillance. De plus, ce modèle tient compte de la nature aléatoire du processus de correction des fautes : on peut en effet considérer qu’il est impossible de déterminer quelle est l’incidence réelle de la correction d’une faute sur le taux de défaillance global du logiciel. Dans ce modèle :
Mise en pratique des modèles de fiabilité Introduction WW • Les modèles de fiabilité du logiciel permettent de faire des calculs prévisionnels du nombre moyen de défaillances ou de la probabilité d’apparition de problèmes ultérieurs en fonctionnement opérationnel. • Recueillir les données • Dès que le logiciel est dans une phase relativement stable, en général en phase de test d’intégration ou de validation, il faut relever le signal d’apparition des défaillances. • Analyser a priori • L’analyse a priori permet de détecter et d’éliminer les données douteuses.
Mise en pratique des modèles de fiabilité Introduction WW • Étudier les tendances • Après s’être assuré de la qualité et de la représentativité des données, l’analyste peut passer à l’étude des tendances dont l’objectif est de mettre en évidence les zones de croissance et de décroissance de fiabilité. • Modéliser • Rappelons que la modélisation consiste à utiliser des outils mathématiques permettant de calibrer un modèle d’une forme donnée sur le processus révélé par l’échantillon.
Merci de votre attention Introduction