E N D
1. Optimisation De La Maintenance D’Une Constellation De Satellites
Frédérick Garcia
Unité de Biométrie et Intelligence Artificielle
INRA Toulouse
2. Des constellations de satellites...
3. Hypothèses de travail 1 constellation homogène de 32 satellites.
4 satellites opérationnels par orbite sur 8 orbites différentes.
Chaque satellite a une durée de vie ? 6 ans et peut tomber en panne à tout moment.
Le temps entre la décision de préparer un satellite et sa mise en service effectif est relativement long.
Utilisation de spares en orbite dérivante comme réserve de satellites
4. Problème de maintenance Les coûts d ’indisponibilité sont importants : service et image de marque liés à la disponibilité.
Les lancements sont eux aussi coûteux : plusieurs lanceurs sont disponibles avec chacun sa capacité, son délai de fabrication, son prix et sa fiabilité.
On recherche une politique de maintenance qui minimise le coût total d ’entretien sur un horizon de 10 ans.
5. Schéma de la constellation
11. Les Actions Au Sol Chaque mois, on décide du nombre de satellites que l ’on prépare : asol .
On choisit alors le lanceur le plus approprié, sachant que chacun a sa propre fiabilité, capacité de lancement et un délai de fabrication plus ou moins long.
12. Le Lancement
En cas de lanceur prêt, on doit choisir sur quelle sous-orbite placer les nouveaux spares : alanc.
L ’ensemble des décisions est cette fois assez restreint, puisque nous n ’avons que 8 choix...
13. Actions Sur Les Spares On doit décider d ’envoyer ou non les spares sur l ’orbite associée (i.e. dans le même plan) afin de remplacer un sat en panne ou jugé trop vieux : asp.
Le nombre de décisions possibles est fonction du nombre de spares en orbite et ceci de façon exponentielle.
14. Les Aléas Les aléas sont nombreux :
Chaque satellite (opérationnel ou spare) a une probabilité indépendante de son âge de tomber en panne.
Chaque lanceur a sa propre fiabilité et le lancement peut donc échouer. La réussite du lancement est par contre indépendante de l ’orbite choisie.
15. Fonction Objectif / Critères Comment définir une bonne politique de maintenance?
Une constellation homogène?
Aucun problème de service?
Des lancements uniformément répartis?
On a défini des coûts associés à chaque décision ou état de la constellation. J est alors la somme de ces coûts sur plusieurs mois.
Dans notre cas, la maintenance est à horizon fini : on est sensé l ’assurer sur 120 mois.
16. Coûts Divers Et Variés Plusieurs types de coûts :
Les coûts de fabrication : 1 satellite = 1 unité (U)
Les coûts de lancement : le coût d ’un lanceur varie selon sa capacité (capacité 2=1U, cap 4=1.5U; cap 6=2U)
Le manque à gagner suivant l ’indisponibilité : 1 satellite opérationnel en panne coûte une unité
17. Optimisation sous incertitude Une politique est une fonction qui à chaque état de la constellation associe une décision (une série d ’actions) :
On cherche une politique qui minimise le système étant stochastique
18. Techniques Employées
20. Programmation Dynamique (I)
24. Paramétrisation des fonctions de valeur La résolution de ces équations reste toutefois très difficile en raison de la taille de l ’espace d ’état
On va donc paramétrer chaque V en fonction de certaines fonctions caractéristiques de l ’état
25. Fonctions Caractéristiques D ’Un Etat De La Constellation Les fonctions caractéristiques doivent représenter l ’état de la constellation :
Age de chaque satellite
Nombre de spares, âge des spares
Nombre de sat en panne pour chaque orbite
Age max. et min. des sat, âge moyen
Nombre de lancements en préparation
Existence de cas où des sat sont en panne et pas de spares disponibles
Etc..
26. Apprentissage des fonctions de valeur (I) On utilise un simulateur informatique de la constellation pour guider l’optimisation des 3 fonctions de valeur
Deux méthodes d’apprentissage des fonctions de valeur : TD-lambda et Monte-Carlo
27. Apprentissage des fonctions de valeur (II) But : calcul des poids ? pour minimiser l ’erreur quadratique :
30. Résultats et Analyse (I)
31. Résultats et Analyse (II) La fonction de valeur semble approximée « aussi bien qu’elle peut l ’être »
Les politiques apprises sont néanmoins moins performantes que les politiques expertes (surtout pour l ’étape de décision concernant la chaîne de lancement)
Ecart relatif important entre les coûts observés et leur approximation par la fonction de valeur
32. Conclusions Les algorithmes d ’optimisation stochastiques sont (pour l’instant) plus performants que les algorithmes d ’apprentissage
Les fonctions caractéristiques ne semblent pas assez nombreuses ou pertinentes pour que l ’algorithme d’apprentissage différencie chaque état.
33. Evolutions envisagées Délinéariser la fonction de valeur (l ’utilisation d ’un réseau de neurones peut être une solution)
Décomposer l’espace d ’états en un produit de sous-états (1 sous-état par plan orbital)
Evaluer la fonction de valeur « en profondeur » sur un horizon de planification (par ex. 6 mois)