1 / 2

Hulusi Acikgoz , Yann Le Bihan, Olivier Meyer, Lionel Pichon

Objectif de la modélisation : créer la base de données pour l’apprentissage : f 1 ε’ 1 ε’’ 1 G 1 B 1 f N ε ’ N ε ’’ N G N B N. Cellule de mesure micro-ondes. *(f). Echantillon.

cheng
Download Presentation

Hulusi Acikgoz , Yann Le Bihan, Olivier Meyer, Lionel Pichon

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Objectif de la modélisation : créer la base de données pour l’apprentissage: f1 ε’1 ε’’1G1 B1 fNε’Nε’’NGN BN Cellule de mesure micro-ondes *(f) Echantillon  La solution analytique Y=f(ε’,ε’’) est valide surune bande de fréquence restreinte(1 MHz –~2 GHz) (GR900)Combinaison de la méthode des éléments finis et des réseaux de neurones Réseaux de Neurones Bayesienspour la Caractérisation Micro-Ondes Hulusi Acikgoz, Yann Le Bihan, Olivier Meyer, Lionel Pichon Laboratoire de Génie Electrique de Paris (LGEP), Supélec ; CNRS-UMR 8507; UPMC; UPS Plateau de Moulon, 11 rue Joliot Curie 91192 Gif-sur-Yvette Cedex Modélisation par éléments finis Objectif: à partir de la mesure de Y(f), déterminer la permittivité complexe ε’’(f), ε’’(f) du matériau. Echantillon

  2. ED taille du RN Taille optimale Inversion par RN Solution 1: Méthode split-sample Critère d’erreur à minimiser: 1 G 2 Erreur de validation ε’ ou ε’’ B N+1 Sortie f Erreur d’apprentissage N Couche de sortie Entrées Couche cachée  le RN qui présente une erreur minimale sur la base de validation est sélectionné Problème: Risque de “sur-ajustement” lors de l’apprentissage !!! Solution 2 : Régularisation bayesienne Terme de pénalité: somme quadratique des paramètres internes du RN Critère d’erreur: ET = βED + αEw α << β mauvaise généralisation α >> βmauvais apprentissage Régularisation bayesienne vs Split sample: • ne nécessite pas de base de validation • l’obtention du modèle neuronal est plus rapide α et β sont ajustés en utilisant une approche bayesienne

More Related