e2phy 2006
INCERTITUDE ET PREDICTION EN PHYSIQUE :
de la mesure au modèle
Laboratoire SUBATECH à Nantes
22 au 25 Août 2006


Ateliers

Ateliers


1. Simulation de variables aléatoires sous EXCEL© et applications ; 2. Capteurs à fibres optiques ; 3. Mesure de la vitesse de la lumière ; 4. Nanotubes de carbone et application à l'échelle mésoscopique ; 5. Mise en situation autour du phénomène de l'arc-en-ciel et analyse de pratique ; 6. Fiabilité des ouvrages à la mer : Incertitudes et modélisation du processus de corrosion des structures portuaires ; 7. Mesures de la radioactivité  dans des échantillons naturels : estimation des risques d'exposition sur l'homme ; 8. Expérience d'une mini-tornade ; 9. Mesure du temps de vie du muon ; 10. Mesure de la résistance interne d'une pile : les incertitudes permettent-elles de vérifier le modèle ? ; 11. De l'utilité de modèles statistiques pour identifier et valider des modèles ou lois physiques : erreurs de mesure, propagation, régression linéaire
 
1. Simulation de variables aléatoires sous EXCEL© et applications
Alain Vivier - simulation VA.zip
 

L'objectif de cet atelier est de montrer dans un premier temps comment, à partir de la seule variable aléatoire continue uniforme entre 0 et 1 générée par EXCEL, il est possible de construire très simplement toutes les variables aléatoires possibles, discrètes (entre autres simulation jeu de pile ou face et comptage nucléaire) ou continues (entre autres simulation variable gaussienne). Cette approche des variables aléatoires permet d'aborder de façon ludique le domaine trop souvent rebutant des statistiques et peut constituer une alternative pédagogique.
Dans un second temps nous illustrerons à partir d'outils finalisés les possibilités multiples offertes par la simulation de variables aléatoires et pouvant présenter un intérêt :
pédagogique:

·  Simulation d'un compteur nucléaire
·  Simulation mesure de décroissance d'un radioélément.

ou scientifique :

·  Simulation des expériences d'Alain ASPECT (mesure de corrélation de photons intriqués)
·  Réalisation de tests statistiques divers
·  .....

   
2. Capteurs à fibres optiques
Xavier Aduriz, Virginie Gaillard, Dominique Leduc, Cyril Lupi
 

L'optique est couramment exploitée pour sonder et analyser les évolutions de la structure d'un matériau soumis à des contraintes externes. Classiquement les mesures sont réalisées en espace libre avec des caméras et de ce fait ne rendent compte que des phénomènes de surfaces pour les matériaux non transparents. Le développement de la fibre optique a permis de mettre au point des capteurs optiques qu'il est possible d'enfouir au cœur des matériaux. Ces capteurs bénéficient de la grande maniabilité des fibres optiques : en optique guidée il n'est plus nécessaire de réaliser des alignements minutieux, il suffit souvent de connecter ensembles ses composants. Cette souplesse d'utilisation peut donner une fallacieuse impression de facilité. Il convient en réalité de prendre certaines précautions pour réaliser des mesures fiables avec des fibres optiques. Nous illustrerons ce fait en présentant deux capteurs à fibres optiques :

-        Capteurs de Fresnel : on enregistre la lumière réfléchie par l'extrémité clivée droite d'une fibre optique. L'intensité réfléchie dépend de l'indice de réfraction du milieu dans lequel plonge la fibre. Les variations d'intensité témoignent donc des variations d'indice du milieu.

-        Réseaux de Bragg fibrés : ils sont constitués par une modulation périodique de l'indice du cœur d'une fibre. Schématiquement, on peut les modéliser par une succession de miroirs régulièrement espacés. Si on fait l'analogie avec plans atomiques pour la diffraction X dans les cristaux, on voit que les réseaux de Bragg fibrés doivent réfléchir une bande spectrale étroite autour d'une certaine longueur d'onde : la longueur d'onde de Bragg. Cette longueur d'onde dépend du pas de modulation, qui lui même dépend de la température et des contraintes extérieures.

L'atelier débutera par une présentation d'un panel d'outils employés dans les dispositifs de mesures «fibrées» (sources, détecteurs, coupleurs, connecteurs, analyseurs de spectres optiques, soudeuse à fibres optiques). L'accent sera mis sur les problèmes de reproductibilité liés à la connectique. Dans un second temps, nous aborderons l'emploi de réseaux de Bragg Fibrés pour remonter aux contraintes mécaniques appliquées à une éprouvette de matériau. Ensuite un capteur de Fresnel sera réalisé. Il sera employé pour déterminer l'indice de réfraction d'un liquide. La méthode de mesure ainsi que sa reproductibilité seront examinées. Enfin, un exemple de ce type de mesure pour une application industrielle sera présenté : les pièces de matériaux composites (fibres de carbones/ résines Epoxy) utilisées dans l'industrie aérospatiale sont réalisées par un procédé en plusieurs phases : un tissu de fibre de carbone est positionné dans un moule qui défini la forme de la future pièce, ensuite une résine Epoxy est injectée dans le moule, puis l'ensemble est porté à une température donnée afin de réaliser la polymérisation. Nous montrerons l'emploi du capteur à fibre optique pour réaliser un contrôle du procédé de fabrication et aborderons les mesures préalables qui ont été réalisées dans le but d'étalonner le dispositif.

3. Mesure de la vitesse de la lumière
Jérôme Beucher
 

La vitesse de la lumière est un paramètre clé de la physique moderne, mais comment la mesurer précisément ? De nombreuses expériences d'optique ont permis de réaliser cette mesure avec plus ou moins de précision. Au cours de cet atelier quelques expériences célèbres seront décrites (Galilée, Römer, Fizeau), et une méthode originale s'appuyant sur la radioactivité b+ et l'annihilation de positron sera mise en oeuvre.
Après une description détaillée de cette expérience de physique nucléaire, les incertitudes liées à la méthode seront évaluées, et les résultats obtenus seront comparés à la valeur fixée de c.

 
4. Nanotubes de carbone et application à l'échelle mésoscopique
Olivier Chauvet - présentation.pdf
 

En passant de la microélectronique à la nanoélectronique, de nouveaux phénomènes de transport électrique apparaissent qui sont liés à la nature quantique des charges. Ces phénomènes dépendent de la façon dont on réalise les dispositifs et dont on se prépare à faire les mesures électriques.
Les nanotubes de carbone sont de bons candidats pour des applications en nanoélectronique. En fonction de la façon dont ils sont connectés dans un circuit, on pourra ainsi observer des comportements de type balistique ou bien réaliser des boites quantiques. Ce sont en cela des nano-objets assez exemplaires.
Dans cet atelier, on présentera différentes expériences typiques de ces comportements et on pourra en discuter l'intérêt ou les limitations en terme d'applications.

 
5. Mise en situation autour du phénomène de l'arc-en-ciel et analyse de pratique
Jean-Pierre Cussonneau, Ludovic Klein
 
L'arc-en-ciel est un phénomène naturel très fréquent et facilement observable par tous mais sa formation correspond à des conditions bien particulières qui rendent son interprétation et sa reproductibilité moins évidentes. En s'appuyant sur l'observation de ce phénomène et sa reconstitution en salle, cet atelier a pour but de mettre les participants en situation afin de les faire observer, quantifier et interpréter. Il s'agit dans un premier temps de concevoir une expérience qui rende l'observation reproductible et constable par tous du spectre de couleurs puis de mesurer avec des moyens simples l'angle moyen d'apparition des spectres par rapport à la direction du Soleil. Dans un second temps et sous forme d'échanges, il sera proposer aux participants de faire une analyse de leur pratique expérimentale et d'imaginer une interprétation concrète du phénomène qui permette de passer d'un modèle microscopique à un modèle macroscopique.
 
6. Fiabilité des ouvrages à la mer : Incertitudes et modélisation du processus de corrosion des structures portuaires
Alexandre Clément, Franck Schoefs
 

Les structures maritimes et portuaires ont des vocations très diverses comme la protection des côtes, l'accueil de bateaux de plaisance ou de navires commerciaux ou encore l'exploitation pétrolière. A l'heure où des projets tels port 2000 au Havre ou les autoroutes de la mer émergent, les structures portuaires plus particulièrement sont toujours au cœur du développement durable de nos sociétés.
Toutefois, les ouvrages vieillissants et les réglementations se renforçant en même temps que les exigences sociales en terme de sécurité, il est nécessaire de se doter de nouvelles méthodologies pour décider de programmes de maintenance, réparation inspection ou du démantèlement de structures. C'est dans ce contexte appelé requalification des structures, que le champ des méthodes d'analyse de risque exprime tout son intérêt. Il s'agit d'une des méthodes permettant de croiser probabilités de défaillance et conséquences.
On explore dans cet atelier une facette essentielle de ces méthodes : la modélisation des données d'inspection. Une définition générale des concepts de probabilité de détection, probabilité de fausse alarme sera exposée et des résultats issus du projet européen Medachs seront présentés. Ils concernent la corrosion de structures portuaires métalliques. On réalisera durant cet atelier des mesures d'épaisseur à l'aide d'un appareil à ultrasons sur des plaques tests placées dans l'estuaire de la Loire un mois auparavant. On dégagera à cette occasion les bases d'un protocole de mesure permettant d'évaluer ces probabilités. On conclura sur les possibilités offertes d'introduire ces résultats dans des schémas d'aide à la décision notamment en s'appuyant sur des approches bayésiennes.

 
7. Mesures de la radioactivité  dans des échantillons naturels : estimation des risques d'exposition sur l'homme
Michaël Bailly, Patrick Chardon
 
Nous vivons dans un environnement radioactif naturel, nous sommes donc exposés naturellement à ces rayonnements. On peut distinguer deux types d'expositions ; interne ou externe. Dans le cas des expositions internes, il s'agit de l'effet des rayonnements sur l'homme à partir de l'inhalation d'un radioélément par une personne. Dans le cas d'une irradiation externe, il s'agit généralement de l'effet des rayonnements sur le corps humain. Durant cet atelier, nous ferons une rapide introduction sur la mesure et les incertitudes des radioactivités alpha, bêta et gamma. Ensuite, au travers de la mesure de la radioactivité gamma dans quelques échantillons naturels, nous estimerons la valeur de l'exposition sur les personnes dans le cadre de la radioprotection.
 
8. Expérience d'une mini-tornade
Thierry Gousset (Conception : Ludovic Klein et Carl Rauch)
 
Les tornades sont des phénomènes aussi impressionnants qu'intriguants. Une maquette a été construite pour en observer à loisir un « modèle réduit ». L'atelier vous propose de venir observer la mini-tornade et de l'analyser ensemble. Nous pourrons expliquer les ingrédients mis en oeuvre pour faire fonctionner le dispositif. Peut-être arriverons-nous à dégager au cours de la discussion les éléments qui régissent le phénomène, les paramètres essentiels, des lois de comportement...
 
9. Mesure du temps de vie du muon
Jacques Martino
 

L'existence de muons atmosphériques sera discutée : d'où viennent-ils ? pourquoi nous atteignent-ils (relativité restreinte !) ?
Le point évoqué à la seconde question est ce qui rend possible la mesure de leur temps de vie. Cette dernière notion sera expliquée, ainsi que l'interaction à l'origine de la désintégration des muons.
Le dispositif expérimental sera présenté (détecteur Cerenkov de 1 m3 d'eau, chronomètre électronique,…, acquisition sur ordinateur), ainsi que les notions de signal et de bruit de fond.
Les ingrédients de la détermination de la précision de la mesure, en fonction du comptage, seront décrits, ainsi que les lois statistiques en jeu.
Enfin des résultats de mesure seront présentés et discutés.

 
10. Mesure de la résistance interne d'une pile : les incertitudes permettent-elles de vérifier le modèle ?
Richard Dallier, Lionel Luquin
 

La mesure de la résistance interne d'une pile est une expérience simple. Cependant sa réalisation demande un protocole rigoureux et son analyse peut révéler quelques surprises. Dés lors quelles conclusions peut-on tirer d'une expérience qui n'est qu'une vision de la réalité ?
Nous proposons aux participants de réaliser cette petite expérience à l'aide d'un matériel très simple et de montrer, comme c'est le cas très fréquemment en physique, que l'expérimentation et ses incertitudes associées ne peuvent conduire qu'à une vérification partielle du modèle.
Cet atelier permettra à chaque participant de définir un protocole, de le réaliser et de mettre en évidence le lien fort qui existe entre l'évaluation des incertitudes et la vérification d'une loi physique. A l'issue de cette expérience une nouvelle expérience utilisant le même appareil de mesure permettra peut être de remettre en cause la loi physique.

 
11. De l'utilité de modèles statistiques pour identifier et valider des modèles ou lois physiques : erreurs de mesure, propagation, régression linéaire
Bernard Bourges, Ramzi Ouarghi
 

Le but de cet atelier est de montrer comment des outils de modélisation statistiques simples utilisant des hypothèses probabilistes peuvent être utilisés pour identifier un modèle physique sur des données expérimentales, pour prendre en compte en particulier les erreurs de mesure et leur composante aléatoire. Ce qu'on pourrait encore résumer ainsi : la régression linéaire apporte beaucoup plus d'information que les simples coefficients de la droite des moindres carrés, mais doit être maniée avec beaucoup plus de précaution qu'on ne le croit souvent…
A partir d'un même exemple physique très simple, on abordera simultanément trois thèmes :

  • la question de la propagation et de la combinaison des erreurs et incertitudes de mesures dans un modèle physique
  • l'utilisation de la régression linéaire pour identifier les paramètres physiques inconnus d'un modèle physique, mais surtout fournir une incertitude sur ces paramètres inconnus et valider le modèle. On évoquera à cette occasion la richesse des informations fournies par la régression, au-delà des valeurs des coefficients du modèle et du coefficient de corrélation linéaire simple. On insistera sur les hypothèses sous-jacentes à la régression linéaire (trop souvent oubliées dans une utilisation « boite noire » de la méthode des moindres carrés), les techniques pour les vérifier, et les techniques à utiliser lorsqu'elles ne sont pas vérifiées.  On montrera comment un même modèle physique peut donner lieu à différentes formulations statistiques non équivalentes, la plus évidente pour le physicien n'étant pas toujours la meilleure.
  • l'utilisation de tests statistiques pour vérifier rigoureusement la validité d'un modèle théorique par rapport à des données expérimentales (en intégrant les incertitudes de mesure et leur propagation, cf. infra).

On s'appuiera sur l'exemple simple de la caractérisation (à l'aide d'un modèle U = U0 - r . I ) d'un dipôle électrique formé par un ensemble de générateurs reliés entre eux, à partir de mesures réalisées sur un banc de TP classique. On utilisera deux logiciels usuels : le tableur Excel et le logiciel statistique Minitab (un seul des deux étant suffisant dans la pratique).