Bonjour,
Pour calculer l'incertitude de mesure concernant une longueur d'onde, j'ai :
/
=
i/i +
a/a +
D/D
avec : i l'interfrange, a la distance entre les fentes de Young et D la distance entre les fentes et un écran.
Je dois alors montrer par approximation que : /
=
i/i
Comment prouver que l'incertitude sur i domine largement celle de a et de D ?
Merci d'avance
Bonsoir
L'incertitude absolue sur une mesure est l'estimation du majorant de l'erreur commise : l'erreur sur une mesure est bien évidemment inconnue (comme aurait pu dire LA PALICE : "si l'erreur était connue, elle n'existerait pas"...) ; cependant, l'analyse de la méthode utilisée et des instruments de mesure permet en général de dire : " L'erreur sur la valeur m d'une mesure est certainement inférieure, par excès ou par défaut, à une valeur m appelée : incertitude absolue sur m.
Ignorant tout des conditions de mesures, il est impossible de répondre à ta question. Entre l'étudiant qui a obtenu sur un écran trois ou quatre franges d'interférence peu contrastées et qui dispose seulement d'une règle graduée tous les 0,5mm et celui qui dispose d'une caméra et du logiciel adéquat permettant d'enregistrer pixel par pixel l'éclairement, tu te doutes bien que l'incertitude sur l'interfrange ne va pas être la même !
Bref : si tu veux une aide efficace, il faut en dire beaucoup plus !
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :