Bonjour,
J'ai ce qcm en optique dont j'ai l'impression de bien comprendre mais pourtant je n'obtiens pas la bonne réponse.
Voici l'énoncé :
On utilise une lentille mince convergente pour projeter une image agrandie sur un mur situé à 10 m. Sachant que la diapositive mesure 20 x 30 mm et que l'image devra mesurer 2 x 3 m, quelle est la distance qui sépare la lentille de la diapositive ?
1. 10 cm
2. 1 cm
3. 1 mm
4. il est impossible de répondre car la distance focale de la lentille est inconnue
Je connais la formule : i/o = -p'/p
i : taille de l'image = > 6 m
o : taille de l'objet => 600 mm = 0,6 m
p' : distance entre la lentille et l'image = 10m
En appliquant la formule j'obtiens -1m.
Merci beaucoup.
Pourquoi 6 et 0,6 ?
As-tu fait une figure ?
En considérant la hauteur de l'objet et celle de l'image, on a o = 20 mm et i = 2 m.
D'où o/i = . . .
Bonjour,
donc il ne faut pas utiliser la formule I/o = -p'/p ?
mais la mesure du o est en mm alors que celle de l'image est en m. Je ne comprends pas
Vous devez être membre accéder à ce service...
Pas encore inscrit ?
1 compte par personne, multi-compte interdit !
Ou identifiez-vous :