Notifiche
Cancella tutti

problema fisica sensibilità

  

-1

"Un addetto deve misurare la distanza tra i lampioni di una strada per verificare che siano equidistanti tra loro. Per misurare le distanze utilizza il telemetro del suo smartphone. Un lampione dista dal successivo 20,0432 m e dal precedente 20,0412.

Quale sensibilità minima deve avere il telemetro perchè l'addetto possa rilevare una differenza tra le due distanze misurandole?"

Ho provato a svolgere l'esercizio ma mi viene 1mm mentre il risultato è 2mm. Vorrei capire dove sbaglio. Grazie.

Autore
Etichette discussione
3 Risposte



0

@anna-sa91 ciao

le due misure sono uguali fino alla seconda decimale

20,0432

20,0412

per rilevare la differenza ci vuole uno strumento che legga almeno la terza decimale ovvero che abbia la sensibilità dell’ordine del mm.

la differenza tra le due misure è proprio 2mm

20,0432-20,0412=0,002m=2mm

che è là sensibili richiesta allo strumento.



0

"Vorrei capire dove sbaglio" 'a Maronn' 'o sape! Perché Lei può, ma io i tuoi pensieri non li leggo; come dovrei fare a correggere "ma mi viene 1mm"?
Può essere che un millimetro, sia la semiampiezza dell'intervallo d'incertezza?
Boh, mah ... vedi infra.
------------------------------
Dalla semisomma e semidifferenza fra le due vere distanze L < U si ha
* (U + L)/2 = (20.0432 + 20.0412)/2 = 20.0422 m
* (U - L)/2 = (20.0432 - 20.0412)/2 = 0.001 m
si ha
* d = (20.0422 ± 0.001) m
e quindi l'ampiezza dell'intervallo d'incertezza è di due millimetri, cioè proprio la differenza "U - L": se la granulosità delle misure dello strumento supera quest'ampiezza esso non sarà in grado di trovare differenze eguali o minori.



0

43 mm - 41 mm = 2 mm



Risposta




SOS Matematica

4.6
SCARICA