330 likes | 431 Views
Programma del corso di “LABORATORIO DI FISICA”.
E N D
Programma del corso di “LABORATORIO DI FISICA” Il corso ha lo scopo di avviare lo studente alla conoscenza e all’utilizzo della strumentazione di laboratorio tramite l’esecuzione di alcuni esperimenti, che prevedono la misura di varie grandezze fisiche e la successiva elaborazione dei dati raccolti. In particolare si vuole dimostrare la validità di semplici leggi fisiche, scelte tra quelle studiate in meccanica, calorimetria ed elettromagnetismo, avvalendosi della corretta procedura sperimentale. Il corso è diviso in una parte di lezioni in aula sulla teoria degli errori di misura ed una seconda parte di esperienze svolte in laboratorio dagli studenti.
Programma del corso di “LABORATORIO DI FISICA” • Misurazione di una grandezza fisica. Le unità di misura. Gli strumenti di misura. • Errori di misura. Errori sistematici e casuali. Errori assoluti e relativi. Propagazione degli errori. Cifre significative ed arrotondamenti. • Analisi statistica degli errori casuali. La media e la deviazione standard. La deviazione standard della media. • Istogrammi e distribuzioni. La distribuzione normale e le sue proprietà. • Interpolazione dei dati con una curva. Il metodo dei minimi quadrati. Interpolazione lineare e polinomiale. • Covarianza e correlazione. • Lezioni introduttive sugli esperimenti da eseguire.
Programma del corso di “LABORATORIO DI FISICA” • Esercitazioni in laboratorio: • Il calorimetro delle mescolanze: misura del calore specifico dei solidi. • Misura della costante elastica di una molla con metodo statico e dinamico. • Verifica delle leggi di Ohm. • Misure su banco ottico. Verifica sperimentale della legge dei punti coniugati. Verifica delle leggi di Snell. • Gli esperimenti verranno condotti a gruppi di 4 o 5 studenti ciascuno ed ogni studente dovrà preparare una relazione scritta su ciascun esperimento. • Testo consigliato: J.R. Taylor, Introduzione all’analisi degli errori, Zanichelli.
L’unità di lunghezza La lunghezza unitaria, come è noto, è il metro. La storia che ha portato alla definizione di questa unità di misura è molto istruttiva e mette bene in luce quali siano le esigenze a cui debba rispondere la scelta di un campione e i criteri pratici da seguire in tale scelta. Nel 1790 la Commissione di scienziati nominata a Parigi dall’Assemblea Costituente, decise di assumere come unità di lunghezza la quaranta milionesima parte del meridiano terrestre. Qualche anno più tardi venne depositato negli archivi francesi un campione di metro costituito da una sbarra di platino puro, detto “metro legale” o “metro degli archivi”, che rappresentava esattamente quello che, in base alle misure eseguite, si riteneva fosse il valore della quaranta milionesima parte del meridiano terrestre. In seguito, però, rifacendo più volte la misura, si scoprirono molti “difetti” del campione adottato. Si notò ad esempio che non tutti i meridiani terrestri avevano la stessa lunghezza e quindi fu necessario definire uno particolare di essi e la scelta cadde su quello che passa alle porte di Parigi. In un secondo momento si notò che anche i cambiamenti di forma della superficie terrestre rendevano incostante l’unità di misura prescelta smentendo le garanzie di precisione, di invariabilità e di facile riproducibilità che dovevano rappresentare i requisiti fondamentali di un buon campione.
L’unità di lunghezza Nel 1875 una Convenzione internazionale ratificò l’adozione del metro legale come unità di lunghezza e istituì a Sèvres, un sobborgo di Parigi, il Bureau International des Poids et Mesures, che è ancora oggi la massima autorità nel campo della misura delle grandezze fisiche. La definizione di metro era riferita alla distanza fra le due tacche incise sulla sbarra campione di platino(90%)-iridio(10%), conservata a temperatura costante (0°C) nell'Ufficio Internazionale di Pesi e Misure di Sèvres. Con la creazione del metro legale in lega platino-iridio la definizione di metro veniva di fatto svincolata dal riferimento originario alle dimensioni della Terra, una scelta che si era rivelata fonte di innumerevoli difficoltà e complicazioni. Una serie di duplicati per quanto possibile identici al metro campione di Sèvres fu frattanto realizzata e distribuita ai principali Paesi industrializzati del mondo. All’Italia, nel 1889, venne assegnato il prototipo n. 1, che è attualmente custodito nell’Ufficio Metrico Centrale di Roma.
L’unità di lunghezza Ma la storia del campione di lunghezza non termina qui. Negli anni seguenti la seconda guerra mondiale, si decise di ritornare all’orientamento già espresso dalla commissione nominata ai tempi della rivoluzione francese e cioè di definire l’unità di lunghezza in base ad un fenomeno naturale. A quel tempo fra l’altro la scoperta e la comprensione del mondo microscopico, rendeva disponibili, per il miglioramento delle tecniche di misurazione, anche molti fenomeni legati alla struttura atomica della materia. Nel 1960 una Commissione internazionale, utilizzando la radiazione elettromagnetica, cambiava ancora una volta la definizione di metro. Si era venuti infatti a conoscenza che la luce emessa dai corpi incandescenti si propagava nello spazio in forma di onde elettromagnetiche delle quali era possibile misurare la lunghezza d’onda.
L’unità di lunghezza Il metro campione conservato a Sèvres fu quindi messo a confronto con la lunghezza d’onda della radiazione luminosa monocromatica emessa dall’isotopo 86 del cripto, un elemento piuttosto raro e poco noto. Pertanto, il campione di lunghezza venne definito come la distanza pari esattamente a 1.650.763,73 lunghezze d’onda della radiazione elettromagnetica corrispondente alla transizione fra i livelli 2p10 e 5d5 dell’isotopo 86 del cripto. I vantaggi di questa nuova definizione di metro furono tanti, ad iniziare dalla precisione che prevedeva un errore di solo una parte su dieci milioni e dalla facilità con cui era possibile realizzare in laboratorio quella misura. E’ bene chiarire che la precisione assoluta in fisica non esiste: ogni misurazione infatti non può essere considerata completa se non comprende l’indicazione della sua incertezza o del suo grado di affidabilità. Con la nuova definizione di metro l’incertezza diventava veramente minima, tuttavia i fisici non erano ancora soddisfatti dei risultati raggiunti. Nel 1984 la definizione di metro è stata cambiata per la quarta volta: a quella data l’unità di misura di lunghezza è stata messa in relazione con la velocità della luce nel vuoto, di cui era possibile misurare il valore con grande precisione. Il metro diventava quindi lo spazio che la luce percorre nel vuoto nell’intervallo di tempo di 1/299.792.458 secondi.
Le unità di tempo e massa • Nel 1967 la tredicesima conferenza generale sui pesi e sulle misure adottò questa definizione di secondo: • «la durata di 9 192 631 770 periodi della radiazione corrispondente alla transizione tra due livelli iperfini, da (F=4, MF=0) a (F=3, MF=0), dello stato fondamentale dell'atomo di cesio-133» • Il secondo è l'unita di misura definita con maggiore accuratezza, che è attualmente nell'ordine di 10− 14 - 10− 15. • Il chilogrammo è l'unica tra le unità di misura SI che è definita in relazione ad un manufatto e non ad una proprietà fisica. • “Il chilogrammo è la massa di un particolare cilindro di altezza e diametro pari a 0,039 m di una lega di platino-iridio depositato presso l'Ufficio internazionale dei pesi e delle misure a Sèvres, in Francia”. • Copie ufficiali del prototipo sono rese disponibili come prototipi nazionali, che vengono confrontati con il prototipo di Parigi all'incirca ogni 10 anni. Struttura iperfine: in fisica atomica, l'interazione iperfine è la debole interazione magnetica tra gli elettroni e il nucleo dell'atomo. Infatti, da un punto di vista classico, l'elettrone in moto intorno al nucleo ha un momento di dipolo magnetico che interagisce con il momento magnetico del nucleo, dovuto al suo spin. Questa interazione è causa della separazione dei livelli energetici atomici o molecolari in sotto-livelli, che formano la cosiddetta struttura iperfine dello spettro atomico o molecolare.
Grandezze fondamentali e derivate La scelta delle grandezze fisiche fondamentali ha seguito lo sviluppo stesso della scienza. Dalla geometria, la scienza più antica, emerse il concetto di lunghezza, al quale l’astronomia associò quello di tempo (più esattamente “intervallo di tempo” o “durata”). Con la definizione di lunghezza e di tempo è stato possibile costruire quella branca della fisica che si chiama cinematica (dal greco kínema = movimento). Quando in seguito si decise di indagare sulle cause legate al movimento dei corpi si presentò l’esigenza dell’impiego di una terza grandezza fisica, la massa. All’inizio del 1800, lo studio dei fenomeni termodinamici impose l’introduzione di una quarta grandezza fondamentale, la temperatura. Successivamente lo studio dei fenomeni elettrici rese necessaria l’adozione di una quinta grandezza fondamentale, che venne individuata nella intensità di corrente elettrica, alla quale si aggiunse l’intensità luminosa, quando prese avvio lo studio dei fenomeni di ottica. Il quadro si andò infine completando nel 1971 con l’adozione di una settima grandezza fondamentale che fu riconosciuta nella quantità di materia. Da queste sette grandezze fondamentali è possibile ricavare tutte le altre, necessarie per la descrizione dei diversi fenomeni naturali.
Metodi di misura ed errori di misura Ogni misura quindi è data da un numero accompagnato dall’unità di misura adeguata: esso esprime il rapporto fra il valore della grandezza in esame e quello di una grandezza ad essa omogenea scelta come unità di misura. In generale si assume come misura m della grandezza M, espressa in unità U, il numero: m = M/U
Lo strumento di misura • Lo strumento di misura è un apparato che mette a confronto la grandezza da misurare con l'unità di misura; esso è composto da: • un rivelatore, ovvero un oggetto sensibile alla grandezza da misurare; • un trasduttore, ovvero un dispositivo che traduce le variazioni della grandezza caratteristica del rivelatore in quelle di un’altra grandezza più facilmente accessibile allo sperimentatore; • un dispositivodi visualizzazione per presentare il risultato. Esempio: il termometro a mercurio visualizzatore: la scala graduata Trasduttore: Tubo capillare a sezione costante che traduce le variazioni di volume in variazioni della lunghezza della colonna di liquido Rivelatore (elemento sensibile alla temperatura) : mercurio
Parametri che definiscono le caratteristiche degli strumenti • Il valore “vero” di una grandezza è una entità che non è possibile conoscere.
La misura non è mai esatta • Risoluzione: La risoluzione di uno strumento rappresenta la minima variazione della grandezza da misurare che provoca il minimo spostamento “avvertibile” nell’indice dello strumento. La risoluzione rappresenta il valore dell'ultima cifrasignificativa ottenibile. Un medesimo strumento (ad esempio multimetro) ha spesso la possibilità di scegliere tra diverse scale di sensibilità. • Precisione: è legata alla riproducibilità del risultato. • Accuratezza:L'accuratezza esprime invece l'assenza di errori sistematici nella misura: una misura è tanto più accurata quanto più la media delle misure si approssima al valore vero della grandezza.
Accuratezza e precisione In passato, specie nel mondo anglosassone o nell'ambiente elettrico-elettronico, il termine accuratezza era sinonimo di precisione. Nella moderna metrologia i termini indicano concetti differenti, e l'accostamento deve pertanto essere evitato. L'accuratezza della misura è il grado di concordanza tra un valore desunto attraverso una o più misure e il relativo valore vero. L'errore che deriva dallo scostamento tra il valore misurato e il valore vero è chiamato errore d'accuratezza (o semplicemente accuratezza). La precisione è invece legata alla riproducibilità del risultato della misura di una stessa grandezza. Precisione di uno strumento di misura è il grado di concordanza fra i risultati di successive misurazioni della stessa grandezza condotte in modo da rispettare tutte le condizioni seguenti: - stesso metodo di misurazione - stesso strumento di misurazione - stesso osservatore - stesso luogo - stesse condizioni di utilizzazione - ripetizione entro un breve periodo di tempo.
Per chiarire il concetto, si può fare riferimento all’analogia del tiro al bersaglio con una serie di frecce: più la serie di frecce tende a colpire il centro del bersaglio, più questa si definisce accurata. Nell'immagine a destra, gli esempi A e C rappresentano due rosate accurate, in quanto tutte e due tendono "mediamente" verso il centro del bersaglio. Tuttavia, mentre la rosata "A" si presenta circoscritta intorno al centro, la rosata "C" è dispersa su una larga superficie. La dispersione della serie di frecce non incide sull'accuratezza (cioè sulla "tendenza" delle frecce di andare verso il centro), ma è definibile in termini di scarsa precisione nel tiro. La rosata B, pur essendo ripetibile, non si presenta accurata, in quanto non tende a colpire il centro del bersaglio. Lo scostamento del tiro, costante e ripetibile, evidenzia un errore sistematico nel lancio delle frecce. L'esempio D mostra il caso peggiore, in cui i risultati sono, sia non accurati, che imprecisi. L'accuratezza può essere migliorata con una calibratura, che permette di ridurre l'errore. La precisione non può essere migliorata con una calibratura, perchè è una qualità intrinseca dello strumento e di come questo è stato costruito.
Esempio di errore sistematico dovuto all'utilizzo di uno strumento a temperatura diversa da quella nominale.
Errore di parallasse La figura mostra la diversa lettura che si ottiene osservando la scala dello strumento da angolazioni diverse. Gli strumenti di precisione hanno una porzione della scala riflettente allo scopo di minimizzare tale effetto.
Cifre significative ed arrotondamenti Rispetto alla regola enunciata secondo la quale gli errori vanno arrotondati ad una cifra significativa, esiste una sola eccezione: se la prima cifra dell'errore x è un 1, allora l'errore x può essere espresso con due cifre significative. Consideriamo un ipotetico x = 1.4 : approssimare questo ad 1 significherebbe trascurare un 40% (0.4 su 1) cioè una parte non proprio trascurabile.In questo caso è quindi meglio tenere due cifre e assegnare all'incertezza il valore 1.4 .