Il fatto che l’orbita della Terra e quella degli altri pianeti siano ellittiche costituisce l’enunciato della prima legge di Keplero, che considera l’ellitticità soltanto dal punto di vista cinematico, senza spiegarne la dinamica.
Fu Newton che applicando la seconda legge della dinamica F = ma ai pianeti
soggetti all’attrazione gravitazionale da parte del Sole, espressa matematicamente dalla legge
di gravitazione universale F = GMsMT/R2,da lui stesso scoperta, riuscì a fornire una dimostrazione matematica del fatto che le orbite dei pianeti siano ellittiche.
Egli infatti, dopo avere inventato, indipendentemente da Leibniz, il calcolo infinitesimale (differenziale ed integrale), introdusse la legge di gravitazione universale nella seconda legge della
dinamica e ne ricavò la soluzione più generale, che può essere, a seconda del valore dell’energia totale del pianeta (cinetica più potenziale), un’ellisse, un ‘ iperbole o una parabola, cioè una conica.
Se il pianeta ha un’energia totale negativa , è legato al Sole e descrive attorno ad esso un’ellisse
avente il Sole in uno dei fuochi e caratterizzata da un’eccentricità che dipende dalle condizioni iniziali (posizione e velocità) con cui il pianeta iniziò il suo moto di rivoluzione intorno al Sole.
Se invece l’energia totale fosse positiva o nulla il pianeta descriverebbe un’orbita aperta (di fuga) (iperbole o parabola) avvicinandosi al Sole una volta sola ed allontanandosi per sempre da esso. Il fatto poi che l’orbita sia una conica,in particolare un’ellisse, dipende dalla particolare dipendenza della forza di attrazione gravitazionale dall’inverso del quadrato della distanza R tra il pianeta ed ilSole. Pertanto l’ellitticità delle orbite dei pianeti dipende soltanto dalla particolare legge di forza (analoga a quella di Coulomb per le cariche elettriche),che è tipica del campo gravitazionale. L’orbita circolare è soltanto un’approssimazione, considerata per motivi di semplificazione, delle orbite leggermente ellittiche, cioè molto simili ad un’orbita circolare.
Tutti gli oggetti del microcosmo, sia elementari che composti, sono fermioni o bosoni.
I fermioni hanno spin semidispari (0,1/2,3/2,5/2 ,ecc) ,obbediscono alla statistica di Fermi-Dirac e sono soggetti al principio di esclusione di Pauli, che vieta a due fermioni [elettroni, positroni, protoni, antiprotoni, neutroni, neutrini, muoni, tauoni, quark, antiquark, nuclei atomici con A = Z + N (numero di massa) dispari ] di occupare lo stesso stato quantico, a meno che non abbiano gli spin antiparalleli.
I bosoni hanno spin nullo o intero (0,1,2,3 ...) , obbediscono alla statistica di Bose-Einstein e non sono soggetti al principio di Pauli. Esempi di bosoni sono tutti i vettori di forza dei campi quantistici (il fotone, il gluone, i bosoni vettori W+, W- e Z° , scoperti da Rubbia nel 1983, tutti con spin 1, ed il gravitone con spin 2, finora non osservato), i nuclei atomici con A pari (per esempio l’elio-4 ,avente due elettroni con spin antiparalleli ed un nucleo con due protoni e due neutroni con spin antiparalleli a coppie e spin totale nullo) ed i pioni (i mesoni p dal cui scambio dipendono le forze nucleari attrattive, a corto raggio d’azione, protone-protone, protone-neutrone, neutrone-neutrone).
Mentre gli stati quantici occupati dai fermioni, a causa del principio di Pauli, sono caratterizzati da livelli di energia distribuiti in intervalli di notevole ampiezza (come gli elettroni degli orbitali atomici), gli stati quantici occupati dai bosoni subiscono la condensazione di Bose-Einstein, che
viene evidenziata sperimentalmente dall’ elio 4 nello stato superfluido,a temperature inferiori a 2,19 ° K, che si comporta come un “mare” di bosoni condensati, che occupano tutti lo stesso stato quantico e possono risalire vincendo la gravità lungo le pareti esterne di un recipiente immerso nel superfluido o zampillando da tubi capillari (effetto fontana), grazie all’eliminazione di ogni attrito interno al superfluido) .Altri fenomeni di condensazione bosonica si verificano nei superconduttori, nei quali la supercorrente (migliaia di ampere) a temperature inferiori a quelle dell’elio liquido è trasportata da coppie di elettroni (coppie di Cooper) con spin antiparalleli (con spin totale nullo).
Si pensi che gli elettroni, se non obbedissero al principio di Pauli, occuperebbero lo stesso stato quantico e sarebbero vicinissimi al nucleo atomico, il che implicherebbe l’eliminazione
degli spazi vuoti tra nucleo ed orbitali elettronici e l’ esistenza di una materia superdensa come quella nucleare (milioni di tonnellate per cm3) ed incompatibile con la vita.
Per quanto riguarda i mediatori della forza elettrodebole, bisogna considerare che negli esperimenti effettuati al CERN di Ginevra, l’esistenza dei bosoni vettori intermedi W+,W- e Z°, responsabili dei processi (deboli) di decadimento radioattivo dei nuclei atomici e di cambiamento di “sapore” (per es. la trasformazione di un quark up in un quark down, e viceversa), fu osservata dall’equipe di fisici diretti da Carlo Rubbia ad energie superiori ai 100 GeV, alle quali le forze deboli hanno la stessa intensità delle forze elettromagnetiche, e si ripristina la simmetria rotta alle basse energie (energie della materia ordinaria).
Infatti ad energie superiori ai 100 GeV (1011 elettronvolt) , equivalenti a temperature superiori a 107 °K (1 elettronvolt corrisponde a poco più di 10000 °K) esistenti subito dopo il big bang, quando l’unica forza elettrodebole (elettromagnetica + debole) sostituiva le forze elettromagnetiche e deboli, con intensità diverse, della materia ordinaria, i bosoni W+, W- e Z° persero la loro massa a riposo (intorno ai 90 GeV) per trasformarsi in bosoni senza massa a riposo, come il fotone, e diedero origine a forze deboli aventi la stessa intensità di quelle elettromagnetiche.
Ringrazio anzitutto la gentile visitatrice di Santa Teresa di Riva per il gradimento esternato
per peoplephysics.
Per comprendere la differenza tra un’arma utilizzante esplosivo convenzionale (TNT) ed un’arma nucleare a fissione (bomba A all’uranio o al plutonio), bisogna considerare che, mentre la reazione chimica di sintesi dell’acqua da idrogeno ed ossigeno libera un’energia di 4,41 millesimi di KWh per grammo, corrispondenti a 2,97 eV (elettronvolt) per molecola, la fissione nucleare
dell’ uranio-235 libera un’energia 5210000 volte maggiore, pari a 23000 KWh per grammo , corrispondenti a 200 MeV (milioni di elettronvolt) per ogni nucleo che si disintegra.
Questa enorme differenza dipende dal fatto che mentre una reazione chimica implica un trasferimento di elettroni (quelli degli orbitali più esterni, di valenza) tra gli atomi degli elementi chimici che si combinano, una reazione nucleare, come quella di fissione dell’uranio-235 per assorbimento di un neutrone lento, implica la modifica della struttura del nucleo atomico, i cui componenti, protoni e neutroni, sono caratterizzati da livelli di energia milioni di volte maggiori di quelli degli orbitali elettronici. Infatti la fissione dell’uranio e del plutonio consiste nella formazione
di due nuclei con numeri di massa (numero di protoni + numero di neutroni) intermedi più un numero di neutroni (2 o 3) veloci che, purchè sia presente una minima massa (massa critica) di combustibile nucleare (materiale fissile), determinano la fissione di altri nuclei di uranio (o plutonio) e l’instaurarsi della reazione a catena che nelle bombe A assume carattere esplosivo,mentre in una pila atomica (reattore nucleare) può essere controllata e, se necessario, arrestata.
Il meccanismo d’ innesco della bomba A al plutonio-239 (come quella che fu sganciata su Nagasaki), il cui prototipo fu collaudato nel luglio del 1945 (progetto Trinity) si basava sull’implosione di una sfera cava di plutonio avente una massa critica di qualche decina di Kg.
In particolare, al centro della struttura a simmetria sferica fu sistemata una sorgente di neutroni (al polonio-berillio) necessaria per irradiare la superficie interna della sfera cava di plutonio ed avviare la reazione a catena, mentre sulla superficie esterna della stessa vennero sistemate con densità uniforme tantissime cariche esplosive convenzionali con relativi detonatori (detonatori convenzionali, basati su timer e resistenze elettriche ), che vennero innescati contemporaneamente quando la bomba venne fatta esplodere in cima ad un traliccio.
L’attivazione simultanea dei detonatori provocò un’esplosione la cui onda d’urto, grazie alla particolare geometria della disposizione delle cariche, si propagò con velocità maggiore verso il centro della sfera cava (onda d’urto implosiva) e con velocità molto minore verso l’esterno (onda d’urto esplosiva), determinando un rapidissimo collasso (implosione) della sfera cava di plutonio
che venne compressa uniformemente ed in tutte le direzioni contro la sorgente di neutroni posta
al suo centro, subendo una velocissima reazione a catena che liberò tutta l’energia della carica di
materiale fissile.
Si tenga presente che l’energia che si libera nella fissione di un nucleo non è altro che l’energia elettrostatica repulsiva dei due frammenti di fissione, carichi positivamente, che si allontanano rapidamente l’uno dall’altro nel caso in cui il neutrone lento assorbito sia riuscito a provocare la rottura del precario equilibrio, tipico dei nuclei pesanti, tra le forze nucleari attrattive (protone-protone, neutrone-protone e neutrone-neutrone) e le forze coulombiane repulsive che agiscono tra i protoni.
Gli effetti dell'esplosione di una bomba A sono termici, meccanici, elettromagnetici e radiativi (relativi all'irraggiamento causato alle particelle ionizzanti e dai raggi gamma).
Gli effetti termici sono associati alle elevatissime temperature, parecchi milioni di gradi °C nel punto dell’esplosione, ed in particolare alla sfera di fuoco con un raggio di qualche decina di metri ed una temperatura intorno a 300000 °C , che si forma entro 0,1 secondi e si espande in qualche decimo di secondo bruciando e vaporizzando immediatamente ogni essere vivente e fondendo e vetrificando nel raggio di alcuni chilometri qualsiasi materiale a base di silicati che sia esposto alla vampata di calore.
Gli effetti meccanici sono associati all’onda d’urto che si propaga generando raffiche di vento fino a 400 Km/h e pressioni di alcune decine di tonnellate per metro quadro.
Gli effetti elettromagnetici, che rendono immediatamente inutilizzabili tutti i sistemi di telecomunicazioni via radio, sono causati dall’impulso elettromagnetico (previsto da Fermi) generato dagli elevati flussi di particelle cariche (protoni, elettroni, positroni, particelle alfa, muoni e pioni) emesse dai frammenti di fissione.
Gli effetti radiativi sono prodotti direttamente dalle particelle ionizzanti sopracitate ed indirettamente dai neutroni che contaminano il suolo ed i tessuti biologici mediante radioattività indotta.
La contaminazione radioattiva si propaga rapidamente attraverso i venti, la pioggia radioattiva (fall out) e le ceneri (fungo atomico) che si generano dopo l’esplosione e precipitano al suolo.
La bomba H, bomba a fusione,sfrutta invece la fusione di nuclei leggeri (idrogeno, deuterio,trizio) in nuclei più pesanti (elio-3, elio-4) e libera energie intorno alle decine di MeV, con una maggiore efficienza di conversione della massa in energia ( in base all’equazione E = mc2) rispetto alle reazioni di fissione. Anche se la fusione, a differenza della fissione, non produce scorie, bisogna considerare tuttavia gli elevati flussi di neutroni veloci che si generano con l’esplosione e che contaminano l’ambiente attraverso gli isotopi radioattivi a lunga vita media (radioattività indotta)che si formano per cattura di neutroni da parte dei nuclei della materia investita dall'onda d'urto.
Ringrazio il gentile visitatore per il suggerimento relativo al miglioramento della visualizzazione della pagina delle risposte e per i complimenti per peoplephysics.
Il polinomio minimo di una forma canonica di Jordan relativa alla matrice quadrata A è il polinomio di minimo grado p(x) normalizzato (cioè con coefficiente 1 per il termine di grado più elevato), tale che sia p(A) = det(xI - A) = 0.
E’ un polinomio irriducibile, in quanto qualsiasi altro polinomio g(x) non nullo e per cui sia
g(A) = 0 , è multiplo di p(x).
La molteplicità di una radice a di p(x) (a è un autovalore di A ed è anche una radice del polinomio caratteristico di A) coincide con la dimensione del massimo blocco di Jordan corrispondente ad a.
riferimenti web:http://www.dmmm.uniroma1.it/~accascina (geoalgin - dispense - 8)
Una stampante laser funziona analogamente ad una fotocopiatrice, sfruttando le forze elettrostatiche.
Durante la fase di scansione l’immagine elettrostatica dell’originale si forma proiettando, riga per riga, su un tamburo fotosensibile caricato di elettricità statica, un raggio di luce laser la cui intensità è modulata per riflessione, punto per punto,da parte dei chiaroscuri dei caratteri e delle immagini.
Poichè in corrispondenza delle zone chiare del foglio si determinano sulla superficie del tamburo perdite di carica , per effetto fotoelettrico, direttamente proporzionali all’intensità del raggio di luce riflesso durante la scansione,la polvere del toner, attratta per induzione elettrostatica dal tamburo, si deposita sulla superficie di questo con uno spessore direttamente proporzionale alla carica elettrica residua, quindi in misura maggiore sulle zone scure.
Si genera così un’immagine positiva (in rilievo), che nella fase di stampa aderisce elettrostaticamente, a caldo, al foglio di carta posto a contatto con il tamburo, riproducendo i chiaroscuri dell’originale.
La risposta sui bosoni della forza elettrodebole è stata interpretata correttamente. Occorrono infatti
energie superiori ai 100 GeV , energia caratteristica dell’unificazione elettrodebole, per evidenziarli
sperimentalmente come particelle reali. Alle basse energie invece, essendo rotta la simmetria, i bosoni vettori intermedi W+, W- e Z° si comportano come particelle virtuali, propagando cioè la forza debole, ma senza poter essere rivelati sperimentalmente, poichè la loro massa è talmente grande, tra circa 80 volte (W+ e W-) e 90 volte (Z°) la massa del protone, che il tempo di volo da un quark down ad un quark up, e viceversa, durante la trasformazione di un neutrone (up-down-down) in un protone (up-up-down), deve essere estremamente piccolo per non violare il principio d’indeterminazione di Heisenberg , che impone, in questo caso particolare, che la durata di un trasferimento di massa-energia tra due particelle sia inversamente proporzionale alla massa-energia scambiata.
In altri termini il decadimento procede come se la natura permettesse la violazione del principio di conservazione della massa-energia per un tempo tanto minore quanto maggiore è la massa del bosone scambiato.
Per esempio, quando un nucleo radioattivo decade, a causa delle forza debole, in un nucleo più stabile emettendo un elettrone ed un neutrino, uno dei due quark down [con carica elettrica
(-1/3) e] che compongono assieme ad un quark up [con carica elettrica (2/3)e] un neutrone (n) del nucleo radioattivo, si trasforma in un quark up dando origine ad un protone (p) ed emettendo un bosone virtuale W- (con carica – e), che a sua volta si trasforma immediatamente in un elettrone ed in un neutrino, entrambi osservabili sperimentalmente:
( -1/3 = 2/3 – 1 per la conservazione della carica elettrica) ;
d --> u + W- ;
W- --> e- + n;
n --> p + e- + n.
Per quanto riguarda gli atomi con nucleo avente numero di massa pari, bisogna considerare che
la condensazione di Bose-Einstein dell’elio-4 superfluido avviene perchè l’elio-4 ha una configurazione elettronica particolare, corrispondente ad un orbitale comprendente due elettroni con spin opposti, il che determina uno spin atomico totale nullo (spin dei 2 elettroni + spin dei 2 protoni e dei 2 neutroni), nullo.
Nell’ossigeno-16 invece , pur essendo A pari, l’orbitale elettronico più esterno è incompleto (4 elettroni invece di 6), il che impedisce che lo spin atomico totale sia pari
e che gli atomi di ossigeno-16 si comportino come bosoni.
La superfluidità dell’elio costituisce un caso singolare.
Ringrazio anzitutto il gentile visitatore per il gradimento manifestato per peoplephysics e ricambio cordiali saluti.
L’asteroide 2000BF19 è stato scoperto il 28 gennaio 2000 da Jim Scotty, dell’Università
dell’Arizona.
L’orbita dell’ asteroide, che ha un diametro intorno a 800 metri, è stata calcolata da Andrea Milani, un ricercatore del dipartimento di matematica dell’Università di Pisa, che ha escluso il pericolo di collisione con il nostro pianeta, almeno fino al 2050, anno fino al quale sono stati effettuati i calcoli.
Purtroppo il problema dell’impatto di asteroidi con la Terra è tutt’altro che trascurabile, anche se
ci conforta il fatto che, in generale, il pericolo di collisione venga valutato, in termini di probabilità, in tempi molto lunghi rispetto alla vita media umana. Ma si tratta sempre di calcoli probabilistici,non deterministici, che non escludono la sia pur rarissima eventualità che un impatto possa verificarsi in qualsiasi momento.
Si tenga presente infatti che, al di là di ogni previsione astronomica, esiste il problema dell’estrema
complessità delle orbite descritte dai corpi celesti piccoli come gli asteroidi, che sono soggetti a perturbazioni gravitazionali i cui effetti evolvono nel tempo in modo aleatorio. Infatti le piccolissime e lente deviazioni orbitali causate da tutti i corpi del sistema solare, che cambiano continuamente posizione in base alle leggi della meccanica celeste (leggi della dinamica newtoniana e teoria della relatività generale einsteiniana) tendono ad interferire tra loro in tempi lunghi, con modalità estremamente difficili da calcolare, anche con i supercomputer,dato l’enorme numero di variabili dinamiche (posizioni e velocità) di cui tenere conto, ed in un momento qualsiasi un
asteroide , per un effetto cumulativo tra le numerosissime perturbazioni interferenti, si può allontanare dalla sua orbita e descriverne una molto diversa tendente a sfiorare la Terra a distanze intorno al milione di chilometri, che a noi sembrano abbastanza grandi, ma che invece sono molto pericolose se si pensa che la distanza media Terra-Sole è di 150 milioni di chilometri.
L’unica cosa fattibile è il continuo monitoraggio dello spazio, da parte di tutti i telescopi, terrestri ed orbitali, per il rilevamento di oggetti celesti pericolosi, in tempo utile per tentare di modificarne l’orbita facendoli collidere con missili lanciati lungo traiettorie calcolate con estrema accuratezza, fino a riuscire a variare in modo significativo l’energia totale (cinetica + potenziale gravitazionale)
del corpo in rotta di collisione con il nostro pianeta. Ma, al momento, si tratta soltanto di idee:
la probabilità di collisione, anche se estremamente piccola e diluita in tempi molto lunghi, esiste
e non è zero.
Il congelamento superficiale dei mari dipende dalla particolare simmetria dei legami (ponti) a idrogeno che si formano tra molecole d’acqua contigue quando si verifica il congelamento.
Infatti la minore densità del ghiaccio rispetto all'acqua, determinata da tale simmetria, fa sì che esso galleggi, il che implica il congelamento dei mari soltanto in prossimità della superficie. In particolare, se si considera che la salinità del mare, il cui valor medio è intorno a 35 grammi per litro, determina un abbassamento del punto di congelamento (direttamente proporzionale alla concentrazione di sali disciolti) di circa 2 °C, si comprende che al diminuire della temperatura dell’aria, quando l’acqua inizia a congelare, il ghiaccio puro (senza sali) che si separa forma uno strato superficiale sempre più spesso, causando un continuo aumento della concentrazione di sale nell’acqua immediatamente sottostante ed una conseguente, progressiva diminuzione della temperatura dell’acqua in superficie fino a – 2 °C.
Il fatto che il congelamento si limiti alla superficie dipende dal fatto che il ghiaccio che si forma, essendo caratterizzato da una piccolissima conducibilità termica, isola termicamente l’acqua sottostante dall’aria sovrastante.
Di conseguenza, mentre la temperatura dell’aria continua e decrescere, l’acqua sottostante lo strato di ghiaccio, raggiunte le condizioni di equilibrio termico attraverso moti convettivi (di rimescolamento) determinati da differenze di densità associate a differenze di temperatura, si mantiene ad una temperatura non inferiore ai 4 °C , temperatura in corrispondenza della quale possiede la massima densità.
Se si considera infatti che la densità dell'acqua decresce per temperature inferiori a 4 °C, si comprende come gli strati d'acqua con temperature minori di 4 °C, essendo meno densi, tendano sempre ad andare verso l'alto, a contatto con lo strato di ghiaccio, mentri quelli con temperatura di 4°C, essendo più densi,tendono a localizzarsi al di sotto degli strati più freddi, impedendo che il congelamento si estenda a tutta la massa liquida.
Per quanto concerne la velocità di congelamento, bisogna considerare che essa è inversamente
proporzionale alla massa di liquido che congela. Infatti la quantità di calore Q che viene ceduta, alla temperatura costante di congelamento (solidificazione) , da una massa M di liquido si calcola moltiplicando la massa M per il calore di solidificazione cs (calore ceduto dall’unità di massa di liquido che congela) : Q = M cs.
E poichè l’equazione che descrive la conduzione del calore stabilisce che il flusso termico (calorie al secondo = Q/ tempo tr di raffreddamento) trasferito per conduzione attraverso uno strato di conduttore termico di area S e spessore d, sottoposto ad una differenza di temperatura DT è direttamente proporzionale all’area S che è interessata dal trasferimento termico ed alla differenza di temperatura ed inversamente proporzionale allo spessore d, si deduce che il raffreddamento per conduzione dall’acqua che congela all’aria circostante è tanto più rapido quanto maggiore è la differenza tra la temperatura iniziale dell’acqua che congela e la temperatura ambiente:
Q/tr = K S DT/d, dove K è la conducibilità termica dell’acqua.
Il tempo di raffreddamento tr è pari a
Qd/(KSDT) = M csd/(KSDT)= rSd csd/(KSDT) = rd2 cs/(KDT), dove Sd e r sono rispettivamente il volume e la densità dello strato di liquido che congela.
In definitiva il tempo di congelamento è tanto minore, per un dato liquido ed a parità di temperatura ambiente, quanto minore è lo spessore dello strato di liquido che congela. Ciò significa
che, considerati due contenitori di liquido aventi basi di uguale superficie, congela prima l’acqua
del contenitore meno profondo. Inoltre, poichè il calore di solidificazione è uguale a quello di fusione, anche il tempo di solidificazione è uguale a quello di fusione.
Per quanto concerne l’esempio del secchio d’acqua che congela prima di arrivare al suolo, bisogna
considerare che è determinante la quota dalla quale si fa cadere il secchio, che deve essere sufficiente a far sì che il tempo di caduta sia sufficientemente maggiore di quello di congelamento, che in questo caso verrebbe sensibilmente ridotto dall’ulteriore abbassamento di temperatura prodotto dal flusso d’aria fredda che investe il secchio in caduta libera.
Una stella è un corpo incandescente che emette energia elettromagnetica come qualsiasi sostanza
liquida o solida la cui temperatura sia maggiore dello zero assoluto (0 ° K = - 273,2 °C).
La radiazione termica emessa è a spettro continuo, con lunghezze d’onda comprese
tra quelle della radiazione ultravioletta (minori di 400 nanometri (nm) ->luce violetta) e quelle della radiazione infrarossa (maggiori di 800 nanometri -> luce rossa), comprese ovviamente le lunghezze
d’onda della radiazione visibile (maggiori di 400 nanometri e minori di 800 nanometri).
La classificazione delle stelle si basa sul tipo di spettro emesso, che è simile, in prima approssimazione, a quello emesso da un radiatore ideale (corpo nero) avente una temperatura uguale a quella della superficie della stella.
In particolare, in base alle leggi che descrivono l’emissione del corpo nero , scoperte da Stefan, Wien e Planck, si può determinare la temperatura T (in °K) della superficie di una stella rilevandone lo spettro mediante spettrofotometri che consentono di misurare l’intensità della radiazione emessa
al variare della lunghezza d’onda. E poichè, in base alla “legge dello spostamento” di Wien lmaxT = 0,29 cm °K = 2900000 nm °K, si può determinare la lunghezza d’onda lmax in corrispondenza della quale l’intensità è massima, si può calcolare la temperatura T = 2900000/lmax.
Per esempio, nel caso del Sole, per il quale il massimo dell’intensità si verifica a 500 nm (luce gialla), si ottiene T = 2900000/500 = 5800 °K = (5800 –273,2) °C = 5526,8 °C.
Questo è il motivo per cui il Sole, pur emettendo radiazione termica a spettro continuo in tutte le lunghezze d’onda dall’infrarosso al visibile all’ultravioletto, viene classificato come stella gialla.
La temperatura superficiale della stella così determinata , prende il nome di temperatura di colore.
Ed è questa la ragione per cui sui tubi fluorescenti del tipo sunlight o tageslicht (a luce solare) viene
indicata una temperatura di colore compresa tra 5600 °K e 5800 °K, per significare che lo spettro della luce emessa è simile a quello della luce solare.
Il discorso fatto per il Sole vale per tutte le altre stelle, la cui luce viene filtrata dall’atmosfera terrestre, i cui gas (azoto, ossigeno, anidride carbonica ecc...) assorbono determinate lunghezze d’onda.
Inoltre, al crescere della temperatura della superficie stellare,il massimo dell’intensità si sposta verso le lunghezze d’onda più piccole.. In particolare per Sirio il massimo dell’intensità cade nell’ultravioletto (lmax = 290 nm (T = 10000 °K) , e così anche per la Stella Polare lmax=350 nm (T = 8285 °K).
Il colore di una stella varia pertanto dal rosso delle supergiganti Antares e Betelgeuse , con T = 3200 °K, e della gigante rossa Aldebaran , con T = 3700 °K, all’azzurro della supergigante Rigel, con T = 13000 °K.
Per quanto riguarda il colore azzurro dell’atmosfera, bisogna considerare che l’intensità della
luce diffusa dalle molecole è inversamente proporzionale alla quarta potenza della lunghezza d’onda, il che equivale a dire che le radiazioni più intensamente diffuse son quelle di piccola lunghezza d’ onda (luce azzurra). Il fatto che l’aria appaia incolore per piccole distanze dipende dal fatto che quando guardiamo verso l’infinito i nostri occhi ricevono un flusso luminoso diffuso che è direttamente proporzionale al numero delle molecole che si trovano sulla nostra linea di vista e quindi allo spessore dello strato d’aria antistante. Per piccole distanze è piccolo il numero delle molecole che si trovano sulla nostra linea di vista ed il fenomeno non si verifica. Un fenomeno analogo si verifica per l’acqua marina, che per piccoli spessori appare incolore, mentre è intensamente azzurra se si osserva la superficie del mare.
Considerato l’annullamento (Fris = Sv – Fb = 1000 –1000 = 0) della risultante Fris delle forze Sv(spinta del vento) e Fb (resistenza idrodinamica) agenti sulla barca, si ottiene la condizione di equilibrio dinamico (accelerazione nulla e moto di bolina a 45 ° con velocità costante).
In particolare la forza di avanzamento Fav = 707 Nw equilibra la resistenza idrodinamica R = 707 Nw che si oppone al moto, mentre la forza di scarroccio Fsc = 707 Nw, che fa sbandare la barca verso Nord, è equilibrata dalla portanza idrodinamica P .
Il funzionamento del turbocompressore di un propulsore Diesel sovralimentato è analogo a quello
delle turbine a gas degli aerei a reazione. Infatti ciascuno dei motori (turboreattori) di un aereo a reazione è costituito essenzialmente da due giranti (ruote munite di palette) calettate sullo stesso albero motore: una delle due giranti si trova in corrispondenza della presa d’aria del turboreattore
e funge da compressore , al fine di aumentare notevolmente la pressione dell’aria aspirata, prima dell’immissione nelle camere di combustione del kerosene.La girante posteriore, posta in corrispondenza dell’ugello di scarico dei gas caldissimi uscenti dalle camere di combustione, funge
da turbina per il recupero di una parte dell’energia fluidodinamica, da utilizzare per far girare il compressore.
In un turbocompressore per auto le palette della turbina,investite dai gas di scarico dei cilindri , consentono di recuperarne gran parte dell’energia fluidodinamica , che viene
utilizzata per azionare il compressore calettato sullo stesso albero della turbina ( o delle turbine, se si tratta di turbocompressori con 2 o più turbine). In tal modo l’aria uscente dal filtro viene
aspirata e compressa fino a pressioni intorno a 1,4 .. 1,6 bar, e dopo essere stata raffreddata nello stadio intercooler per aumentarne la densità, viene immessa nei cilindri, dove viene successivamente compressa secondo il rapporto di compressione caratteristico del motore.
Con la sovralimentazione il rendimento e la coppia del motore aumentano notevolmente, anche ai bassi regimi, anche grazie a particolari sistemi d’iniezione del gasolio (Common Rail), che consentono di introdurre il carburante in più riprese, durante la combustione, attraverso 2 o 3 valvole azionate dalla centralina elettronica. Nei propulsori più recenti vengono utilizzate turbine VGT (a geometria variabile), nelle quali la centralina fa variare l’apertura dei condotti d’immissione dei gas di scarico, in funzione dei giri al minuto, al fine di ottenere una curva di coppia praticamente piatta, anche ai bassi regimi:la sezione dei condotti d’immissione viene ridotta ai bassi regimi per aumentare la pressione ed aumentata agli alti regimi per limitarne il valore massimo. In propulsori FIAT più recenti la turbina, invece di essere accoppiata meccanicamente alla girante del compressore, aziona un generatore elettrico che alimenta il motore del compressore; in tal modo si può ottimizzare più agevolmente il funzionamento del sistema, rendendo altresì disponibile la potenza elettrica rimanente per alimentare il climatizzatore e gli altri utilizzatori elettrici.
L’impiego del kerosene come combustibile nei motori a reazione è motivato dai vantaggi
della convenienza economica e del tempo di immagazzinamento (stoccaggio) più lungo rispetto ad altri combustili.
L’espressione “motori a reazione” è connessa al fatto che ciascun turboreattore (turbina a gas) espelle dall’ugello un flusso di gas combusti caldissimi, dotati di velocità molto grandi (alcune migliaia di metri/secondo) , che determinano per il terzo principio della dinamica (ad ogni azione corrisponde una reazione uguale e contraria) una forza di spinta (reazione) uguale e contraria alla risultante delle forze di pressione che la girante della turbina imprime ai gas espulsi.
In effetti, anche un aereo ad elica ed un elicottero potrebbero essere definiti velivoli a reazione, in quanto anche il loro funzionamento si basa sull’emissione di un flusso d’aria diretto nel verso opposto al moto (orizzontale per un aereo e verticale per un elicottero che si sollevi in volo),e che determina una forza di spinta uguale e contraria agente sul velivoo. Ma per convenzione l’espressione “motore a reazione” viene riservata agli aerei che utilizzano turboreattori.
Si può dimostrare che la diffrazione di una radiazione luminosa con lunghezza d’onda l attraverso una fenditura di larghezza d, praticata in uno schermo opaco, produce frange luminose,separate da zone di buio e disposte simmetricamente a sinistra ed a destra della fenditura, che sono tanto più distanziate tra loro quanto maggiore è il rapporto l/d, secondo la legge: a = [(2n+1)/2] l/d, dove a è l’angolo tra la direzione di propagazione di un raggio diffratto e quella di propagazione della luce che colpisce perpendicolarmente lo schermo in corrispondenza della fenditore ed n = 0,1,2,3 .... è l’ordine del raggio diffratto. In altri termini le onde sferiche elementari che si generano per il principio di Huyghens interferiscono tra loro in modo costruttivo (sommandosi e generando massimi di luce) soltanto nelle direzioni fornite dalla formula, mentre interferiscono distruttivamente (frange oscure = minimi di luce) nelle direzioni fornite dalla formula a = (n/2)l/d. La diffrazione si verifica sempre, indipendentemente dalla larghezza d della fenditura,ma è molto evidente, cioè con massimi di luce molto distanziati angolarmente, soltanto se d è minore o uguale a l, altrimenti le frange di diffrazione sono così ravvicinate da dare l’impressione, data la piccolissima deviazione angolare, che il raggio non subisca la diffrazione.Lo stesso discorso vale anche per i fenomeni citati: la diffrazione si verifica lo stesso , ma con deviazioni angolari molto più piccole di quelle prodotte da fenditure di larghezza comparabile con la lunghezza d’onda.
I think the following idea can be considered for a theoretical science fair project:
“What effects does the earth magnetic field have on the earth atmosfere and on all the living creatures ?”
I am referring to the protective action of the earth magnetic field from the particle radiations emitted by the Sun.
The flux of the particles constituting the solar wind (high energy protons and electrons)
interacts with the Earth magnetic field that, by means of Lorentz's force, makes them
describe spiral trajectories along the lines of force directed from the magnetic North
pole toward the South one.
Therefore electrons and protons are trapped by the Earth magnetic field giving rise to
two radioactive zones (the Van Allen zones), that were discovered in 1958 by means of the
first USA artificial satellite of the "Explorer" series.
The Van Allen zones give rise to a natural biological screen that attenuates strongly the
flux of the solar ionizing particles investing the terrestrial surface.
I mention besides:
- the interaction of the particles of the solar wind with the terrestrial magnetic field is accountable for the polar auroras that are observed in coincidence with notable periodical increases of the solar activity (sunspots and magnetic storms ).
- the orientation capabilities of birds during their migrations by means of the earth magnetic field.
References on the web:
http://www.super-science-fair-projects.com/index.html
Good luck !
Propongo la seguente idea per lo sviluppo di un progetto teorico: “Quali sono gli effetti del campo magnetico terrestre sull’atmosfera e sugli esseri viventi ?
Mi riferisco all’azione protettiva del campo magnetico terrestre dalle particelle emesse dal Sole.
Il flusso delle particelle del vento solare (protoni ed elettroni di alta energia) interagisce con
il campo magnetico terrestre, che per effetto della forza di Lorentz le costringe a
descrivere traiettorie a spirale lungo le linee di forza dirette dal polo magnetico Nord al
polo magnetico Sud.
Pertanto elettroni e protoni vengono intrappolati dal campo magnetico terrestre dando
origine alle due fasce radioattive di Van Allen, rilevate nel 1958 dai primi satelliti
artificiali statunitensi (serie Explorer).
In tal modo si costituisce uno schermo
biologico naturale che attenua fortemente il flusso delle particelle ionizzanti solari che
investono la superficie terrestre.
Si considerino inoltre:
-L’interazione delle particelle del vento solare con il campo magnetico terrestre per quanto riguarda
le aurore polari che si verificano in coincidenza con notevoli intensificazioni periodiche dell’attività solare (macchie solari e tempeste magnetiche).
-La capacità di orientamento degli uccelli migratori mediante il campo magnetico terrestre.
Riferimenti web:
http://www.super-science-fair-projects.com/index.html
Auguri !
Per comprendere il funzionamento di un aereo a reazione possiamo fare riferimento al rinculo di un’arma da fuoco, in particolare di una mitragliatrice. Su una mitragliatrice che lancia n proiettili in t secondi, ciascuno dotato di massa m e di velocità V, agisce una forza di rinculo (reazione) pari a (n/t)mV, che è uguale e contraria alla somma vettoriale (azione) delle forze di azione esercitate dall’arma (per effetto dell’espansione dei gas prodotti dalla carica esplosiva) sui singoli proiettili. Essendo le forze di azione e reazione uguali e contrarie, mentre n proiettili acquistano in t secondi la quantità di moto totale nmV, la mitragliatrice, di massa M , acquista la velocità v e la quantità di moto Mv = - nmV,uguale e contraria alla quantità di moto totale dei proiettili.
Un fenomeno analogo si verifica durante il volo di un aereo a reazione, a prescindere dal fatto che
i gas espulsi non costituiscono un materiale compatto, cioè un corpo rigido: Le pareti delle camere di combustione dei turboreattori esercitano infatti forze di azione (dovute alla pressione) sulle singole molecole dei gas espulsi (migliaia di miliardi di miliardi per centimetro cubo) con velocità V.
A loro volta le singole molecole reagiscono sulle pareti delle camere di combustione con forze di reazione uguali e contrarie, la cui risultante costituisce la forza di spinta F = MgV/t, essendo Mg la massa totale delle molecole di gas espulse in t secondi
(Mg/t è flusso di massa dei gas espulsi, in kg/secondo) .
Per effetto di questa forza l’aereo acquista una quantità di moto Mav uguale e contraria alla somma vettoriale MgV delle quantità di moto mV delle singole molecole, essendo Ma la massa dell’aereo e v la sua velocità.
La forza di spinta agente sull’aereo si deve unicamente alla diminuzione di massa di questo per unità di tempo, pari alla massa Mg/t del kerosene bruciato per unità di tempo, ed alla velocità V di espulsione dei gas, in base alla seconda ed alla terza legge della dinamica newtoniana.
In base allo stesso principio funzionano i motori a ioni di alcune sonde interplanetarie, la cui tecnologia è ancora in fase sperimentale: la loro debole forza di spinta si ottiene dalla forza di reazione generata da un flusso di ioni accelerati ad alte velocità da una differenza di potenziale elettrico generata da pannelli fotovoltaici.
Per comprendere l’esperimento di Herschel ed in generale per quale ragione le radiazioni infrarosse riscaldino maggiormente rispetto alle radiazioni di frequenza maggiore, bisogna considerare gli atomi come tanti oscillatori armonici, dotati di massa M (inerzia) e soggetti a forze di tipo elastico.
Essi, oscillando per effetto del campo elettrico dell’onda elettromagnetica che li investe, convertono l’energia del campo elettrico in energia cinetica e quindi in calore (per effetto Joule).
E poichè applicando la seconda legge della dinamica ad un oscillatore armonico dotato di massa M e di costante elastica K, si dimostra che la sua frequenza naturale di oscillazione è direttamente proporzionale alla radice quadrata del rapporto K/M, si comprende come le frequenze naturali degli oscillatori associati agli atomi, molto più pesanti degli elettroni, siano così basse da rientrare nella banda delle radiazioni infrarosse, per le quali gli atomi evidenziano un grande potere di assorbimento, molto maggiore di quello evidenziato nei confronti delle radiazioni visibili, aventi frequenze maggiori. Infatti, al crescere della frequenza della radiazione elettromagnetica, l’ampiezza delle oscillazioni armoniche degli atomi diventa sempre più piccola, ed al limite quasi nulla per i raggi ultravioletti, X e gamma , le cui frequenze sono molto maggiori di quelle delle radiazioni infrarosse e visibili. Infatti l’azione dei raggi ultravioletti, X e gamma si manifesta principalmente attraverso il loro potere ionizzante (effetti fotoelettrico e Compton) , che determina l’estrazione di elettroni e, ad alte energie, la creazione di coppie elettrone-positrone.
Gent.mo Francesco,
Ringraziandola per il suo gentile pensiero, ricambio cordiali auguri di buon Natale e felice anno nuovo.
Colgo l’occasione per informarla che il mio libro di divulgazione scientifica è acquistabile soltanto via internet dal sito www.librishop.it (Libreria LEDI –International Bookseller - Milano).
Gent.mo Alessio,
Ricambio cordialissimi auguri di buon Natale e felice anno nuovo e ti ringrazio dal profondo del cuore per le gentilissime espressioni con le quali esprimi il tuo eccezionale ed encomiabile amore per le questioni scientifiche, nel dolce ricordo degli anni trascorsi al "Verona Trento". Tra le varie funzioni connesse alla professione docente è fondamentale quella di suscitare nei giovani amore per le discipline oggetto di studio, stimolare la curiosità per le questioni scientifiche fondamentali e catalizzare il delicato processo di apprendimento con esempi attraenti, atti a stimolare al tempo stesso i dubbi e l'impegno costante e fruttuoso nel ricercare la verità scientifica che li fa svanire. Il resto del lavoro lo fa l'allievo
rendendosi progressivamente autonomo nell'arduo compito di conseguire risultati
scientificamente attendibili. Secondo me un docente dovrebbe svolgere una funzione analoga a quella di un aereo che trascina un aliante fino al momento in cui questo sia in grado di librarsi stabilmente nell'aria, sfruttandone con efficacia le correnti ascensionali che incrementano la portanza.
Le lampade utilizzate nei fari dei veicoli possono essere di tre tipi: ad incandescenza (tradizionali ed alogene) ed a scarica gassosa (allo xenon).
Il funzionamento delle lampade ad incandescenza tradizionali si basa su un filamento di tungsteno (metallo che fonde a 3370 °C), portato all’incandescenza ad una temperatura intorno a 2800 °C grazie all’ effetto Joule (effetto termico) prodotto dal passaggio della corrente elettrica.
Il filamento è racchiuso in un’ampolla di vetro contenente gas argon a pressione molto bassa, per
garantire un’adeguata vita media della lampada (intorno a 1000 ore), minimizzando la velocità di evaporazione del tungsteno e la conseguente rottura del filamento.
L’efficienza luminosa (rapporto tra flusso luminoso e potenza elettrica assorbita) delle lampade ad incandescenza è bassa (15 lumen/watt) , essendo modesta (intorno al 10%) la percentuale della potenza elettrica convertita in energia luminosa. Essendo inoltre la temperatura assoluta del filamento (2800 + 273 = 3073 °K, gradi Kelvin) minore di quella della superficie del Sole (5800 °K), la luce emessa ha una notevole componente giallastra. Infatti la temperatura di colore (temperatura del corpo nero, radiatore ideale che genera uno spettro luminoso simile a quello della sorgente luminosa) non è sufficientemente elevata perchè lo spettro emesso sia simile a quello della luce diurna.
Un sensibile miglioramento dell’efficienza luminosa si ottiene con le lampade alogene, il cui funzionamento si basa sull’incandescenza di un filamento di tungsteno racchiuso in un bulbo di vetro contenente un gas alogeno (generalmente iodio) a bassa pressione. Durante il funzionamento
della lampada , per l’elevata temperatura del filamento (superiore ai 3000 °K) si forma un composto
di tungsteno e gas alogeno [alogenuro (ioduro) di tungsteno] che consente, in condizioni di equilibrio chimico, di depositare sul filamento, per decomposizione dell’alogenuro, uno strato di tungsteno di spessore quasi uguale a quello del tungsteno che evapora per effetto dell’elevata temperatura formando l’alogenuro. In tal modo, non soltanto si allunga la vita media della lampada (2000 ore) grazie alla piccolissima velocità di evaporazione del filamento, ma si ottiene una temperatura di colore più elevata di quella delle comuni lampade ad incandescenza, il che consente di spostare il massimo di emissione della lampada verso le lunghezze d’onda della regione blu dello spettro visibile, ottenendo una notevole riduzione della componente giallasta. Un ulteriore miglioramento dello spettro si ottiene inserendo un filtro per l'eliminazione delle componenti giallastre della luce emessa (lampade Cool Blu).
Le lampade allo xenon si basano su un principio del tutto diverso: l’emissione luminosa si ottiene innescando una scarica elettrica nel gas xenon con impulsi di alta tensione generati da un alimentatore elettronico. Queste lampade, generando un flusso luminoso con una temperatura di colore intorno a 4000 °K, consentono di ottenere una migliore visibilità assorbendo una potenza elettrica minore (35 W rispetto ai 55 W di una lampada alogena). Purtroppo sono ancora molto costose, in quanto richiedono un alimentatore elettronico per la generazione delle alte tensioni
necessarie al loro funzionamento.
E’ importante anzitutto considerare che la legge di attrazione gravitazionale di Newton tra due corpi
caratterizzati dalle masse M1 ed M2 ed assimilabili a due punti materiali separati dalla distanza R, è espressa dalla formula F = G M1 M2/R2, dove G è la costante di attrazione universale.
Questa legge afferma, senza possibilità di equivoco, che l’intensità F della forza gravitazionale è direttamente proporzionale al prodotto delle masse ed inversamente proporzionale al quadrato della loro distanza.
Quando invece si considerano corpi estesi come i pianeti ed il Sole, si dimostra che mentre essi, considerati come punti materiali, cioè trascurando le loro dimensioni rispetto alle mutue distanze,
generano e sono soggetti a forze gravitazionali le cui intensità sono sempre crescenti al decrescere delle mutue distanze, nei punti interni alle superfici approssimativamente sferiche che ne delimitano i volumi, generano campi gravitazionali (forze gravitazionali agenti su corpi di massa unitaria) di
intensità decrescente con la distanza dal centro. Per esempio, la Terra , avente un raggio medio di 6400 km, genera un campo gravitazionale che è nullo al centro, direttamente proporzionale alla distanza dal centro, massimo alla superficie (R = 6400 km) ed inversamente proporzionale alla distanza dal centro nei punti esterni ad essa. Questo andamento è, dal punto di vista matematico, una diretta conseguenza della dipendenza dell’attrazione gravitazionale dall’inverso del quadrato della distanza R tra il punto in cui si calcola il campo ed il centro della Terra. Infatti Newton, applicando i metodi del calcolo infinitesimale da lui stesso inventato, riuscì a dimostrare che una
sfera di materia genera nello spazio esterno ad essa, ad una distanza R dal suo centro, un campo gravitazionale con intensità uguale a quella del campo gravitazionale che verrebbe generato se tutta la massa fosse concentrata nel centro, e che invece, nei punti interni ad essa genera un campo gravitazionale direttamente proporzionale alla distanza dal centro. Quest’ultima caratteristica si può comprendere, intuitivamente, considerando che le forze gravitazionali agenti in un punto interno
alla sfera si ottengono sommando infinite forze infinitesime e discordi, generate a coppie da piccolissime porzioni di materia situate da bande opposte rispetto al punto considerato. Il fatto che tutte queste forze infinitesime dipendano esattamente dall’inverso del quadrato della distanza, fa sì
che la loro somma vettoriale si annulli al centro e cresca linearmente con la distanza dal centro, fino a raggiungere il valore massimo nei punti della superficie sferica. Un’altra condizione per la quale si applica lo stesso metodo di calcolo si verifica quando nello spazio intergalattico collidono due nubi di idrogeno o di polvere cosmica compenetrandosi reciprocamente fino a fondersi in un’unica nube per effetto delle reciproche forze gravitazionali: finchè i baricentri delle due distribuzioni di materia sono molto distanti, la risultante delle forze gravitazionali cresce al decrescere della distanza a mano a mano che le nubi si avvicinano, fino a raggiungere il massimo valore e decrescere successivamente a mano a mano che la compenetrazione progredisce, fino alla formazione di un’unica nube.
1) Bisogna tenere presente che la traiettoria descritta da un corpo celeste A (per esempio un meteorite o un asteroide) di massa m soggetto al campo gravitazionale generato da un altro corpo celeste, B , che supponiamo, per semplicità, abbia una massa , M, molto maggiore di A, si ottiene scrivendo l’equazione differenziale vettoriale che esprime la seconda legge di Newton
md2S(t)/dt2 = F = (GmM/R2)vers R, dove S(t) è il vettore che individua la posizione di A rispetto a B in funzione del tempo t , nel sistema di riferimento di B, ed ha per componenti le coordinate cartesiane x(t), y(t) e z(t) di A rispetto a B, R è la distanza tra i corpi A e B e vers R è il vettore di modulo unitario che fornisce la direzione ed il verso (da A a B) della forza gravitazionale che agisce su A .
Ricavando con i metodi dell’analisi matematica le soluzioni x(t), y(t), z(t) (cioè gli integrali generali) delle tre equazioni differenziali scalari corrispondenti all’equazione differenziale vettoriale precedente, si verifica che ciascuna soluzione dipende da 2 costanti arbitrarie,
che sono ben determinate se si conoscono le cosiddette condizioni iniziali, cioè le coordinate iniziali (all’istante t = 0) x(0) ,y(0) ,z(0) del corpo A e le componenti iniziali della sua velocità [derivate di x(t), y(t),z(t) calcolate per t = 0] ,cioè le componenti della velocità di A all’istante t = 0 in cui esso inizia ad essere soggetto, per R molto grande, al campo gravitazionale di B (che matematicamente si estende a distanza infinita). La traiettoria descritta da A è dal punto di vista geometrico una conica (ellisse, iperbole o parabola), le cui caratteristiche dipendono proprio dalle sei costanti iniziali:le 3 coordinate e le 3 componenti del vettore velocità.
Nel caso dei meteoriti soggetti al campo gravitazionale terrestre, se la minima distanza Rmin alla quale uno qualsiasi di essi incrocia l’orbita terrestre è molto grande (in pratica molto maggiore di un milione di km, che è una distanza pericolosa) e se la loro velocità ha una direzione diversa da quella di collisione frontale ed è nel contempo maggiore della velocità di fuga Vf = SQR (2GM/Rmin) dalla Terra, velocità corrispondente all’orbita parabolica (aperta), l’impatto non può aver luogo, sia perchè la traiettoria è diversa da quella di collisione frontale , sia perchè l’energia totale del meteorite [somma dell’energia cinetica (positiva) e dell’energia potenziale gravitazionale (negativa)] è positiva o nulla,il che significa che il meteorite e la Terra non possono costituire un sistema legato.
Se invece la direzione della velocità del meteorite coincide con quella di collisione frontale, oppure
se la velocità, pur avendo una direzione diversa da quella di collisione frontale, non è sufficientemente elevata da far sì che l’energia totale sia positiva o nulla, la traiettoria descritta è ellittica e, se, in particolare, la direzione della velocità iniziale è tale che l’ellisse si riduca ad un arco di ellisse intersecante la superficie terrestre, l’impatto è inevitabile. E’ evidente come l’impatto
dei meteoriti sulla Terra dipenda, in modo aleatorio, dalla direzione e dal verso con cui essi entrano
nella zona d’influenza del campo gravitazionale terrestre.
In altri termini, eccettuato il caso di collisione frontale, l’impatto dei meteoriti è tanto meno probabile, a parità di minima distanza di avvicinamento, quanto più elevata sia la loro velocità iniziale, il che implica che siano più pericolosi quelli provenienti da distanze minori, corrispondenti ad energie potenziali gravitazionali iniziali minori (più negative) , che si convertono durante l’avvicinamento in energie cinetiche minori e quindi in velocità minori, più favorevoli alla cattura da parte del campo gravitazionale terrestre.
Per quanto concerne la calamita, la limatura non viene attratta in blocco da essa, ma volta per volta. Infatti la limatura che aderisce alla calamita costituisce una via preferenziale per la chiusura delle linee di forza del campo magnetico, che in tal modo si indebolisce notevolmente per una sorta di cortocircuito magnetico e non è più in grado di attrarre altra limatura.
2) La forza gravitazionale all’interno della sfera terrestre si ottiene sommando vettorialmente, con i metodi del calcolo infinitesimale (si veda la risposta precedente) le infinite forze attrattive, di intensità infinitesima, generate da tutti gli strati di materia circostanti il punto in cui si calcola il campo gravitazionale. Si può dimostrare in particolare che, grazie alla proporzionalità inversa della forze gravitazionali al quadrato della distanza, al campo gravitazionale in un punto interno alla Terra contribuisce soltanto la materia contenuta nella superficie sferica che passa per il punto, mentre le forze gravitazionali generate dalla materia restante si elidono esattamente. Questa proprietà fa sì che il campo gravitazionale sia nullo al centro della Terra, in quanto la superficie sferica da considerare si riduce ad un punto, e che cresca in modo direttamente proporzionale alla distanza dal centro, fino a raggiungere il massimo valore in corrispondenza della superficie terrestre.
3) L’effetto fionda si basa su particolari traiettorie di lancio delle sonde interplanetarie, calcolate
in modo tale da sfruttare come “motori gravitazionali” i pianeti maggiori, soprattutto Giove.
Se infatti una sonda viene lanciata con una velocità di fuga sufficientemente maggiore di quella
di fuga dalla Terra (circa 40000 km/h), puntandola opportunamente verso Giove in modo tale
che essa passi a grande distanza da esso per sfruttarne la notevole attrazione gravitazionale (non è corretto parlare di spinta) senza esserne catturata (effetto fionda), si ottiene una traiettoria molto lunga (una spirale con uno o più giri) e non ottimizzata dal punto di vista temporale, che consente tuttavia, sfruttando opportune “finestre temporali" di lancio, di “agganciare” il pianeta obiettivo, facendosi catturare al momento opportuno dal suo campo gravitazionale senza precipitare su di esso.
E’ un’accelerazione analoga a quella che la Terra subisce avvicinandosi al perielio (punto di minima distanza dal Sole):la velocità orbitale inizialmente aumenta per l’intensificazione del campo gravitazionale al decrescere della distanza Terra-Sole, per diminuire successivamente allontanandosi dal perielio, dopo aver compiuto il “giro di boa” attorno al Sole.
Nel caso della sonda l’azione di Giove ne curva la traiettoria prima accelerandola durante l'avvicinamento e poi decerelandola durante l'allontanamento, ed in modo analogo agisce Saturno, qualora occorra sfruttarne la forza attrattiva.
Si tratta in sostanza di conoscere e saper sfruttare molto abilmente le complesse regole di questo
particolare bigliardo cosmico, basato sulle ferree leggi della meccanica celeste.
L’effetto termico delle microonde si verifica non soltanto in presenza di molecole d’acqua, i cui dipoli elettrici oscillano sotto l’azione del campo elettrico alla frequenza di risonanza di 2450 MHz, ma anche in presenza di metalli, presenti in piccole quantità in alcuni materiali dielettrici come la maiolica (ceramica smaltata con biossido di stagno SnO2).
L’effetto termico delle microonde che investono un metallo, venendo in parte riflesse ed in parte assorbite, è riconducibile, per quanto riguarda la radiazione assorbita, all’effetto Joule associato al moto degli elettroni di conduzione del metallo, che vengono accelerati e la cui energia
cinetica si trasforma in calore per effetto degli urti contro gli ioni positivi del reticolo cristallino che caratterizza il metallo. E’ un fenomeno analogo al riscaldamento di un conduttore percorso da corrente elettrica continua o alternata, , con la differenza che nel caso delle microonde la frequenza del campo elettrico nel conduttore è molto elevata (2450 MHz invece di 50 Hz, frequenza della corrente alternata di rete).
In particolare i piatti di materiale ceramico si riscaldano sia se sono porosi (non smaltati), a causa dell’umidità assorbita, sia per gli ossidi metallici presenti nello smalto, oltre che per le perdite di energia elettromagnetica nel materiale ceramico(perdite dielettriche).
L’azione termica delle microonde è molto meno evidente sui dipoli elettrici di altre molecole le cui frequenze naturali di oscillazione siano diverse da quella di risonanza di 2450 MHz, per la quale
è stato progettato il magnetron (tubo generatore di microonde) del forno.
E’ come spingere periodicamente un’altalena, con notevole sforzo e scarsa efficacia, con una frequenza molto diversa da quella di oscillazione naturale del pendolo fisico ad essa equivalente.
Il termometro si è frantumato a causa del notevole calore sviluppato per effetto Joule
nel mercurio (buon conduttore), che si è dilatato fino alla rottura del capillare.
Gli esplosivi sono composti chimici contenenti sia il combustibile (sostanza chimica che subisce l’ossidazione) che il comburente.
Il comburente è costituito da radicali acidi (nitriti NO2, nitrati NO3, clorati ClO3, perclorati ClO4) molto ossigenati, che pertanto sono capaci di cedere notevoli quantità di ossigeno con ingente e rapidissimo sviluppo di prodotti gassosi di combustione (esplosione).
Nel caso dei siluri il tritolo (trinitrotoluolo, TNT) può esplodere anche sott’acqua proprio perchè è un composto organico contenente, come tanti altri esplosivi, il radicale dell’acido nitroso HNO2, che funziona come comburente cedendo ossigeno durante l’esplosione e formando anidride carbonica (CO2) , ossido di carbonio (CO) , metano (CH4) ed azoto (N2):
4 C7H5(NO2)3 ---->
CO2+ 22 CO + 5 CH4 + 6 N2.
Una galassia è assimilabile ad una sorgente luminosa che irradia energia elettromagnetica con densità uniforme in tutte le direzioni (propagazione isotropa). Ciò significa che se si considerano due superfici sferiche, S1 con raggio R1 ed S2 con raggio R2 (con R2 > R1), la potenza P (energia per unità di tempo, Watt) della radiazione luminosa emessa dalla galassia si distribuisce su ciascuna superficie sferica, indipendentemente dalla direzione della retta congiungente la stella con l’ osservatore, con una densità superficiale (potenza per unità di superficie: Watt/mq) s inversamente proporzionale al quadrato del raggio:
s1 = P /(4pR12);
s2 = P /(4pR22).
Pertanto, al crescere della distanza R, la densità superficiale di potenza diventa sempre più piccola
e con essa decresce simultaneamente,in modo inversamente proporzionale alla distanza, l’intensità del campo elettrico E associato all’onda luminosa . Infatti, a grande distanza dalla sorgente luminosa, la densità superficiale dell’energia trasportata da un’onda elettromagnetica a simmetria sferica (con fronti d’onda sferici) è direttamente proporzionale al quadrato dell’intensità del campo elettrico E : s= kE2 = P /(4pR2).
Estraendo radice quadrata si vede che il campo elettrico decresce in modo inversamente proporzionale alla distanza R: E = SQR [P/(4pk)]/R.
Le onde luminose a simmetria sferica prodotte da una lampadina, pur essendo convertite in onde approssimativamente piane mediante un piccolo riflettore parabolico, al crescere della distanza dalla sorgente tendono a divergere sempre più a causa del fatto che si tratta di onde luminose prive di coerenza spaziale e temporale [i massimi (le creste) ed i minimi (le valli) non coincidono poichè le onde vengono emesse casualmente, in istanti diversi] .
Pertanto, poichè i fronti d’onda sono dei cerchi aventi un raggio direttamente proporzionale alla distanza, la densità superficiale di potenza diventa sempre più piccola, tendendo a zero per distanze molto grandi (trilionesimi di trilionesimi di trilionesimi di Watt/mq). Il fenomeno di divergenza del fascio è notevolmente ridotto se si adopera la radiazione laser,dotata di coerenza spaziale e temporale, ma non è eliminabile quando la distanza è
molto grande. E’ possibile, per esempio, proiettare fasci laser sulla superficie lunare ottenendo
fronti d’onda circolari con diametri di qualche decimetro.
Il terremoto del sud-est asiatico è stato di magnitudo 9. La magnitudo è un indice
di energia relativa dei terremoti ed è basata su una scala logaritmica che consente di rappresentare
con piccoli numeri reali , variazioni anche molto grandi dell’energia meccanica liberata dagli strati geologici (zolle) soggetti alle immani forze che si generano per effetto della deriva dei continenti.
Il terremoto del 26 dicembre 2004 ha liberato un’energia 109/107 =100
volte maggiore di quella rilasciata dal terremoto di Messina e Reggio Calabria del 1908, di magnitudine 7.
Per definire la magnitudine, avendo misurato con i sismografi la massima ampiezza (in millimetri) delle oscillazioni ed avendo stimato l’ampiezza di oscillazione alla distanza di 100 km dall’epicentro, si calcola il logaritmo decimale dell’ampiezza di oscillazione in micrometri (un micrometro o micron, m, corrisponde a 10-6 m.).
Per esempio, nel caso di un terremoto di magnitudo 4, la massima ampiezza delle oscillazioni a 100 km dall’epicentro è 104 micron, cioè 10 mm, mentre , per un terremoto di magnitudo 2, la massima ampiezza è 102 micron , cioè 10-4 m = 0,1 mm, cento volte minore.
Esiste inoltre una formula empirica che consente di calcolare approssimativamente l’energia E rilasciata durante un terremoto di cui sia nota la magnitudo M : log 10E = 11,8 + 1,5 M . Pertanto E (Joule) = 10 (11,8 + 1,5 M)x 10 -7.
Esempio: Se M = 9, E = 10(11,8 + 1,5 x 9) x 10-7 = 10 25,3 x 10 -7 joule = 1018,3 joule = 1,995 x 10 18 , circa 2 miliardi di miliardi di joule = 5,55 x 1011 kWh = 555 miliardi di chilowattora.
Per quanto concerne le ripercussioni del terremoto sul nostro pianeta, bisogna considerare che la variazione dell’inclinazione dell’asse terrestre di 2 millesimi di secondo d'arco,corrispondente ad uno spostamento lineare di circa 6 cm, è trascurabilissima rispetto all’ inclinazione di circa 23°
27’ dell’asse terrestre rispetto alla perpendicolare al piano dell’orbita terrestre (piano dell’eclittica).
E’ stato calcolato inoltre che l’allungamento del periodo di rotazione della Terra per effetto dello spostamento degli strati interessati dal terremoto sia dell’ordine di un microsecondo (1 milionesimo di secondo). Come si può dedurre dalle cifre riportate, le ripercussioni strettamente fisiche sono senz’altro trascurabili rispetto ai danni sociali, ambientali ed economici dello tsunami generato dal terremoto.
1) La fisica teorica concerne la formulazione di teorie e modelli che consentano di spiegare e descrivere, utilizzando metodi e modelli matematici, fenomeni fisici noti e di prevedere altresì, in alcuni casi, fenomeni fisici mai osservati.
Esempio: La teoria einsteiniana della relatività generale (teoria della gravitazione) non soltanto descrive esattamente tutti i fenomeni gravitazionali noti, già descritti esattamente dalla teoria newtoniana, ma consente inoltre di rendere conto dello spostamento del perielio di Mercurio, non
spiegabile nell’ambito della teoria newtoniana. La teoria einsteiniana ha previsto inoltre la deviazione subita dai raggi luminosi propagantisi in prossimità del bordo di una stella (fenomeno
verificato dall’astronomo Eddington nel 1919 durante un’eclissi di Sole).
Un altro importante lavoro di fisica teorica è il modello standard della fisica subnucleare, che comprende la teoria dell’elettrodinamica quantistica (QED), verificata sperimentalmente da oltre 50 anni con precisione elevatissima e la teoria della cromodinamica quantistica (QCD), sottoposta a continue verifiche in tutti i laboratori mondiali da oltre 30 anni ed ancora in fase di perfezionamento
e di validazione definitiva, in attesa che venga scoperto il fantomatico bosone di Higgs con la nuova macchina del CERN , il Large Hadron Collider (LHC) , la cui attivazione è prevista per il 2007.
2) La cattedra lucasiana di matematica fu creata dal reverendo Henry Lucas (1610-1663), membro del Parlamento e donatore all’Università di Cambridge di un lascito finalizzato proprio all’istituzione ed al mantenimento dell’omonima , celebre cattedra di matematica.
3) Il termine quark adoperato da Joyce sta ad indicare il verso stridulo di alcuni uccelli (corvi).
Murray Gell-Mann avrebbe modificato la frase del romanzo di Joyce “Three quarks for Muster Mark” in “Three quarts for Mister ...”, una frase da lui ascoltata in un pub.
La scienza moderna si basa sul metodo sperimentale galileiano (induttivo-deduttivo), che consiste nel formulare un’ipotesi di una legge atta a descrivere matematicamente un dato fenomeno fisico osservato (fase induttiva) e nel verificare la legge ipotizzata prevedendo con il calcolo i parametri
del fenomeno fisico osservato (fase deduttiva connessa strettamente alla verifica sperimentale, cioè alla fase pratica). Se la legge ipotizzata consente non soltanto di riottenere correttamente, entro i limiti degli errori di misura, i dati sperimentali rilevati prima della formulazione dell’ipotesi di legge, ma anche di prevedere nuovi dati da verificare sperimentalmente in condizioni sperimentali diverse e con il maggior numero possibile di misure, si ottiene la conferma sperimentale della validità della legge formulata, altrimenti si tenta di formulare un’altra ipotesi di legge.
L’applicazione sistematica del metodo galileiano in tutti i settori della ricerca scientifica (in fisica, chimica, biologia, medicina) si basa quindi sulla stretta integrazione tra la fase teorica (formulazione dell’ipotesi) e la fase pratica (verifica sperimentale della validità dell’ipotesi).
Pertanto, quando si parla di “fisica pratica” bisogna specificare se ci si riferisca alla fase pratica, cioè alla fase di verifica sperimentale di una legge, oppure alle applicazioni tecnologiche di una legge fisica.
Per non creare confusione, è preferibile parlare di fisica pura e di fisica applicata.
Si parla di fisica pura in relazione alle varie branche della ricerca teorica fondamentale ( fisica atomica, fisica molecolare, fisica nucleare, fisica elettronica, teorie quantistiche dei campi, astrofisica, cosmologia) , che si sono sviluppate con la finalità di aumentare la nostra capacità di conoscere la natura ed i suoi fenomeni, senza alcun fine applicativo.
La fisica pura è fine a se stessa, in quanto prescinde dall’utilità pratica delle ricerche effettuate.
La fisica applicata comprende invece la vastissima gamma delle applicazioni pratiche (ingegneristiche) delle leggi fisiche nell’ambito delle varie tecnologie (meccaniche, dei materiali, ottiche, elettroniche, microelettroniche, nucleari, informatiche, telematiche).
In altri termini la fisica applicata costituisce il ponte tra la fisica pura, che disinteressandosi dell’utile mira unicamente alla pura conoscenza delle leggi naturali , e le varie branche dell’ingegneria che invece considerano esclusivamente l’utile, tendendo a minimizzare il rapporto costi/benefici di una data ricerca applicata.
Esempio: le tecnologie microelettroniche derivano dalle applicazioni delle conoscenze teoriche
acquisite nell’ambito di alcune branche della fisica quantistica (fisica elettronica, fisica atomica e fisica dello stato solido) che descrivono il comportamento degli elettroni nel vuoto, negli atomi e nei cristalli semiconduttori).
Per quanto riguarda l’origine del termine quark, esiste una lettera del 27 giugno 1978 scritta all’editore dell’ Oxford English Dictionary dallo stesso Gell-Mann, che afferma di essersi ispirato
alle parole di Joyce: “The allusion to three quarks seemed perfect”. Se si considera che
la teoria di Gell-Mann si basava inizialmente sull’introduzione di tre sole particelle fondamentali, si comprende come egli sia stato indotto a scegliere il termine quark.