1)Anche se l'uso degli spettri magnetici ottenuti con la limatura di ferro è collegato con la convenzione di Faraday, che consiste nel rappresentare graficamente un campo immaginando di tracciare attraverso una superficie elementare di area DS un numero DN di linee di forza pari al prodotto dell'intensità I del campo vettoriale
nel punto centrale dell'area elementare per DS, in realtà per ogni punto
del campo (e sono infiniti i punti da considerare) sono definibili e misurabili l'intensità, la direzione ed il verso del campo, che è una realtà fisica concreta come la massa-energia, anche se, nei casi particolari del campo elettromagnetico e del campo gravitazionale,non è necessario alcun substrato fisico, ma si fa riferimento al vuoto dello spazio-tempo fisico. Il fatto che la limatura di ferro o i granelli di polvere dielettrica , polvere di riso o di mais nel caso degli spettri elettrici, si addensino soltanto lungo determinate linee, non sta a significare alcuna disuniformità nella distribuzione spaziale delle linee di campo, ma dipende soltanto dal fatto che i dipoli (aghi) magnetici o elettrici impiegati per visualizzarle sono così grandi da contenere un grandissimo numero di linee di campo che corrispondono ad una linea di forza media che passa per il centro del dipolo.
E' la notevole grandezza degli aghi magnetici che ci induce a pensare, erroneamente, alla discretezza delle linee di campo, che sono invece distribuite in un continuum dello spazio-tempo.
2) Per quanto concerne gli elettroni di conduzione, il debole campo magnetico terrestre agisce anche
su di essi deviandoli; ma poiché le numerosissime deviazioni microscopiche subite dai singoli elettroni, che sono sempre soggetti ai moti casuali di agitazione termica, si sommano vettorialmente, il debolissimo effetto complessivo del campo magnetico terrestre, del tutto trascurabile rispetto a quelli prodotti dai campi magnetici artificiali, coincide con quello macroscopico della forza F = Bt x L x I agente su un conduttore di lunghezza L, percorso
dalla corrente I e soggetto al campo magnetico terrestre di induzione Bt. Si pensi, per es. all'alterazione che nei vecchi televisori di 30 anni fa subivano le traiettorie dei fasci di elettroni
i cui punti d'impatto sullo schermo fluorescente venivano lievemente spostati dal campo magnetico terrestre causando difetti di purezza dei colori. Bastava ruotare per tentativi il televisore per trovare
l'orientamento più favorevole all'eliminazione dei difetti.
Per quanto riguarda la curvatura dei conduttori, bisogna tener presente, prescindendo per semplicità dai conportamenti quantistici, che , anche se il cammino libero medio di un elettrone tra due ioni del reticolo cristallino di un metallo è trascurabilissimo rispetto al raggio di curvatura del conduttore, per cui gli elettroni non “ricordano” gli urti subiti e non si “accorgono” pertanto del cammino curvilineo, tuttavia l'irraggiamento elettromagnetico esiste ed è determinato dal fatto che i moti accelerati elettronici determinati dal campo elettrico nel conduttore si compongono con moti rettilinei (per inerzia) dando luogo a traiettorie paraboliche tra due urti consecutivi, che implicano un'accelerazione centripeta (radiale) ed un'accelerazione tangenziale e di conseguenza un fenomeno di irraggiamento di onde elettromagnetiche il cui spettro costituisce il ben noto rumore elettrico (disturbi elettromagnetici) generato da tutti i circuiti elettrici ed elettronici
Le particelle elementari catturate dalle fasce di Van Allen, nel corso dei loro moti elicoidali alternativi non soltanto irradiano continuamente energia elettromagnetica per “effetto sincrotrone”,
ma sono soggette,prevalentemente in prossimità delle calotte polari e nonostante la notevole rarefazione dei gas dell'atmosfera alle alte quote, a frequenti collisioni con atomi e molecole che
assorbono parte della loro energia cinetica eccitandosi ed emettendo successivamente fotoni con
varie lunghezze d'onda, che danno luogo alle aurore polari. Ovviamente, poiché l'energia elettromagnetica irradiata in entrambi i fenomeni proviene unicamente dall'energia cinetica con cui le particelle cosmiche arrivano negli alti strati dell'atmosfera, non si tratta affatto del fantomatico moto perpetuo, ma tutto si spiega con la trasformazione, parziale o totale, dell'energia cinetica iniziale in energia elettromagnetica, per effetto dell' accelerazione centripeta dovuta alla forza di Lorentz.
Per quanto riguarda il “bilancio” delle particelle ricevute ed emesse dalla Terra, si consideri che il numero delle particelle subnucleari emesse dai nuclei radioattivi contenuti nelle rocce della crosta terrestre è esiguo rispetto al flusso delle particelle subnucleari, cariche e neutre, che bombardano continuamente l'atmosferea (raggi cosmici). Inoltre le energie delle particelle subnucleari emesse dagli elementi radioattivi naturali (alcuni MeV) sono trascurabili rispetto alle enormi energie dei raggi cosmici (da parecchi MeV, nel caso degli sciami di particelle cosmiche secondarie generate
dall'impatto con l'atmosfera, fino ad alcune centinaia di migliaia di GeV per i raggi cosmici primari
che investono l'alta atmosfera). Lo squilibrio energetico esiste ed è notevolissimo, al punto che, secondo alcuni scienziati, sarebbe responsabile in gran parte dei mutamenti climatici. Infatti il flusso delle particelle cosmiche influenzerebbe la formazione di determinati tipi di nubi con basso potere riflettente (bassa albedo) nei confronti della luce solare. In particolare, secondo alcuni ricercatori del Max Planck Insitute di Heidelberg, alcuni ioni pesanti scoperti di recente nell'alta troposfera potrebbero funzionare come nuclei di condensazione di alcuni tipi di nubi ad alto potere di assorbimento della luce solare, con una conseguente significativa capacità di incrementare la temperatura media dell'atmosfera.
Lo schermo elettrostatico funziona come la “gabbia di Faraday”. Esso è infatti un involucro costituito da un foglio metallico con una buona conducibilità elettrica (rame, rame argentato o stagnato, alluminio) o da una rete metallica a maglie sottili, con la funzione di racchiudere il circuito da schermare con una superficie i cui punti siano tutti allo stesso potenziale elettrico (superficie equipotenziale). Qualora il circuito debba essere schermato nei confronti di campi elettrostatici esterni, lo schermo, per effetto di conduttori carichi posti esternamente ad esso, si elettrizza per induzione in modo tale che al suo interno, in condizioni di equilibrio elettrostatico, non vi siano cariche elettriche (le cariche elettriche si localizzano alla superficie dei conduttori).
Qualora invece il circuito debba essere schermato nei confronti di campi elettrici variabili a bassa
o ad alta frequenza, lo schermo, grazie alla sua elevata conducibilità elettrica, si comporta come
una superficie equipotenziale chiusa; infatti all'interno di un buon conduttore il campo elettrico E è
direttamente proporzionale alla densità di corrente J = I/S (rapporto tra l' intensità di corrente I e la
sezione S interessata dal passaggio della corrente) e la costante di proporzionalità è la resistività (resistenza specifica) r: E = rJ (espressione microscopica della legge di Ohm V=RI)
.
Pertanto, essendo molto piccola la resistività dello schermo, le correnti di disturbo, di natura sia induttiva che capacitiva, circolanti al suo interno sono sostenute da campi elettrici variabili E tanto minori quanto maggiore sia la conducibilità (inverso della resistività) del metallo; di conseguenza sono altrettanto piccole le tensioni di disturbo V = E d che si generano tra due punti dello schermo distanti d l'uno dall'altro.
La necessità di collegare lo schermo alla massa del circuito (conduttore di riferimento per la misura di tutte le tensioni), nasce dal fatto che l'annullamento della differenza di potenziale tra la massa
del circuito e lo schermo consente di neutralizzare i disturbi prodotti dagli accoppiamenti capacitivi tra il circuito e lo schermo. Se infatti non si effettuasse il suddetto collegamento, si generebbero tensioni variabili di disturbo dipendenti dalla circolazione di correnti capacitive (V = Xc I) e di entità crescente al crescere della reattanza capacitiva Xc , che è inversamente proporzionale alla frequenza ed alla capacità di accoppiamento tra piano di massa e schermo.
Per quanto riguarda gli effetti capacitivi prodotti dall'avvicinamento della mano ad un circuito, bisogna considerare che essi sono tanto più evidenti quanto maggiore è la frequenza di lavoro.
Per esempio, se si dovesse tarare un oscillatore a radiofrequenza con frequenza di lavoro superiore ai 10 MHz, l'avvicinamento della mano aumenterebbe la capacità parassita in parallelo alla bobina del circuito risonante, con un conseguente abbassamento della frequenza di risonanza ed un inevitabile disaccordo rispetto alla frequenza di lavoro nominale.
Uno dei centri di ricerca europei all'avanguardia negli esperimenti di fisica quantistica concernenti
stati quantici entangled è il Max-Planck-Institut per l'ottica quantistica di Garching:
www.mpq.mpg.de/~jar.
Cito inoltre due interessanti articoli sugli esperimenti concernenti collisioni
di atomi entangled:
1)
Osnaghi, Stefano
“Rèalisation d'états intriquès dans une collision atomique assistee par une cavitè”
Thesis/ PhD (01 July 2002), Laboratoire Kastler Brossel, Universite Pierre et Marie Curie - Paris VI
2)
Olaf Mandel, Markus Greiner, Arthur Widera, Tim Rom, Theodor W. Haensch& Immanuel Bloch
“Controlled Collisions for Multiparticle Entanglement of Optically Trapped Atoms”
Sektion Physik, Ludwig-Maximilian-Universitaet, Schellingstrasse 4/III, D-80799 Munich, Germany & Max-Planck-Institut fur Quantenoptik, D-85748 Garching, Germany.
https://arxiv.org/ftp/quant-ph/papers/0308/0308080.pdf
To my way of thinking, the consciousness cannot be carried by particles, because, if that were true,
all the matter in the universe would have the consciousness.
Besides, as regards the quanta, their wave-particle dualism is the result of the interaction between the particles and the experimenter.
Quanta can be thought to be electromagnetic waves packed in bundles carrying energy and momentum as particles do; there is no need of cosciousness to explain their strange behaviour, which is particle-like beacuse of the microscopic size and wave-like because of the oscillations of the electromagnetic field inside the bundles.
The consciousness is only one of the supernatural effects connected to the breath of life that is typical of the man.
The laws of physics, written by God inside the space-time structure, say to the particles of matter how to behave, not how to feel what they are. I think the relation between the consciousness and the matter
of our brain can be understood in terms of the relation between the software and the hardware of
a computer. Hardware is dead without software.
Best regards by Antonino Cucinotta.
La teoria newtoniana della gravitazione si basa sul principio dell'azione a distanza: due corpi esercitano l'uno sull'altro una forza attrattiva che è direttamente proporzionale alle loro masse ed inversamente proporzionale al quadrato della loro distanza. Il tempo non interviene. Ciò significa che la variazione della forza gravitazionale determinata dall'incremento o dal decremento della loro distanza si trasmette istantaneamente da un corpo all'altro a prescindere dal mezzo (vuoto, liquido o gas) interposto. Questa rappresentazione della realtà fisica, che ignora il moderno concetto di campo e fu criticata da parecchi fisici, contemporanei (Huyghens, Leibnitz) e posteriori a Newton (Faraday, Maxwell,Hertz, Einstein), spiega perchè il concetto di onda gravitazionale sia
stato elaborato soltanto nell'ambito della teoria gravitazionale einsteiniana.
Infatti, come l'esistenza delle onde elettromagnetiche fu prevista matematicamente da Maxwell come conseguenza delle sue celebri equazioni del campo elettromagnetico (il concetto di campo si deve a Faraday), analogamente le equazioni della teoria della relatività generale (teoria relativistica della gravitazione) consentono di prevedere matematicamente la propagazione di perturbazioni gravitazionali (onde gravitazionali) con velocità finita, pari a quella della luce nel vuoto (c = 300000 km/s). In altri termini l'esistenza delle onde gravitazionali, alla cui rivelazione si lavora alacremente
da circa quarant'anni, implica la propagazione nel vuoto cosmico di una perturbazione di natura
gravitazionale, cioè di un campo gravitazionale variabile nel tempo, prodotto da moti accelerati di masse.
Quando si verifica il collasso di una stella con la formazione di una supernova, l'enorme accelerazione che si determina per effetto dell'implosione della materia stellare superdensa e della successiva emissione di immani getti di materia a velocità relativistiche, genera una perturbazione
gravitazionale, che non è altro che una deformazione dello spazio-tempo, costituita da periodiche espansioni e contrazioni che si propagano in tutto spazio con velocità c.
Un oggetto investito da un'onda gravitazionale proveniente da grandissime distanze (milioni o miliardi di anni luce) , la percepisce come una deformazione periodica dello spazio-tempo, che potrebbe essere assimilata ad un'onda mareale che altera periodicamente,soltanto di alcuni nanometri (miliardesimi di metro) , la distanza tra l'oggetto ed altri oggetti celesti prossimi ad esso (per esempio la distanza tra le stelle che orbitando attorno al loro centro di massa costistuiscono una stella doppia).
Inoltre, poiché un'onda gravitazionale è un'infinitesima deformazione periodica la cui propagazione influenza, in particolare, la traiettoria di un raggio di luce e di qualsiasi altra radiazione elettromagnetica (onde radio, raggi X e raggi gamma), uno dei sistemi di rivelazione più promettenti per la rivelazione delle onde gravitazionali consiste nell'osservare lo spostamento delle frange prodotte da interferometri tipo Michelson o Fabry-Perot a grandi bracci (3 km) utilizzanti raggi laser (progetto VIRGO - INFN di Pisa- www1.na.infn.it/wastro/Virgo/).
Si tratta di un esperimento concettuale proposto nel 1935 da Erwin Schroedinger, il fisico austriaco fondatore della meccanica ondulatoria (formulazione ondulatoria della meccanica quantistica), per
evidenziare il principio fondamentale secondo il quale una misura effettuata su un oggetto quantistico (particella elementare, fotone, atomo, molecola) ne altera inevitabilmente lo stato, che è rappresentato prima del processo di misura dalla sovrapposizione di tutti i possibili stati quantici.
Il fatto che lo stato di un oggetto quantistico non interagente con l’osservatore (prima di effettuare una misura) possa essere rappresentato dalla sovrapposizione di tutti gli stati rilevabili
singolarmente (con diverse misure) è connesso dal punto di vista matematico alla linearità delle equazioni quantistiche di Schroedinger (non relativistica) e di Dirac (relativistica) , le cui soluzioni
sono le cosiddette funzioni d’onda, cioè funzioni che descrivono la probabilità di trovare l’oggetto
microcosmico in un punto di coordinate x,y,z , all’istante t.
Se, per es. F1 , F2
, F3 sono le funzioni d’onda descriventi gli stati 1,2,3 di un sistema quantico, questo può assumere, in assenza di interazioni con l’osservatore, uno stato definito da una combinazione lineare dei 3 stati
F1,2,3 = a1 F1 + a2 F2 + a3 F3, dove a1 , a2, a3
sono coefficienti tali che le probabilità p1 ,p2 e p3 (definite dai loro quadrati), che l’oggetto assuma rispettivamente gli stati 1,2,3 e che siano rilevabili singolarmente in una serie di misure, abbiano somma unitaria (certezza di trovare tutti e tre gli
stati in una serie di misure): p1 + p2 + p3 =1.
Esempio: Lo spin (momento angolare orbitale intrinseco) di un elettrone , che per effetto di una misura può assumere soltanto i valori 1/2 e –1/2 [in unità di h/(2p)], orientandosi in un verso o nell’altro rispetto ad una direzione orientata privilegiata imposta dall’osservatore, per esempio attraverso un campo magnetico, prima della misura si trova in uno stato rappresentabile dalla sovrapposizione di tutti i possibili stati quantici (tutte le direzioni orientate nell’arco di 360°) ottenibili combinando con qualsiasi percentuale di probabilità i due stati up (1/2) e down (-1/2) ( per es. 0,8 up + 0,2 down; 0,3 up + 0,7 down , ecc..).
In sostanza, mentre prima della misura un sistema quantico (per es. un atomo o una molecola), suscettibile di assumere per effetto di una serie di misure N stati (autostati), può trovarsi in una combinazione qualsiasi degli N stati, ciascuno pesato con un dato coefficiente probabilistico tale che la somma delle singole probabilità sia unitaria , dopo la misura invece, per effetto dell’interazione con l’apparato sperimentale usato dall’osservatore, il sistema può assumere soltanto uno degli N stati (corrispondenti, per es., ai singoli livelli energetici).
Per spiegare questo comportamento probabilistico di tutti gli oggetti del microcosmo si può anche ricorrere a paradossi, uno dei quali è appunto quello del gatto di Schroedinger.
Schroedinger propose di immaginare un contenitore all’interno del quale fosse imprigionato un gatto suscettibile di essere ucciso da un potente veleno (per es. acido cianidrico) emesso da un dispositivo attivato dal decadimento di un nucleo radioattivo.
Poiché il decadimento radioattivo, come tutti i fenomeni del microcosmo, è governato da leggi probabilistiche, e poiché lo stato del gatto, vivo o morto, corrisponde a quello del nucleo radioattivo
(v, gatto vivo -> nucleo prima del decadimento; m, gatto morto -> nucleo che ha subito il decadimento), si è indotti a pensare, in termini paradossali, che prima dell’apertura del contenitore anche il gatto, al pari del nucleo, si trovi in uno stato dato dalla sovrapposizione degli stati v ed m, e che soltanto dopo l’apertura del contenitore il suo stato si converta stabilmente in v o m per effetto dell’interazione del sistema con l’osservatore. In altri termini, prima che venga aperto il contenitore bisogna considerare il gatto al tempo stesso sia vivo che morto, bisogna cioè pensare che esso si trovi in uno stato “misto” fatto di vita o di morte ed associato allo stato “misto” del nucleo, corrispondente alla somma delle probabilità di decadimento e di non decadimento. E’ l’osservatore che aprendo il contenitore ed effettuando la verifica rileva, soltanto nell’istante di apertura, se il gatto sia vivo o morto, il che porta a concludere, paradossalmente, che l’azione di aprire il contenitore equivale a convertire lo stato misto (fluttuante) vita-morte in morte o vita.
Questo esperimento concettuale serve in sostanza ad evidenziare che il comportamento probabilistico è tipico dei soli oggetti microcosmici e non può essere applicato, senza giungere a conclusioni paradossali, ad un sistema di dimensioni ordinarie come un gatto. Le categorie di pensiero del microcosmo non sono applicabili ai sistemi macroscopici.
Infatti la funzione d’onda (funzione di probabilità) di un oggetto tende inevitabilmente a collassare al crescere delle dimensioni del sistema. Questo si può capire pensando alla proporzionalità inversa tre la lunghezza d’onda di De Broglie l = h/(mv) e la massa m di un corpo. Anche se, in linea di principio, il comportamento ondulatorio della materia vale per tutti gli oggetti, esso si evidenzia significativamente dal punto di vista fisico soltanto se la massa è comparabile con quella degli oggetti del microcosmo. Per un camion la lunghezza d’onda di De Broglie è così piccola che il comportamento quantistico non è evidenziabile e le leggi della meccanica quantistica vengono rimpiazzate da quelle della meccanica newtoniana.
Il primo schema si riferisce al caso generale del transitorio di corrente in un induttore L collegato in
serie con un generatore sinusoidale E = Em sen (wt ) e con una rete attiva RLC in regime sinusoidale permanente, schematizzabile, in base al teorema di Thevenin, con un generatore equivalente di tensione
Eeq1 = Eeqm1 sen (wt + f1),dove f1 è lo sfasamento
del generatore Eeq1 rispetto al generatore E , ed un'impedenza equivalente Zeq1 = Req1 + j[wLeq1 - 1/(wCeq1)].
Con il deviatore S posizionato in A la maglia sinistra è percorsa da una corrente (in regime sinusoidale permanente) data dall'espressione
Ip1 (t) = E1/SQR{Req12 + [w(L + Leq1)- 1/(wCeq1)]2} sen (wt + f01 + fL),
dove E1 = SQR(E2 + Eeq12 + 2 E Eeq1 cos f1) è il generatore risultante E + Eeq1 ,
f01 = arcos [(Em + Eeq1 cos f1)/E1] è lo sfasamento di E1 rispetto ad E e
fL = arctg [w(L + Leq1) - 1/(wCeq1)] è lo sfasamento di Ip1 (t) rispetto ad E1.
Dopo la commutazione del deviatore si verifica un transitorio di corrente dato dalla sovrapposizione
della corrente Ip2(t) che circolerà nella maglia destra in regime permanente (soluzione dell'equazione differenziale non omogenea relativa alla tensione risultante E + Eq2, che è analoga
a Ip1(t) con Req2 al posto di Req1, Leq2 al posto di Leq1 e Ceq2 al posto di Ceq1) e
della corrente transitoria Itr(t) che è l'integrale generale dell'equazione differenziale omogenea relativa alla maglia destra (equazione delle oscillazioni smorzate).
L'andamento della corrente transitoria dipende ovviamente dal coefficiente di smorzamento
t = 2(L + Leq2)/Req2 del circuito :
Se Req2 è minore di k = SQR[4(L + Leq2)/Ceq2], si verificano oscillazioni smorzate rappresentate dal termine Itr(t) = A exp (-t/t) sen (2pfo + a), dove fo = [1/(2p)] SQR{1/[(L + Leq2)Ceq2] - Req22/[4(L + Leq2)2]} è la frequenza naturale delle oscillazioni smorzate ed a è la costante di fase, determinabile in base alle condizioni iniziali.
Se invece Se Req2 è maggiore o uguale a k, il transitorio
Itr(t) = A1 exp{- [(Req2 - k) /2(L + Leq2) ] t } + A2 exp{- [(Req2 + k) /2(L + Leq2) ] t }
è rappresentato da esponenziali decrescenti (regime aperiodico se Req2 è maggiore di k, aperiodico critico se Req2 è uguale a k).
Nel caso del secondo circuito, in cui al posto dell'induttore L c'è il condensatore C, si procede
analogamente, tenendo conto che il transitorio Itr(t) ha andamento oscillante soltanto se nella maglia destra è presente la componente induttiva Leq2.
L’elaborazione dei dati rilevati dalle varie sonde solari (Ulysses e SOHO) ha consentito di stabilire che le particelle del vento solare (prevalentemente protoni di alta energia) vengono emesse con velocità comprese tra 300 km/s e 800 km/s . Esse raggiungono la Terra mediamente dopo 5 giorni, venendo intrappolate dal campo magnetico terrestre nelle fasce di Van Allen ed in prossimità dei poli magnetici, dove la loro velocità si riduce fino a 400 km/s.
L’impiego di pneumatici con battistrada largo consente di ottenere una maggiore forza d’attrito statico e quindi una maggiore tenuta di strada rispetto ai pneumatici con battistrada stretto, proprio per la diversa natura della superficie di contatto, di cui la legge tiene conto attraverso il coefficiente d’attrito statico,determinabile sperimentalmente: infatti, se il battistrada è stretto, pur essendo minore il consumo grazie alla maggiore durezza della gomma, tuttavia la massima forza d’attrito statico offerta, Fs = ms N data dal prodotto della risultante N delle forze normali (forze verticali di reazione che equilibrano il peso ed il carico aerodinamico generato dagli alettoni) per il coefficiente d’attrito statico ms, risulta minore, facendo diminuire l’aderenza e con essa la tenuta di strada .
In altri termini, se si considera che il coefficiente d’attrito statico tra due superfici è tanto più elevato quanto maggiore è il numero degli effettivi punti di contatto (sporgenze microscopiche non visibili ad occhio nudo), da cui dipende l’area di contatto effettiva, si comprende come la situazione sia senz’altro più favorevole nel caso di pneumatici morbidi, che sono suscettibili di deformarsi
maggiormente rispetto ai pneumatici duri, offrendo sotto carico un maggior numero di effettivi punti di contatto (maggiore area effettiva di contatto) e di conseguenza un coefficiente d’attrito statico ms maggiore.
La maggiore larghezza del battistrada dei pneumatici morbidi è necessaria per ridurne il consumo, che dipende dal rapporto tra Fs e l’area di contatto: aumentando la larghezza del battistrada, la maggiore forza d’attrito Fs ottenibile per il maggiore coefficiente
ms si distribuisce su un’area di contatto maggiore facendo diminuire il logorio.
Il fisico austriaco Lecher nel 1890 eseguì un’esperienza finalizzata alla misura della lunghezza d’onda e della velocità di propagazione delle onde elettromagnetiche, impiegando due conduttori rettilinei e paralleli lunghi alcuni metri e posti alla distanza di qualche centimetro, che costituivano una linea di trasmissione per l’energia elettromagnetica immessa.
La linea così ottenuta veniva alimentata ad un’estremità da un generatore di corrente alternata ad alta frequenza (oscillatore), mentre l’altra estremità veniva lasciata aperta (linea a vuoto) o chiusa attraverso un ponte metallico (linea in cortocircuito).
In entrambi i casi l’energia elettromagnetica si propaga dall’ingresso verso l’uscita della linea e ritorna quasi tutta verso il generatore dando luogo ad onde stazionarie di tensione (V) e di corrente (I), poiché all’uscita non c’è assorbimento di potenza.
Infatti, se la linea è aperta, all’uscita la tensione è massima (ventre di tensione Vmax) e la corrente è nulla (nodo di corrente Imin, uguale a zero), il che implica che la potenza assorbita
P = Vmax Imin sia nulla. Analogamente, se la linea è chiusa in cortocircuito da un ponte metallico (con resistenza piccolissima rispetto alla resistenza interna del generatore), la potenza assorbita
P = Vmin Imax è quasi nulla, essendo Vmin (nodo di tensione) circa zero per l’esiguità della resistenza di carico, anche se Imax (ventre di corrente) è grande.
Pertanto, in entrambi i casi sia l’onda di tensione che l’onda di corrente che si propagano dall’ingresso verso l’uscita, vengono quasi completamente riflesse dando luogo, rispettivamente, ad onde stazionarie di tensione e di corrente, i cui massimi (e così anche i minimi) si localizzano in determinati punti della linea, intervallati di mezza lunghezza d’onda.
Se si indicano con Vd e Vr le ampiezze delle onde di tensione (Vd diretta e Vr riflessa) , con Id e Ir
le ampiezze delle corrispondenti onde di corrente (Id diretta ed Ir riflessa) e con K = Vr/Vd = Ir/Id il coefficiente di riflessione all’uscita della linea (K dipende dal carico), si definisce il ROS (Rapporto di Onda Stazionaria ) (SWR – Standing Wave Ratio) come rapporto tra Vmax e Vmin
o tra Imax e Imin:
ROS = Imax/Imin = Vmax/Vmin = (Vd + Vr)/(Vd – Vr) = (Vd + KVd)/(Vd – KVd) =
= (1 + K)/(1 – K). Il ROS è compreso tra 1 (con K = 0, assenza di onde riflesse e quindi di onde stazionarie, nel caso di una linea correttamente adattata al carico, cioè con impedenza caratteristica pari a quella del carico) ed infinito (con K =1 , riflessione totale, nel caso di una linea aperta o in cortocircuito).
La figura mostra il caso particolare in cui la lunghezza dei fili di Lecher sia pari a 4 l/2. La lampadina L (ad incandescenza o al neon) può essere spostata lungo i fili mediante contatti a slitta, fino ad ottenere la massima luminosità in corrispondenza dei ventri di tensione (nodi di corrente) e la minima luminosità (al limite lo spegnimento) in corrispondenza
dei nodi di tensione (ventri di corrente). In tal modo, determinata la semilunghezza d’onda, pari alla distanza d = l/2 tra due nodi o tra due ventri , e conoscendo la frequenza f della corrente alternata erogata dal generatore, si determina la velocità v di propagazione dell’energia elettromagnetica lungo la linea: v = lf = 2df.
Se, per es., f = 300 MHz e d = 0,5 metri, si ottiene:
v = 2 x 0,5 x 300 x 10 6 m/s = 3 x 108 m/s = 300000 km/s = c (velocità della luce nel vuoto).
La “regola d'oro” in meccanica è fondamentale per lo sudio dell'equilibrio delle macchine semplici (leva, carrucola, vite, argano a manovella, piano inclinato, cuneo).
Se consideriamo, per es., una leva a bracci disuguali b1 e b2, alla quale
siano applicate le forze F1 ed F2, perpendicolarmente alla leva, rispettivamente alle distanze b1 e b2 dal fulcro (punto per il quale
passa l'asse attorno al quale la leva può ruotare), la condizione di equilibrio si verifica quando sono
uguali i prodotti delle forze per i rispettivi bracci :
F1 x b1 = F2 x b2. Infatti, se si considera che
il lavoro compiuto dalla forza F1,qualora la leva subisca una rotazione infinitesima di dn radianti,è dato dal prodotto dell'intensità di F1 per lo spostamento elementare dR1 = dn b1 , e che il lavoro compiuto dalla forza F2,per la stessa rotazione infinitesima dn,è dato dal prodotto dell'intensità di F2 per lo spostamento elementare dR2 = dn b2, applicando il principio dei lavori virtuali, che impone, perchè si ottenga l'equilibrio, che si annulli ill lavoro complessivo delle forze agenti (somma algebrica dei lavori relativi alle due forze), si deduce l'uguaglianza dei moduli dei
lavori (di segno opposto) F1 dR1 ed F2 dR2,
quindi l'uguaglianza dei prodotti F1 b1 ed F2b2.
Essendo uguali per le due forze i prodotti forza x braccio e forza x spostamento del punto di applicazione, si ricava la proporzionalità inversa tra le loro intensità e gli spostamenti dei rispettivi punti di applicazione.
In questo consiste la regola d'oro:”Quello che si guadagna in forza si perde in cammino”.
In altri termini, se il braccio b1 fosse 8 volte più lungo del braccio b2, per equilibrare la forza F2 (resistenza) bastererebbe applicare una forza F1 (potenza) 8 volte minore, mentre il punto di applicazione di F
La legge di gravitazione universale enunciata da Newton afferma che la forza con cui si attraggono
due masse puntiformi M1 ed M2 , poste alla distanza R, è direttamente proporzionale al prodotto
delle masse ed inversamente proporzionale al quadrato della distanza:
F = G M1 M2/R2, dove G è costante di attrazione universale
La stessa legge, pur essendo stata formulata per masse ideali (masse puntiformi o punti materiali),
servì a Newton, dopo avere inventato il calcolo infinitesimale, a dimostrare rigorosamente che
un guscio sferico di spessore piccolo rispetto al valor medio dei raggi delle superfici sferiche che lo delimitano, se è fatto di materia con densità costante, genera alla distanza R dal centro un campo gravitazionale (forza gravitazionale agente su una massa unitaria) pari a quello che verrebbe generato da una massa puntiforme posta nel suo centro.
E poiché un corpo come la Terra può essere considerato, in prima approssimazione, a simmetria sferica, cioè costituito da una successione di tanti sottili strati sferici concentrici, ciascuno di densità costante, si deduce che, anche se la densità dei singoli strati, pur essendo costante al loro interno, dipende dal raggio, è possibile calcolare il campo gravitazionale in un punto esterno alla Terra, a distanza R dal centro, come se tutta la sua massa localizzata al centro, quindi rispettando la legge di gravitazione universale che stabilisce la proporzionalità inversa tra la forza ed il quadrato di R.
Se invece si considera un punto interno alla sfera terrestre, poiché i campi gravitazionali infinitesimi, generati dalle singole masse elementari che compongono la Terra, sono orientati in tutte le direzioni e sono concordi o discordi a seconda che si considerino masse elementari posizionate dalla stessa parte o da bande opposte rispetto al punto considerato, si può dimostrare
matematicamente che, proprio per effetto della dipendenza quadratica inversa dalla distanza, la somma vettoriale di i tutti i campi elementari è direttamente proporzionale alla distanza d centro, annullandosi al centro. Pertanto il campo gravitazionale terrestre, prescindendo dalle notevoli
disomogeneità di densità riscontrate sperimentalmente, è direttamente proporzionale alla distanza d
dal centro, raggiunge il massimo valore alla superficie (g = 9,8 m/s2 per d = 6400 km), e descresce in modo inversamente proporzionale al quadrato di d nei punti esterni alla superficie.
La risposta possiamo trovarla applicando il principio di Archimede, che afferma che un corpo immerso in un fluido riceve una spinta verso l'alto pari al peso del fluido spostato.
Se pensiamo che quando il nostro pianeta si formò, i vari metalli e composti si aggregarono assumendo la forma sferica, che è l'unica forma compatibile con la minimizzazione dell'energia potenziale gravitazionale, in quanto le masse elementari si dispongono simmetricamente rispetto al centro, alla minima distanza possibile da esso,deduciamo che i materiali meno densi (silicati ed ossidi) ,inizialmente mescolati con quelli più densi (metalli), tendevano a galleggiare su questi fino
a raggiungere la maggiore distanza possibile dal centro di aggregazione.
Se immaginiamo infatti una dispersione iniziale di concentrazioni metalliche in un composto di silicio (roccia fusa) , essendo la densità dm dei metalli maggiore della densità dc del composto, le zone metalliche di volume V, essendo soggette ad una forza di spinta verso l'alto dcgV minore del loro peso dmgV, tendono a migrare verso il centro di aggregazione.
Il contrariosi verifica nel caso di una dispersione iniziale di concentrazioni di un composto di silicio
all'interno di una massa metallica. Essendo infatti in questo caso la forza di spinta dmgVsuperiore al peso dcgV, le concentrazioni del composto a bassa densità tendono
ad allontanarsi dal centro di aggregazione, “galleggiando” sul metallo fuso.
Inoltre, durante la formazione della Terra, la crescente pressione degli strati sovrastanti la massa
metallica fusa determinò un progressivo aumento del punto di fusione fino alla formazione di un nucleo metallico solido (nucleo interno di ferro-nichel), nonostante l'elevata temperatura.
Il fatto che il campo gravitazionale tenda a zero andando verso il centro della Terra non è incompatibile con la spiegazione precedente, in quanto, pur essendo la sua intensità relativamente
piccola nella fase iniziale di aggregazione,perchè si era accumulata poca massa, era sempre diretto verso il centro dando origine ad una spinta archimedea, inizialmente molto debole.
I display numerici ed alfanumerici a LED impiegati nelle apparecchiature elettroniche sono costituiti da 7 diodi LED lineari (segmenti) disposti in modo tale da consentire la visualizzazione delle cifre del sistema decimale o di quelle del sistema esadecimale (0,1,2,3,4,5,6,7,8,9,A,B,C,D,E,F, in base 16).
I LED possono essere collegati tutti con il catodo (polo negativo, zona semiconduttrice di arseniuro di gallio di tipo N) a massa (display a catodo comune) o tutti con l'anodo (polo positivo, zona semiconduttrice di arseniuro di gallio di tipo P) al polo positivo della linea di alimentazione a corrente continua (+ Vcc). Nel primo caso, per pilotare il display a catodo comune occorre un decoder BCD/7 segmenti che ricevendo in ingresso i 4 livelli logici corrispondenti ai bit della cifra da visualizzare, fornisca un livello logico alto agli anodi dei segmenti da accendere, attraverso un resistore (limitatore di corrente) esterno o interno al circuito integrato, ed un livello logico basso (da 0,2 V a 0,4 V) agli anodi dei segmenti da lasciare spenti. Nel secondo caso occorre invece un decoder per display ad anodo comune, che fornisca un livello logico basso ai catodi dei segmenti da accendere, attraverso un resistore limitatore di corrente, ed un livello logico alto ai catodi dei segmenti da lasciare spenti.
1)Per comprendere la differenza di timbro tra i suoni emessi, con la stessa frequenza fondamentale,
da due strumenti diversi o da persone diverse,bisogna considerare che soltanto i suoni armonici,
come quelli emessi dai diapason, non contengono armoniche (suoni con frequenza multipla della
frequenza fondamentale), in quanto il loro andamento in funzione del tempo è rigorosamente
sinusoidale. E' l'andamento temporale dell'onda acustica che determina la presenza, più o meno
notevole, di armoniche. Per esempio, se consideriamo due note con frequenza di 440 Hz emesse
da un violino e da un pianoforte, le onde acustiche emesse da entrambi gli strumenti sono molto diverse dalle onde sinusoidali, poiché, come si può verificare sperimentalmente con un analizzatore di spettro, sono costituite da tanti suoni armonici, con intensità diverse al variare della frequenza, che sommandosi tra loro danno luogo ad onde di forma complessa, molto lontana
da quella sinusoidale. Ebbene, nel caso dei due strumenti citati, il contenuto di armoniche a frequenza elevata è maggiore per il violino che per il pianoforte. Infatti, a causa delle dimensioni
molto diverse delle casse armoniche, l'intensità delle armoniche con frequenze elevate è maggiore
nel violino che nel pinoforte, in quanto sulla loro intensità influisce notevolmente l'amplificazione
prodotta dalla risonanza con la cassa armonica, influenza tanto più marcata quanto più le frequenze dei suoni siano prossime alle frequenze naturali di vibrazione della cassa armonica. I suoni emessi dal pianoforte sono invece meno ricchi di armoniche di ordine elevato, perchè esse hanno lunghezze d'onda molto minori delle dimensioni dello strumento.
Per lo stesso motivo le note isofrequenziali emesse da un tenore e da un soprano hanno timbri molto diversi a causa della differente struttura della cassa armonica che è in risonanza con le corde vocali.
2) La risposta alla seconda domanda è data dal fatto che, generalmente, come si dimostra matematicamente in base al teorema di Fourier (1830), su cui si basa l'analisi spettrale di qualsiasi segnale periodico di forma non sinusoidale, l'ampiezza (e l'intensità) dei suoni armonici decresce
al crescere del loro ordine di molteplicità rispetto al suono fondamentale: il che significa che la potenza dell'onda acustica non sinusoidale si concentra prevalentemente nelle prime armoniche.
Per esempio, se si eseguisse l'analisi armonica (di Fourier) un segnale acustico di forma quasi quadra (onda quadra), si troverebbero tanti picchi con ampiezza inversamente proporzionale all'ordine dell'armonica (1,3,5,7...), corrispondenti alle frequenze delle sole armoniche dispari.
Un'antenna irradia onde elettromagnetiche in quanto è costituita da uno o più conduttori percorsi
dalla corrente alternata ad alta frequenza (radiofrequenza) erogata dal trasmettitore. E poiché
la corrente alternata, in particolare quella sinusoidale [I(t) = Imax sen (2pft), dove Imax è il valore massimo ed f è la frequenza], è costituita da un flusso di elettroni che nel conduttore si muovono periodicamente nei due versi sotto l'azione del campo elettrico sinusoidale a radiofrequenza [E(t) = Emax sen (2pft), dove Emax è il massimo valore del campo elettrico generato dal trasmettitore],si deduce che gli elettroni nel conduttore irradiante si muovono di moto armonico, con un'accelerazione direttamente proporzionale (per la seconda legge di Newton a = F/m) al campo elettrico:
a(t) = E(t) = (Emax /m) sen (2pft),irradiando onde elettromagnetiche in base alla formula di Larmor. Si consideri che l'antenna, dal punto di vista fisico-matematico, genera nello spazio un campo elettromagnetico uguale a quello
generato da un dipolo elettrico (dipolo hertziano), cioè da una coppia di cariche elettriche opposte
(con carica uguale a quella di N elettroni) oscillanti lungo l'antenna con legge sinusoidale (moto armonico) e separate , istante per istante, da una distanza d variabile con legge sinusoidale [dmax sen (2pft)]. Il campo elettrico ed il campo magnetico a radiofrequenza generati dal dipolo si propagano a distanza con la velocità della luce
rimanendo sempre strettamente dipendenti l'uno dall'altro in base alle equazioni dell'elettromagnetismo di Maxwell, che dimostrò matematicamente che, come un campo magnetico
variabile nel tempo genera sempre un campo elettrico variabile (per la legge di Faraday-Neumann dell'induzione elettromagnetica), così un campo elettrico variabile genera sempre (legge di concatenazione di Ampere estesa al campo elettrico variabile) un campo magnetico variabile, che a sua volta genera un campo elettrico variabile , e così via. Da questo si evince che la propagazione dell'energia elettromagnetica nello spazio, a distanza dall'antenna, è dovuta alla reciproca dipendenza temporale dei campi elettrico e magnetico rapidamente variabili nel tempo.
In modo analogo, un'onda elettromagnetica può essere generata da un dipolo magnetico variabile, come accede nelle pulsar, assimilabili ad un ago magnetico (dipolo magnetico) che ruota descrivendo una superficie conica avente per asse quello di rotazione della stella. Il campo magnetico variabile generato dal dipolo rotante, genera un campo elettrico variabile, che a sua volta genera ancora un campo magnetico variabile e così via. Si genera quindi un'onda elettromagnetica
che si propaga a distanza trasportando energia elettromagnetica, che viene emessa a spese dell'energia cinetica associata alla rotazione della pulsar, la cui velocità di precessione tende a diminuire.
Bisogna premettere,con riferimento al dualismo onda-particella, che il comportamento particellare
dei fotoni, per esempio della luce solare, viene evidenziato soltanto qualora i fotoni interagiscano
con gli oggetti del microcosmo, per esempio con un atomo o con una particella elementare :
si pensi all'effetto fotoelettrico, che consiste nell'emissione di elettroni da parte di un metallo colpito dalla radiazione luminosa, oppure all'effetto Compton, che consiste nella diffusione di fotoni X su
elettroni liberi, con emissione di fotoni secondari meno energetici (con lunghezza d'onda maggiore)di quelli primari.
Se invece si considera la propagazione della luce nei dispositivi e sistemi ottici (lenti, specchi, telescopi, binocoli, cannocchiali), il comportamento particellare non viene evidenziato, in quanto sono verificabili esattamente tutti i fenomeni tipici del comportamento ondulatorio della radiazione elettromagnetica (interferenza, diffrazione, polarizzazione).
In modo analogo, mentre le particelle elementari (elettroni, protoni, ecc...) , qualora vengano osservate nell'ambito di dispositivi e sistemi fisici con dimensioni molto grandi rispetto a quelle
degli oggetti del microcosmo, evidenziano un comportamento classico, tipico dei corpi macroscopici, esse invece, qualora vengano considerate nell'ambito di sistemi microcosmici (atomi,molecole) o di sistemi con dimensioni comparabili con quelle dei sistemi microcosmici,
evidenziano un comportamento tipicamente ondulatorio.
Per quanto concerne l'influenza dei fenomeni atmosferici (per esempio il vento), non è esatto affermare che essi non abbiano influenza sulla propagazione della radiazione luminosa: si pensi
alla dipendenza dell'indice di rifrazione dell'aria dalla temperatura e quindi, indirettamente dai
venti, che influiscono sull'andamento della temperatura di una regione.
Per quanto riguarda l'effetto inerziale dei fotoni, ai quali si associa una massa relativistica (di moto, in quanto quella a riposo è nulla, essendo la loro velocità di propagazione pari a quella della luce nel nel vuoto, c) , pari al rapporto tra al la loro energia ed il quadrato di c, bisogna considerare che anche nell'ambito
dell' elettromagnetismo classico (maxwelliano) si associa sempre ad un flusso di energia elettromagnetica una pressione della radiazione (come quella della luce solare sulla coda delle comete).
Il numero phi = 1,618034...., è un numero irrazionale, cioè decimale illimitato non periodico, calcolabile con la formula : (√5 + 1)/2 ed il cui valore approssimato è 1,618.
Questo numero, considerato come numero divino dai matematici greci (i pitagorici) e successivamente da tanti altri matematici [ Luca Pacioli (1440-1515) scrisse l'opuscolo “De divina proportione”], coincide con il rapporto tra un segmento e la sua sezione aurea.
Ricordando che in geometria si definisce sezione aurea di un segmento di lunghezza L un segmento
x medio proporzionale tra L ed L – x, si ha la proporzione: L : x = x : (L – x), dalla quale si ottiene
il valore del numero (rapporto) aureo, il cui inverso è proprio il numero phi.
Infatti si ha: x2 = L (L – x) = L2 - Lx.
Risolvendo l'equazione di secondo grado x2 + Lx – L2 = 0, si ottengono le radici:
x = [- L + √(L2 + 4 L2)]/2 e x = [(- L - √(L2 + 4 L2)]/2. Considerando soltanto la radice positiva, che è l'unica accettabile come misura di un segmento, si ha:
x = (L/2) (√5 - 1) = (L/2) (√5 - 1)(√5 + 1)/(√5 + 1) = (L/2) (5 – 1)/(√5 + 1) = 2L/(√5 + 1) = L/phi = L/phi = L/1,618.
Il rapporto phi = L/x tra un segmento e la sua sezione aurea è stato riscontrato in tutte le opere
dell'antichità, dalle piramidi alle sculture, alle bellezze architettoniche della Grecia classica, ed in tantissimi fossili ed organismi viventi, il che giustifica il fatto che esso venga inteso come il numero della bellezza (o delle proporzioni perfette) ( numero divino ).
Per comprendere il fenomeno bisogna considerare che il campo elettrico E generato da un conduttore carico con densità di carica superficiale (carica/unità di superficie) s determina una pressione che tende a spingere le cariche elettriche verso l'esterno. Questa pressione, data dall'espressione
p = (½) s2/eo, è dovuta alla repulsione tra le cariche elettriche dello stesso segno distribuite sulla superficie del conduttore. Premesso questo, l'aumento del raggio delle bolle di sapone cariche si spiega considerando che il lavoro elementare positivo dLe = p S dR eseguito dal campo elettrico nel far aumentare di dR il raggio della bolla, di superficie S = 4 pR2 ,uguaglia il lavoro dLsgdS = 8pgRdR eseguito dalle forze attrattive dovute alla tensione superficiale (forze elettriche attrattive tra le molecole del liquido). Pertanto la bolla si espande fino a raggiungere la condizione di equilibrio tra le forze espansive e quelle attrattive: R = radice cubica [Q2/(64p2eog)]
Se consideriamo l'etimo delle parole matematica e filosofia, ci rendiamo conto dell'intima relazione tra màthesis , apprendimento (da manthàno, imparo) e philosophia> , amore per il sapere (da fileo, amo e sophìa, sapienza). Come per apprendere bene una disciplina è necessario amare il sapere,cioè desiderare ardentemente il possesso delle conoscenze
che fanno parte di essa, analogamente per essere un grande matematico è necessario essere anche
un grande filosofo. Esempi illustri di affascinanti intersezioni matematica-filosofia li troviamo in tutta la storia della filosofia: Pitagora, Cartesio, Leibnitz, Russell e tanti altri ancora.
Se pensiamo che sia il matematico che il filosofo si servono della logica, che Aristotele denominò organon, cioè strumento fondamentale della ricerca scientifica, ci rendiamo conto che essere
contemporaneamente un grande matematico ed un grande filosofo consente di vedere
gli oggetti dell'indagine conoscitiva sotto due aspetti diversi ma sinergici sul piano del comune substrato logico: il filosofo immagina nuove prospettive di indagine della realtà, mentre il matematico crea nuove strutture logico-deduttive partendo da un sistema di assiomi e dimostrando teoremi.
Le figure del matematico e del filosofo si sovrappongono,essendo nel contempo diverse e complementari e potenziando gli effetti dell'interazione delle rispettive creatività.
Secondo me la matematica è la quintessenza della filosofia, in quanto crea modelli le cui applicazioni fisiche, economiche,sociologiche, biologiche ecc... forniscono particolari visioni filosofiche della realtà: dal microcosmo dei quark, degli atomi e dei cristalli alle galassie, dagli studi dei fenomeni economici e sociologici a quelli dei sistemi biologici, dai più semplici ai più complessi.
Einstein è , secondo me, l'esempio più fulgido di matematico-filosofo. Con la sua visione geniale della struttura dell'universo, espressa attraverso le sue celebri equazioni gravitazionali, immaginò una geometria universale determinata dalle distribuzioni di massa-energia:
“La massa curva lo spazio e lo spazio dice alla massa come muoversi”. Matematizzò attraverso
le equazioni tensoriali della relatività generale (teoria della gravitazione) la sua visione filosofica
della struttura del cosmo, senza partire, si badi bene,da dati di fisica sperimentale.
Straordinario fu il suo trionfo quando l'astronomo Eddington potè confermare sperimentalmente, in occasione dell'eclissi di sole del 1919, la validità della geometria universale einsteiniana: la matematizzazione di Einstein concordava mirabilmente con la struttura matematica impressa ab initio da Dio nella struttura dello spazio-tempo.
1) Se consideriamo la radiazione elettromagnetica emessa da un atomo nella transizione da uno
stato quantico con energia E1 ad uno stato quantico con energia E2 (minore di E1), ci rendiamo conto che, anche supponendo di poter ridurre notevolmente l'allargamento (non monocromaticità) per effetto Doppler della riga spettrale associata al fotone emesso, adoperando un tubo a scarica a bassissima pressione ed a bassissima temperatura (per minimizzare le collisioni interatomiche e le velocità di agitazione termica degli atomi), rimarrebbe in ogni caso l'allargamento dovuto al principio d'indeterminazione di Heisenberg : D(E2 – E1)
Dt = h/(2 p) , dove Dt è la vita media (intorno al nanosecondo) dello stato eccitato che dà luogo all'emissione del fotone.Infatti l'indeterminazione D(E2 – E1) si traduce in un'indeterminazione della frequenza Df = D(E2 -E1)/h e quindi della lunghezza d'onda l della radiazione emessa.
Pertanto non possono essere emesse dagli atomi radiazioni luminose
spettralmente pure.
2) Anche nel caso dello spettro del corpo nero emesso attraverso un forellino praticato in un involucro metallico mantenuto alla temperatura costante T, vengono eccitati simultaneamente molti modi di vibrazione, armonici del modo fondamentale relativo ad una generica direzione di propagazione di un'onda elettromagnetica stazionaria avente due nodi (valori nulli)del campo elettrico nei punti d'intersezione della retta di propagazione con le pareti riflettenti dell'involucro.
Pertanto anche in questo caso si verifica una situazione analoga a quella di una canna d'organo aperta ad entrambe le estremità: vengono eccitate tutte le armoniche che determinano il timbro della canna. Come si può notare, manca soltanto l'uso del termine timbro nel caso della radiazione elettromagnetica, ma la fisica è analoga. In altri termini non c'è la consuetudine di parlare di timbro, termine prettamente acustico. Un altro esempio si ottiene considerando la possibilità di eccitare
un'antenna sia sulla frequenza corrispondente alla lunghezza d'onda fondamentale che sulle armoniche,semplicemente variando i circuiti d'accordo del trasmettitore, cioè fornendo la massima potenza alla frequenza di una delle armoniche superiori per eccitare molti modi contemporaneamente, sia pure prevalentemente sul modo associato alla frequenza prescelta.
3)Il fatto che due colori, a parità di tinta, cioè di lunghezza d'onda, possano differire per la saturazione, dipende soltanto dalla luce bianca aggiunta al colore: si ha per esempio un rosso molto sbiadito (desaturato) se si aggiunge molta luce bianca, ed invece un rosso vivo, saturo, con una
bassa intensità di luce bianca aggiunta. E' quello che si verifica in un monitor o in un televisore portando al minimo il comando di saturazione del colore (segnale di crominanza) o , mantenendo fisso il comando di saturazione, portando al massimo la luminosità.
Bisogna tenere presenti le regole della sintesi additiva e sottrattiva dei colori.
La sintesi additiva vale quando si considera l'effetto della sovrapposizione di tre sorgenti di luce
dei tre colori fondamentali (R rosso, V verde, B blu) . La somma di tre luci dei colori fondamentali fornisce la luce bianca ( R + V + B = luce bianca), mentre la somma di due luci dei colri fondamentali fornisce luci dei tre colori complementari:
R + V = luce gialla; R + B = luce magenta; B + V = luce azzurra (di colore ciano).
Ciacuno dei tre colori complementari G (giallo), C (ciano) e M (magenta) , sommato al colore fondamentale che non è presente in esso, genera il bianco: G + B = bianco; M + V = bianco; C + R = bianco.
Queste regole, che stanno alla base della tricromia additiva, spiegano il funzionamento di telecamere , monitor e televisori a colori: infatti un pixel di un monitor o di uno schermo televisivo genera una luce colorata dipendente dalle intensità delle sorgenti puntiformi dei tre colori fondamentali.
Le regole di sintesi sottrattiva dei colori, che stanno invece alla base della composizione dei colori usati per dipingere e nella cinematografia a colori, si basa sui tre colori complementari (G,M e C),che agiscono da filtri nei confronti della luce bianca:
un filtro o un pigmento giallo bloccano la componente blu della luce bianca riflessa da un oggetto e lasciano passare le componenti rossa e verde,che sommandosi fanno apparire giallo l'oggetto illuminato. Analogamente un oggetto ci appare di colore azzurro (ciano) perchè il pigmento colorato blocca la componente rossa , lasciando passare soltanto le componenti blu e verde che sommandosi danno il ciano. Se invece consideriamo un oggetto di colore magenta, esso blocca la componente verde, lasciando passare (per riflessione o per trasparenza) le componenti rossa e blu che sommandosi danno il magenta.
I pigmenti dei tre colori complementari (giallo, magenta e ciano), miscelati a coppie danno i tre
colori fondamentali ( G + M = R, C + M = B, C + G = V ), mentre sommati tutti e tre danno il nero. Infatti, nella sintesi sottrattiva due filtri dei colori complementari lasciano passare la luce colorata contenuta in entrambi: Esempio:
Luce bianca – luce gialla – luce magenta = R + V + B – (R + V) – (R + B) = R + V + B – R -V – R – B = - R = luce rossa.
Un ombrellone rosso ci appare di questo colore perchè il pigmento usato per tingere la tela elimina
le componenti verde e blu della luce solare, riflettendo la componente rossa. Con l'esposizione prolungata ai raggi ultravioletti della luce solare,il pigmento rosso subisce alterazioni dovute a reazioni fotochimiche che lo rendono sempre più sbiadito, fino a quando il suo potere assorbente nei confronti delle componenti verde e blu della luce solare non si riduce a tal punto da riflettere quasi tutta la luce solare (bianca). Pertanto il bianco del colore molto desaturato è dovuto alla riflessione
più o meno completa della luce solare che lo colpisce.
Man mano che le fibre del tessuto diventano sempre più povere di pigmento (per reazioni fotochimiche ed evaporazione), l'intensità della luce bianca riflessa aumenta sempre più, al progressivo diminuire del coefficiente di assorbimento, fino a fare apparire l'ombrellone quasi bianco. Il pigmento nero invece, rende l'ombrellone molto simile ad un corpo nero, con coefficiente di assorbimento quasi unitario, che corrisponde ad una tascurabilissima quantità di luce riflessa.
Un'estensione dell'equazione di Dirac alle particelle con spin maggiore di 1 (pari o dispari) si deve a
Lanczos (1929), che dimostrò come scrivere l'equazione di Dirac adoperando il formalismo dei quaternioni di Hamilton (biquaternioni o numeri complessi quadridimensionali) consenta di
descrivere fermioni con spin 1/2 e 3/2. A Dirac infatti interessava scrivere un'equazione valida esclusivamente per particelle con spin 1/ 2 come gli elettroni e per far questo introdusse una funzione d'onda a 4 componenti (spinore a 4 componenti).Un'altra estensione dell'equazione di Dirac alle particelle con spin 3/2 (barioni ed antibarioni) è l'equazione di Rarita-Schwinger.
Riferimenti:
https://arxiv.org/abs/math-ph/0210055
Il teorema di equivalenza di Ampere afferma che se una spira percorsa da una corrente di intensità I ed un ago magnetico (dipolo magnetico costituito dai poli magnetici Nord e Sud inseparabili, come dimostra l'esperienza della calamita spezzata), dotato di momento magnetico m, sono soggetti ad un campo magnetico di intensità H, su entrambi agisce una coppia caratterizzata dallo stesso momento torcente: M = m ^ H = m H sen a, dove a è l'angolo formato dalla direzione Sud – Nord dell'ago magnetico con quella del campo magnetico, oppure l'angolo formato dalla perpendicolare al piano della spira, orientata nel verso che va dalla faccia Sud di essa (in cui la corrente viene “vista” circolare in senso orario) alla faccia Nord ( in cui la corrente viene “vista” circolare in verso antiorario), con la direzione
del campo magnetico.
Ovviamente, in entrambi i casi la coppia è nulla nel caso particolare in cui
l'angolo a sia nullo (ago e spira con momenti magnetici paralleli e concordi al campo); in tutti gli altri casi è diversa da zero e tende a far ruotare l'ago e la spira fino
a ridurre l'angolo a a zero , dopo una serie, più o meno lunga a seconda
dell'inerzia dell'ago e della spira, di oscillazioni smorzate.
Affinchè valga quest'equivalenza, il momento magnetico
mspira = mo I S della spira deve essere uguale al momento magnetico mago dell'ago.
In modo del tutto equivalente, il teorema di equivalenza di Ampere si può enunciare facendo riferimento all'energia potenziale magnetica U = - m H cos a dell'ago magnetico e della spira soggetti al campo H, con riferimento all'angolo a. L'energia potenziale U è massima nella posizione di equilibrio instabile , cioè quando l'angolo a è pari a 180° (momento magnetico m e campo H discordi ed U = - m H cos 180° = - m H (-1) = mH joule) , mentre è minima quando l'angolo a è pari a 0° (momento magnetico m e campo H concordi ed U = - m H cos0° = - m H (1) = - mH joule). Pertanto, se si considera la stessa posizione angolare iniziale a , l'ago e la spira ad esso equivalente, lasciati liberi di ruotare per effetto della coppia dovuta rispettivamente alle forze magnetiche ed elettromagnetiche, passano per la posizione di equilibrio stabile ( a = 0) con la stessa velocità angolare (misurabile) e quindi con la stessa energia cinetica
K = - (Ufinale - Uiniziale) = - ( - mH cos 0° + m H cos a ) = mH ( cos 0° - cos a ).
Se , in particolare, a = 90°, essendo cos 90° = 0, si ha: K = mH ed il momento magnetico m dell'ago e della spira ad esso eqiovalente si può misurare attraverso il rapporto K/H tra energia cinetica ed intensità del campo magnetico.
In altri termini, si verifica che, a parità di posizione angolare iniziale, i momenti magnetici misurati
operando prima con l'ago magnetico e successivamente con la spira, risultano uguali soltanto se l'area S della spira e l'intensità di corrente in essa circolante sono tali che il momento magnetico m ago dell'ago sia uguale al prodotto mspira = mo I S.
In modo del tutto equivalente, i momenti magnetici dell'ago e della spira potrebbero essere misurati
dal rapporto tra il momento torcente M = mHsena, uguale e contrario a quello del momento torcente della coppia elastica (di una molla per esempio) antagonista necessaria ad equilibrarlo, ed Hsena: mago = M/ (Hsena) = mspira = mo I S.
La misura di entrambi i momenti magnetici si ottiene da un rapporto (tra energia cinetica ed intensità del campo magnetico o tra momento torcente ed intensità del campo magnetico), mentre
la condizione di equivalenza che consente di ottenere uguali misure di m è espressa dal prodotto
mo I S. In pratica, eseguita la misura di m operando con
l' ago, bisogna eseguire la misura sulla spira, a parità di posizione angolare iniziale, regolando
l'intensità di corrente I fino al valore necessario per misurare la stessa energia cinetica o lo stesso momento torcente.
Per comprendere la necessità dell'introduzione del momento magnetico, bisogna considerare che, mentre per misurare un campo elettrico E basta misurare il rapporto E =F/q tra la forza F che agisce su una piccola carica elettrica di valore noto q e la carica stessa ( E in newton/coulomb), nel caso della misura di un campo magnetico, poiché in natura non esistono poli magnetici isolati, bisogna misurare il rapporto H = M/(m sen a) tra il momento torcente M della coppia che un campo magnetico H esercita , nella posizione angolare stabilita, su un ago magnetico (o su una spira) di cui sia noto il momento magnetico m, ed il momento magnetico stesso. In altri termini il momento magnetico svolge un ruolo analogo a quello della carica elettrica.
Come è necessaria una carica elettrica di valore noto per misurare un campo elettrico, così sono necessari un ago magnetico o una spira di momento magnetico noto per misurare un campo magnetico.
Poiché l’argomento esula dai temi specifici di cui si occupa peoplephysics, fornisco i seguenti link utili per acquisire conoscenze in materia di proceazione assistita, in relazione con il referendum:
- https://www.tg1.rai.it/SITOTG/TG1_foglia/0,8762,145,00.html (4 file multimediali sui singoli quesiti referendari);
-https://www.culturacattolica.it/frontend/exec.php;
-https://www.culturacattolica.it/frontend/exec.php?id_folder=38 (sull’embrione);
-https://www.culturacattolica.it/frontend/exec.php?id_folder=41 [sulla fecondazione in provetta (in vitro];
- https://www.culturacattolica.it/frontend/exec.php?id_content_element=1291 (sull’uso delle cellule staminali embrionali umane);
https://www.culturacattolica.it/frontend/exec.php?id_folder=42;
-https://lgxserver.uniba.it/lei/rassegna/piccola.htm (link ad articoli di quoditiani di ampia diffusione);
-https://www.vatican.va/roman_curia/secretariat_state/documents/rc_seg-st_doc_20000211_tauran-acdlife_it.html.
Colgo l'occasione per affermare, sia come cattolico osservante e praticante sia come persona pensante con piena autonomia di giudizio, che l'essere umano deve essere tutelato in ogni momento della sua vita, dall'unione dei gameti (spermatozoo ed ovulo) che danno origine allo zigote (il prodotto della fecondazione dell'ovulo) , fino alla morte naturale.Il valore supremo è la vita.
Ed è un valore sul quale qualsiasi altra considerazione, scientifica o pseudoscientifica, non può e non deve prevalere.
Bisognerebbe inoltre riflettere sul fatto che qualsiasi manipolazione genetica effettuata sull'ovulo fecondato e sugli embrioni, al fine di selezionare artificialmente le caratteristiche genetiche (eugenetica), va contro natura. E si pensi che tutto ciò che viene fatto contro l'ordine naturale, prima o poi comporta sviluppi ingovernabili dalle limitate capacità dell'uomo.
Si pensi al principio naturale dell'aumento dell'entropia, che stabilisce l'aumento naturale del disordine dell'universo, che evolve verso stati sempre più caotici, caratterizzati da differenze di temperatura sempre meno marcate, seguendo la freccia del tempo, ineluttabilmente legata all'aumento dell'entropia universale. Andare contro questa necessità universale dell'aumento del
disordine sarebbe come voler invertire la freccia naturale del tempo, che mantiene sempre lo stesso
verso sin dal momento del big bang. Anche supponendo di poter prescindere da considerazioni etiche,il voler selezionare artificialmente le caratteristiche genetiche degli esseri umani per ottenere, per esempio, a seconda dei desideri individuali dei genitori, figli sempre più alti, o con gli occhi azzuri ecc.., significherebbe ridurre artificialmente il patrimonio di informazione insito nel genoma umano, senza poter prevedere le nefaste conseguenze che questa selezione innaturale possa causare a lungo termine sulla specie umana. Sarebbe come sostituire in un libro un numero sempre crescente di pagine con pagine contenenti ciascuna una stessa parola ripetuta prima dieci, poi cento volte. Ben presto tutta l'informazione= diversità = entropia inevitabilmente verrebbe distrutta.
Questo per dire che bisogna sempre fare i conti con la nemesi (vendetta) della natura, che risponde molto lentamente, ma inesorabilmente, alla violenza dell'uomo che abbia fatto cattivo uso del libero arbitrio donatogli dal Creatore. Le alterazioni climatiche prodotte dalle attività dell'uomo non sono
altro che una particolare nemesi della natura.
1) In termodinamica i cambiamenti dello stato di aggregazione sono descritti dall'equazione di Clausius-Clapeyron: Dp/ DT = L/[T(Vfinale - Viniziale],
dove T è la temperatura di fusione in gradi Kelvin (T = temperatura in °C + 273,16) , L è il calore di trasformazione, per esempio la quantità di calore richiesta per far fondere un metallo alla temperatura costante di fusione, p è la pressione alla quale avviene la trasformazione, mentre Viniziale e Vfinale sono i volumi specifici (volumi occupati da una massa unitaria di sostanza) relativi, rispettivamente, agli stati di aggregazione iniziale e finale (solido-liquido, liquido-solido, liquido-vapore, vapore-liquido, solido-vapore, vapore-solido).
Nel caso particolare del cambiamento di stato da solido a liquido (fusione) e di quello inverso, da liquido a solido (solidificazione), se il volume specifico finale è maggiore di quello iniziale, cioè se, come avviene per la maggior parte delle sostanze, la densità allo stato liquido è minore di quella allo stato solido (volume specifico del liquido maggiore del volume specifico del solido), il rapporto Dp/ DT è positivo, il che significa che un aumento della pressione p determina un aumento della temperatura di fusione. Nel caso del ghiaccio, invece, poiché la densità dell'acqua (pari all'inverso del volume specifico) aumenta nel cambiamento di stato da solido a liquido (il ghiaccio infatti galleggia nell'acqua), il volume specifico finale è minore di quello iniziale ed il rapporto Dp/ DT è negativo, il che significa che un aumento della pressione fa abbassare il punto di fusione. Infatti un blocco di ghiaccio può essere attraversato senza spezzarsi da un filo mantenuto in tensione in modo tale da far fondere il ghiaccio al di sotto di esso, in quanto il punto di fusione è minore di 0 °C; subito dopo l'acqua di fusione passa al di sopra del filo riformando ghiaccio e consentendo così al filo di attraversare tutto il blocco.
2) Recenti ricerche della NASA, effettuate mediante satelliti, hanno consentito di spiegare come
mai, negli ultimi anni, nonostante l'entrata in vigore delle nuove direttive internazionali tendenti a limitare l'uso dei gas serra (clorofluorocarburi – CFC), la concentrazione dell'ozono nella stratosfera sovrastante le zone polari, non abbia evidenziato alcuna significativa inversione di tendenza rispetto al continuo decremento osservato da oltre un decennio. Ebbene, in base ai dati sperimentali acquisiti, che hanno evidenziato un sensibile decremento della temperatura alle quote stratosferiche, si è dedotto che questo anomalo raffreddamento dell'aria alle alte quote viene causato dal surriscaldamento dell'aria alle quote inferiori, a causa dell'aumento della concentrazione dell'anidride carbonica, e, sia pure in misura minore, del metano e del vapore acqueo. Infatti, l'anidride carbonica, il principale gas serra, riflette verso il suolo gran parte della componente infrarossa della radiazione solare, mentre il vapore acqueo, se non condensa restituendo all'ambiente il calore immagazzinato, determina una diminuzione del flusso termico verso la stratosfera.
E poiché l'ozono presente nella stratosfera è tanto più instabile quanto più bassa è la temperatura, il progressivo raffreddamento della stratosfera determina una diminuzione della concentrazione di ozono ed un aumento dell'area del buco, soprattutto in corrispondenza delle zone polari.
In altri termini, il crescente surriscaldamento dell'aria più vicina al suolo,causato dai gas serra,determina il crescente raffreddamento dell'aria alle quote superiori, con la conseguente depauperamento della concentrazione dell'ozono stratosferico.
Le norme di sicurezza da rispettare nei locali chiusi in cui si effettuino lavori di saldatura con l'arco
elettrico, richiedono l'adozione di un efficace sistema di ventilazione localizzata in prossimità del
lavoratore, proprio per garantire il rapido smaltimento dei fumi e dei vapori nocivi causati dall'elevatissima temperatura (intorno a 3800 °C). Si tenga presente in proposito che il pericolo maggiore è rappresentato dall 'elevata concentrazione di biossido d'azoto, che in presenza di umidità genera acido nitrico!
Inoltre, considerata la concentrazione volumetrica dell'ossigeno nell'aria , intorno al 20 %, i 2 litri al minuto di flusso di ossigeno effettivamente disponibile sono sicuramente insufficienti per assicurare un adeguato rinnovo dell'aria, indipendentemente dalla potenza dell'arco (da 1,5 a 6 kW).
1) Neanche la radiazione emessa da un laser può essere definita, volendo essere rigorosi, monocromatica. Infatti un laser, pur essendo caratterizzato da un'emissione coerente, sia spazialmente che temporalmente, in quanto le onde elettromagnetiche generate dal processo di emissione stimolata sono in fase tra loro, concentra la potenza emessa in righe spettrali, sì molto strette rispetto a quelle emesse da altre sorgenti, per esempio dai LED, ma pur sempre di larghezza
non nulla.
Per esempio, un diodo LASER al GaAlAs (arseniuro di gallio e alluminio),come quelli impiegati
nei lettori e masterizzatori di CDROM e DVD, emette una potenza di alcuni milliwatt, distribuita in 10 o 20 righe spettrali larghe intorno a 0,2 – 0,25 nanometri, con uno spettro complessivo compreso tra 2 e 5 nanometri, rispetto ai 20 o 30 nanometri di larghezza spettrale di un diodo LED.
Pertanto l'aggettivo “monocromatico” viene usato convenzionalmente, senza attenersi rigorosamente all'etimologia.
Per quanto riguarda la distribuzione spettrale di Planck,bisogna ricordare che essa
si riferisce soltanto allo spettro continuo della radiazione termica emessa da un
corpo nero ad una data temperatura. Nel caso del LASER ,invece, si tratta di uno
spettro discreto (a righe) associato unicamente ai fenomeni atomici di emissione stimolata che si verificano in una cavità ottica risonante. Pertanto la
distribuzione di Planck non c'entra.
2) L'inversione delle righe di assorbimento di Fraunhofer si spiega considerando che la cromosfera che ricopre la fotosfera, è molto rarefatta rispetto a questa ed ha una temperatura che aumenta gradualmente da 4000 °K , al confine con la fotosfera, fino a 10000 °K , al confine con la corona solare. La differenza tra le righe di assorbimento fotosferiche e quelle di emissione cromosferiche
consiste nel fatto che, mentre le prime sono dovute all'assorbimento della radiazione a spettro continuo (di Planck) che si genera al di sotto della fotosfera, meno calda della cromosfera, in corrispondenza delle lunghezze d'onda caratteristiche dell'idrogeno (righe Ha, Hb ed Hg), le seconde sono dovute alla radiazione a spettro continuo che, dopo avere attraversato la fotosfera, viene assorbita e riemessa in tutte le direzioni dall'idrogeno molto rarefatto della cromosfera.
Per comprendere questo concetto bisogna considerare che la radiazione assorbita da un atomo in corrispondenza delle sue lunghezze d'onda caratteristiche viene riemessa subito dopo (entro un intervallo di tempo pari alla vita media degli stati eccitati, intorno a 1 nanosecondo) in tutte le direzioni. Infatti, se con uno spettroscopio si studiasse la luce diffusa da un ampolla di vetro contenente un gas, in direzioni diverse da quella di propagazione del raggio di luce bianca che illumina il gas, si osserverebbero delle righe di emissione (luminose) in corrispondenza delle stesse lunghezze d'onda caratteristiche delle righe di assorbimento (nere) rilevabili nella direzione di propagazione della luce bianca incidente. Ecco perchè le righe di emissione (righe luminose cromosferiche) appaiono in corrispondenza delle stesse lunghezze d'onda delle righe di assorbimento fotosferiche (di Fraunhofer).
Durante un'eclissi totale di sole, qualche secondo prima che la Luna occulti completamente il disco solare , si osserva un bordo circolare rossastro che corrisponde allo spessore della cromosfera ed è caratterizzato da uno spettro di emissione con le stesse lunghezze d'onda delle righe di Fraunhofer ed osservabile per qualche istante (spettro lampo), grazie al fatto che la debole luce diffusa in tutte le direzioni dall'idrogeno della cromosfera riesce a prevalere sull'intensa luce di sfondo della fotosfera, temporaneamente occultata. Un altro breve spettro lampo è osservabile sul bordo solare opposto qualche secondo prima che la fotosfera torni a risplendere.