La legge di Dalton, che afferma che la pressione totale di una miscela di gas è la somma delle pressioni parziali dei singoli componenti, è un principio che si applica con buona approssimazione alle pressioni del vapore fino a diverse atmosfere. Ma in che modo la presenza dell’aria influisce sul funzionamento della pentola a pressione? Se osserviamo il diagramma della figura 2.19 (b), vediamo che la pressione dell'aria si aggiunge alla pressione del vapore, che inizialmente è di 0,023 bar. Questo porta a una pressione totale di 1,023 bar. Fin qui tutto chiaro. Quando si riscalda il recipiente a volume costante, la pressione di saturazione del vapore d’acqua aumenta progressivamente. A 70 °C la pressione di saturazione è 0,3 bar, mentre a 90 °C è già 0,7 bar. Questi valori si trovano nelle tabelle del vapore per lo stato saturo (p. 398).

Secondo le leggi dei gas, la pressione dell'aria aumenta anch'essa quando riscaldata a volume costante. A 90 °C, la pressione raggiunge circa 1,3 bar. Ma ecco il punto cruciale: il manometro della pentola a pressione non misura la pressione parziale del vapore d’acqua né quella dell'aria, ma la pressione totale della combinazione di entrambi. Come abbiamo appena calcolato, a 90 °C la pressione totale è di 1,3 bar + 0,7 bar = 2 bar. Di conseguenza, la valvola si apre a 90 °C, prima che l'acqua raggiunga il suo punto di ebollizione. L'aria presente sabota quindi il funzionamento della pentola a pressione in modo significativo. Invece di cuocere i cibi a temperature superiori ai 100 °C, l'acqua non arriva nemmeno a bollire.

Se l'utente segue in modo acritico le istruzioni del manuale della pentola e spegne il fornello quando l'ago della pressione si alza, aprirà la pentola trovando il cibo crudo. Tuttavia, c’è speranza: ignorando le istruzioni e non spegnendo il calore, sempre più acqua si trasformerà in vapore, che sfuggirà dalla valvola. Questo processo espellerà progressivamente l'aria contenuta, permettendo alla pentola di essere ventilata. Dopo un po', la pentola riprenderà la sua funzione di cottura ad alta velocità: la pressione del vapore sarà di 2 bar e la temperatura salirà a 120 °C. I cibi cuoceranno, ma richiederanno più tempo.

L’approfondimento sulla cottura in pentola a pressione non sarebbe completo senza considerare l’effetto della temperatura aumentata sulle reazioni chimiche. Come abbiamo visto nel Capitolo 1, la cottura di diversi alimenti avviene attraverso meccanismi molecolari differenti. Sorprendentemente, la termodinamica ci offre una legge fisica che può spiegare i tempi di cottura più brevi nella pentola a pressione, anche se conosciamo pochi dettagli riguardo alle reazioni chimiche sottostanti. Questa legge, spesso utilizzata in ingegneria e in ambito industriale, è nota come legge di Arrhenius.

Secondo questa legge, la velocità di una reazione chimica raddoppia ogni volta che la temperatura aumenta di 10 °C. A temperature più alte, le reazioni chimiche avvengono più velocemente. Lo stesso principio si applica alle reazioni chimiche che avvengono durante la cottura del cibo in una pentola a pressione. Le due impostazioni di calore di cui si parla nel manuale (temperatura di 107 °C e 120 °C) corrispondono a un aumento della temperatura di 7 °C e 20 °C rispettivamente. Di conseguenza, la velocità di cottura dovrebbe raddoppiare o quadruplicare. Pertanto, il tempo di cottura dovrebbe ridursi a metà o a un quarto rispetto al tempo tradizionale.

Un test pratico di questa previsione si può fare confrontando i tempi di cottura di diversi alimenti in una pentola a pressione rispetto alla cottura tradizionale. I risultati mostrano che la legge empirica fornisce stime soddisfacenti sui tempi di cottura, sebbene sia sempre importante considerare che il cibo non raggiunge istantaneamente la temperatura interna desiderata, ma si riscalda gradualmente dall'esterno verso l'interno.

Questa regola empirica si basa su una legge fondamentale della chimica fisica: l’equazione di Arrhenius, che descrive la dipendenza della velocità di una reazione chimica dalla temperatura. L’equazione di Arrhenius è espressa come:

k(T)exp(EART)k(T) \propto \exp\left( -\frac{E_A}{RT} \right)

Dove k(T)k(T) è la costante della velocità di reazione a temperatura TT, EAE_A è l'energia di attivazione della reazione, e RR è la costante universale dei gas (8,314 J/(mol·K)). L'energia di attivazione EAE_A rappresenta l'energia necessaria per passare dallo stato iniziale allo stato di transizione con l'energia più alta durante una reazione chimica.

La legge di Arrhenius, purtroppo, non si applica solo alla cottura del cibo. In effetti, può anche spiegare comportamenti curiosi osservati in natura. Ad esempio, il ritmo del canto delle cicale o la frequenza dei lampi delle lucciole sono legati alla temperatura ambiente attraverso questa legge. Poiché gli organismi poichilotermi, come le cicale, hanno una temperatura corporea che varia in funzione della temperatura esterna, i loro processi chimici, inclusa la contrazione dei muscoli che produce il canto, accelerano o rallentano a seconda della temperatura.

In sintesi, comprendere come la pressione e la temperatura influenzano i tempi di cottura in una pentola a pressione, in relazione alla fisica e alla chimica delle reazioni, non solo ottimizza i risultati in cucina, ma offre anche un interessante esempio di come leggi fisiche universali regolano fenomeni complessi in natura. È fondamentale quindi non solo conoscere i dettagli teorici di come funziona una pentola a pressione, ma anche considerare l'effetto delle variabili ambientali e delle reazioni chimiche sui processi di cottura.

Come funziona il barometro di Goethe e il dispositivo di Drebbel: misurare pressione e temperatura

Il dispositivo di Drebbel, come il barometro di Goethe, sfrutta i cambiamenti di livello dell'acqua come indicatore di variazioni nella pressione atmosferica. Quando si verifica una transizione meteorologica da alta a bassa pressione, la pressione atmosferica oscilla normalmente entro un intervallo di circa 30 hPa. Il cambiamento nel livello dell'acqua all'interno del dispositivo di Drebbel rispecchierà questa variazione di pressione. La similitudine tra il dispositivo di Drebbel e il barometro di Goethe si basa sul medesimo principio fisico: l'aria intrappolata all'interno del dispositivo reagisce in modo simile ai cambiamenti di temperatura e pressione.

Il barometro di Goethe, che si trova talvolta in fiere di piccole arti e mestieri, utilizza una colonna di acqua che si muove all'interno di un piccolo tubo. Quando la pressione atmosferica diminuisce, il livello dell'acqua nel beccuccio del barometro si alza, mentre con un aumento della pressione, il livello scende. Sebbene il principio di funzionamento di questo barometro sia simile a quello del dispositivo di Drebbel, la differenza di geometria tra i due li rende diversi nelle prestazioni. Nel barometro di Goethe, la variazione del livello dell'acqua è meno marcata rispetto a quella del dispositivo di Drebbel, dato che il rapporto tra l'area della sezione trasversale del beccuccio e il volume di aria racchiuso nel dispositivo è inferiore. Per esempio, in un barometro di Goethe il livello dell'acqua può diminuire di circa 3 cm con un aumento di 10 hPa nella pressione atmosferica.

Tuttavia, nonostante la sua utilità come indicatore di pressione atmosferica, il barometro di Goethe non è privo di limiti, in quanto reagisce anche alle variazioni di temperatura. Questo lo rende meno affidabile come strumento esclusivo per misurare la pressione atmosferica, soprattutto in ambienti con forti fluttuazioni termiche.

Il dispositivo di Drebbel, dal canto suo, non è solo un barometro, ma può anche funzionare come termometro. Quando la pressione atmosferica rimane costante, un aumento di temperatura provoca l'espansione del gas intrappolato, facendo abbassare il livello dell'acqua in uno dei bracci del dispositivo. Al contrario, una diminuzione della temperatura provoca una contrazione del gas e un innalzamento del livello dell'acqua. In questo caso, il dispositivo di Drebbel agisce come un termometro a gas. Il cambiamento nel livello dell'acqua, che può essere di circa 3,1 cm per ogni incremento di 1 °C, è il risultato dell'espansione o contrazione del gas racchiuso a seguito delle variazioni di temperatura.

La possibilità di utilizzare il dispositivo di Drebbel come termometro è una dimostrazione concreta della versatilità degli strumenti sviluppati nei secoli passati. Non solo misurano la pressione atmosferica, ma possono anche servire come indicatori di temperatura, allineandosi con le fondamenta della termodinamica, dove la relazione tra pressione e temperatura è uno dei principi chiave.

Esiste una lunga tradizione di tentativi di creare orologi atmosferici, dispositivi che utilizzano le variazioni di pressione e temperatura per muovere ingranaggi e meccanismi. Un esempio affascinante è l'orologio perpetuo progettato da James Cox nel 1760. Cox, famoso per la sua abilità di orologiaio, presentò un orologio che non necessitava di essere caricato manualmente grazie all'uso di un barometro che, a seconda delle fluttuazioni del livello di mercurio, alimentava il movimento del meccanismo. Sebbene questi orologi non siano più in uso, testimoniano l'ingegnosità degli scienziati e degli artigiani nel cercare di coniugare scienza e tecnologia in modi innovativi.

In modo simile, nel 1927, Jean-Léon Reutter progettò un altro orologio atmosferico, chiamato "Atmos", che sfruttava le minime variazioni di temperatura per generare energia necessaria al movimento del meccanismo. Questo orologio divenne un successo mondiale, con oltre 750.000 esemplari prodotti.

Anche se oggi le tecnologie sono evolute, il concetto alla base di questi dispositivi rimane rilevante, mostrando come la scienza della fisica possa integrarsi con l'ingegneria per creare strumenti pratici e affascinanti. La comprensione dei principi fisici che governano questi dispositivi ci offre anche una panoramica della storia della scienza, dove la curiosità e l'ingegno umano hanno portato alla nascita di strumenti capaci di misurare e monitorare con precisione i fenomeni naturali che ci circondano.

L'utilizzo di gas come termometro, pur essendo concettualmente brillante, presenta alcune difficoltà pratiche, principalmente a causa delle caratteristiche non ideali dei gas reali. Tuttavia, la teoria dei gas ideali offre un modo teorico per misurare la temperatura indipendentemente dalle proprietà specifiche delle sostanze utilizzate. La legge che lega la pressione e la temperatura di un gas ideale, come esemplificato nella formula p/T=pref/Trefp/T = p_{\text{ref}}/T_{\text{ref}}, offre una base per la definizione di una scala termometrica universale. L'accuratezza di questo approccio può essere migliorata misurando il comportamento di vari gas e confrontando i risultati, nonostante le piccole deviazioni dai comportamenti ideali.

In pratica, l'uso di un termometro a gas, come quello progettato da Jolly, mostra come una variazione di temperatura possa essere tradotta in un movimento misurabile attraverso l'espansione e la compressione di un gas a volume costante. Sebbene questi termometri siano meno comuni nell'uso quotidiano, la loro rilevanza nella storia della termodinamica e nella misura della temperatura non può essere sottovalutata.

Quanto può viaggiare una molecola prima di scontrarsi?

Nel tentativo di stimare la distanza media che una molecola di gas può percorrere prima di urtare un’altra, si introduce il concetto di cammino libero medio, una grandezza fondamentale nella teoria cinetica dei gas. Il presupposto di base è che, in un’approssimazione rozza, le ombre proiettate dalle particelle – intese come sfere – non si sovrappongano. In questo quadro semplificato, l’area totale delle ombre risulta essere NσN \sigma, dove NN è il numero di particelle e σ\sigma la sezione d’urto efficace di ciascuna particella. Espressa in termini di densità numerica nˉ\bar{n} e volume VV, si ha:

Nσ=nˉVσ=nˉAxσN \sigma = \bar{n} V \sigma = \bar{n} A x \sigma
dove AA è la superficie frontale e xx una distanza caratteristica.

Si definisce cammino libero medio ll la distanza che una particella percorre, in media, prima di subire una collisione. Convenzionalmente, si stabilisce che ll è tale per cui la probabilità di collisione attraverso uno spessore di gas pari a ll sia del 50%. In questa condizione, le ombre delle sfere coprono la metà della superficie frontale, e da ciò segue:

nˉAlσ=12Al=12nˉσ\bar{n} A l \sigma = \frac{1}{2} A \quad \Rightarrow \quad l = \frac{1}{2\bar{n}\sigma}

Una derivazione più rigorosa, che tiene conto sia delle sovrapposizioni tra particelle sia del moto proprio delle molecole, porta alla stessa struttura matematica, con una costante numerica leggermente diversa. Tuttavia, qualsiasi modello realistico dovrebbe abbandonare l’idea di particelle classiche con contorni ben definiti per abbracciare le nubi di probabilità della meccanica quantistica, all’interno delle quali la posizione di una particella non è definita con certezza. La teoria cinetica resta quindi un modello utile, ma approssimativo, che non può ambire a calcolare con precisione sezioni d’urto o probabilità specifiche di collisione.

Ciononostante, l’efficacia predittiva del modello resta sorprendente. La teoria permette, ad esempio, di determinare che a temperatura costante due gas diversi hanno molecole con la stessa energia cinetica media. Poiché l’energia cinetica è proporzionale alla massa e alla velocità al quadrato, molecole più leggere devono necessariamente muoversi più velocemente. A 300 K, le molecole di azoto si muovono mediamente a 476 m/s – leggermente più rapide rispetto a quelle di ossigeno.

Se si assume un valore approssimativo per il raggio molecolare, ad esempio r1010r \approx 10^{ -10} m, e si utilizza una densità numerica tipica di nˉ2.7×1025\bar{n} \approx 2.7 \times 10^{25} molecole/m³ (corrispondente a 22,4 mol/L a temperatura e pressione standard), la formula del cammino libero medio fornisce:

l=12nˉσ=122.7×1025π(21010)21.5×107 ml = \frac{1}{2 \bar{n} \sigma} = \frac{1}{2 \cdot 2.7 \times 10^{25} \cdot \pi (2 \cdot 10^{ -10})^2} \approx 1.5 \times 10^{ -7} \text{ m}
Ciò significa che tra due urti successivi, una molecola percorre una distanza pari a circa 1500 volte il proprio raggio. Su scala macroscopica, una distanza di 150 nm resta comunque estremamente piccola.

Questo risultato risolve un antico paradosso della teoria cinetica: se le molecole si muovessero effettivamente a velocità dell’ordine delle centinaia di metri al secondo, perché, ad esempio, il profumo di un’essenza non invade istantaneamente tutta la stanza? La risposta è che, pur muovendosi velocemente, le molecole cambiano direzione a ogni urto, seguendo traiettorie altamente irregolari e zigzaganti. Questo movimento caotico si traduce, su grande scala, in una diffusione molto più lenta.

Il moto irregolare delle particelle microscopiche sospese in un fluido, osservato per la prima volta nel 1827 da Robert Brown, trova proprio in questi urti incessanti la sua spiegazione fisica. Brown, studiando al microscopio il polline immerso in acqua, scoprì un movimento continuo, disordinato, impossibile da spiegare con la presenza di organismi viventi. Ripeté i suoi esperimenti con polveri di piante morte, fossili, rocce, perfino con polvere raccolta per le strade di Londra. Il risultato era sempre lo stesso: particelle in moto perenne.

La spiegazione fu fornita quasi ottant’anni dopo da Einstein e, in parallelo, da Smoluchowski. Il moto browniano è oggi interpretato come manifestazione delle fluttuazioni statistiche delle forze esercitate dalle molecole del fluido su una particella sospesa. Ogni particella visibile è sottoposta a miliardi di urti in ogni istante, ma su tempi brevi queste forze non si equilibrano e generano uno spostamento caotico.

Einstein notò che questo fenomeno rendeva visibile per la prima volta la struttura atomica della materia, offrendo una prova sperimentale indiretta ma cruciale dell’esistenza degli atomi. Una particella sospesa si muove, apparentemente senza causa, ma in realtà trascinata dall’assalto incessante di molecole invisibili. Le fluttuazioni di quantità di moto, generate da questi urti, si traducono in vibrazioni imprevedibili, che testimoniano l’agitazione termica dell’ambiente.

Il moto browniano ha implicazioni fondamentali non solo in fisica statistica, ma anche in chimica, biologia e finanza. La sua esistenza impone una visione probabilistica della realtà microscopica e mostra i limiti del determinismo classico, che risulta inadatto a descrivere fenomeni dove domina il caso. È un punto d’incontro tra caos e ordine, tra il microscopico invisibile e il mondo tangibile dell’esperienza quotidiana.

Per comprendere pienamente il significato del cammino libero medio e del moto browniano, è fondamentale riconoscere che entrambi si fondano sulla statistica e non sul comportamento individuale delle molecole. La legge dei grandi numeri regola questi fenomeni. Non è il singolo urto che conta, ma la somma di miliardi di urti, ciascuno imprevedibile, ma collettivamente descrivibile con sorprendente precisione. Questa è la grande forza della teoria cinetica: la sua capacità di trarre ordine dal disordine.

Come si formano le termiche e come possiamo individuarle nell’atmosfera?

Nel cuore della meteorologia applicata al volo libero si trova la comprensione dei processi adiabatici e delle termiche. Una delle chiavi per prevedere e interpretare tali fenomeni è l’analisi dei diagrammi "skew-T", che rappresentano verticalmente la pressione atmosferica (in scala logaritmica) e orizzontalmente la temperatura (in °C), con isoterme inclinate a 45° verso destra. Questo tipo di rappresentazione permette di leggere in modo più intuitivo la struttura verticale dell’atmosfera e i profili di temperatura e umidità relativi al giorno dell’osservazione.

Nel caso analizzato a Bergen, la temperatura decresce in modo quasi continuo fino a circa 10.000 metri, con un gradiente termico medio di circa 0,75 °C ogni 100 metri. Tuttavia, si osservano inversioni locali di temperatura, dove l’aria si riscalda salendo. Un esempio evidente è l’inversione al suolo, dovuta al raffreddamento notturno della superficie terrestre per irraggiamento: al mattino, l’aria vicino al suolo è più fredda di quella sovrastante. Tale inversione, che raggiunge circa 200 metri di altezza, tende a dissiparsi durante la mattinata a causa dell’irraggiamento solare.

La distanza orizzontale tra la curva della temperatura e quella del punto di rugiada fornisce una stima dell’umidità relativa: più sono vicine, più l’aria è umida. Fino a 2000 metri l’umidità dell’aria è elevata (70–80%). Tra 3000 e 3500 metri le due curve si toccano, indicando un livello di condensazione e quindi possibile formazione di nubi. Oltre lo strato d’inversione a 3400 metri, che limita gli scambi verticali, l’aria diventa molto secca e la curva della temperatura si discosta notevolmente da quella del punto di rugiada.

Nel diagramma skew-T si tracciano anche linee adiabatiche secche (marroni) e adiabatiche umide (verdi), fondamentali per descrivere il comportamento delle masse d’aria ascendenti. Le linee tratteggiate blu indicano il contenuto costante di umidità. Sopra i 10.500 metri si riconosce la tropopausa, con la curva di temperatura che si appiattisce e segue le isoterme nella stratosfera, dove la temperatura resta quasi costante attorno ai −50 °C.

Le termiche sono moti ascendenti d’aria calda, indispensabili per alianti, parapendii e deltaplani. Esse si formano su superfici che si riscaldano più rapidamente rispetto all’ambiente circostante. I fattori determinanti sono l’albedo – cioè la capacità riflettente del suolo – e il contenuto di umidità del terreno. Superfici scure e asciutte, come asfalto, campi di cereali secchi, coltivazioni di patate o foreste di con