W teorii kinetycznej gazów zajmujemy się cząstkami gazu, które zderzają się ze ścianką naczynia i w wyniku tego przekazują pęd. Na podstawie tego przekazu pędu możemy wyznaczyć ciśnienie gazu – jest to więc wielkość mechaniczna, zależna od wymiany pędu. Istotnym elementem, który wyróżnia tę teorię, jest zastosowanie metod statystycznych. Zamiast badać trajektorie i prędkości pojedynczych cząsteczek, koncentrujemy się na badaniu zbioru cząsteczek jako układu statystycznego. Wielkości makroskalowe używane w termodynamice wynikają z wartości średnich mikroskalowych wielkości ruchu – w ten sposób temperatura ściśle łączy się ze średnią energią kinetyczną cząsteczek gazu.

Podejście statystyczne jest konieczne z powodu samej natury systemów badanych w termodynamice. Są to układy zawierające olbrzymią liczbę cząsteczek. Już najmniejszy sześcian o boku wynoszącym jedną trzecią mikrometra zawiera miliony cząsteczek powietrza. Wysoka liczba cząsteczek nawet w najmniejszych objętościach gazów sprawia, że badanie pojedynczych cząsteczek staje się niemożliwe. Dlatego redukcja złożoności, którą wprowadza opis statystyczny, okazuje się bardzo skuteczna. Trudno oczekiwać, że tak mikroskalowe procesy można będzie opisać przy użyciu kilku zmiennych.

Teoria kinetyczna gazów różni się od mechaniki statystycznej i statystyki kwantowej. Zajmuje się tylko prostymi układami modelowymi, takimi jak gaz idealny, posługując się podstawowymi metodami statystycznymi. W przypadku bardziej złożonych układów konieczne są bardziej zaawansowane metody, jak te stosowane w mechanice statystycznej. Natomiast uwzględniając kwantowy charakter materii, przenosimy się w obszar statystyki kwantowej, która opiera się na mechanice kwantowej zamiast klasycznej. W tej książce skupimy się jednak na prostszych układach teoretycznych, takich jak gaz idealny.

Model mikroskalowy gazu idealnego zakłada, że cząsteczki gazu poruszają się zgodnie z zasadami mechaniki klasycznej. Oddziaływania kwantowe są pomijane. Model opiera się na kilku założeniach: po pierwsze, cząsteczki gazu poruszają się prostoliniowo i z jednostajną prędkością, dopóki nie dojdzie do zderzenia. Po drugie, zderzenia cząsteczek są sprężyste, co oznacza, że energia i pęd są zachowane. Założenie to wiąże się z pominięciem oddziaływań przyciągających i odpychających między cząsteczkami, które zazwyczaj są zaniedbywalne, gdy odległość między nimi jest wystarczająco duża. Cząsteczki poruszają się swobodnie, dopóki nie napotkają na ścianki naczynia, które zatrzymują ich ruch, powodując zderzenia. Podczas zderzenia nie wnikamy w szczegóły interakcji, ale zakładamy, że energia i pęd są w pełni zachowane.

W praktyce możemy obserwować, jak zasada działania ciśnienia znajduje zastosowanie w prostych mechanizmach, jak np. w ekspresie do kawy „Bacchi Carioca”. Ten ekspres wykorzystuje siłę ciśnienia pary do napompowania wody przez zmieloną kawę. Pomimo braku skomplikowanych mechanizmów elektronicznych, urządzenie bazuje na prostej zasadzie: zwiększenie ciśnienia w jednym miejscu powoduje jego wzrost w innym miejscu. Jest to klasyczny przykład, gdzie siła pary wodnej wywiera nacisk na tłok, który z kolei podnosi ciśnienie w górnym zbiorniku na kawę do około 9 barów.

Statystyczne podejście do ciśnienia, które jest podstawą kinetycznej teorii gazów, odnosi się bezpośrednio do zjawisk mikroskalowych. Zgodnie z definicją, ciśnienie gazu jest wynikiem sił, jakie cząsteczki wywierają na powierzchnię, z którą mają kontakt. Zderzając się ze ścianką naczynia, cząsteczki gazu przekazują swoją energię kinetyczną, co powoduje wywołanie nacisku na powierzchnię. Na poziomie makroskalowym ciśnienie gazu jest związane z całkowitą liczbą zderzeń cząsteczek, a także z ich prędkościami.

Ponadto, ciśnienie jest wielkością skalarową, co oznacza, że nie ma ono kierunku. Definicja ciśnienia, zawarta w równaniu p=FAp = \frac{F}{A}, może być stosowana zarówno do gazów, jak i cieczy. Jest to wartość charakteryzująca stopień „ściśnięcia” gazu, a nie siłę wywieraną na daną powierzchnię. W praktyce oznacza to, że ciśnienie wywierane przez gaz nie zależy od orientacji powierzchni, na którą działa. Na przykład, barometr aneroidowy mierzy ciśnienie atmosferyczne, reagując na wgniecenie elastycznej membrany pod wpływem zmiany ciśnienia zewnętrznego. Ciśnienie gazu, rozumiane jako „nacisk” cząsteczek gazu na powierzchnię, jest kluczowym czynnikiem determinującym wiele procesów fizycznych i chemicznych.

Zatem w ramach kinetycznej teorii gazów, analiza mikroskalowa ciśnienia, w której skupiamy się na zachowaniach cząsteczek, pozwala na uzyskanie pełnego obrazu oddziaływań wewnętrznych gazów. Należy zwrócić uwagę na fakt, że w rzeczywistości nie każde zderzenie cząsteczek jest idealnie sprężyste, a dodatkowe interakcje między cząsteczkami, takie jak siły Van der Waalsa, zaczynają nabierać znaczenia w bardziej złożonych układach gazów.

Jakie są różnice między cV i cp w kontekście pierwszej zasady termodynamiki?

W przypadku gazów, ciepło właściwe przy stałej objętości (cV) oraz ciepło właściwe przy stałym ciśnieniu (cp) są zawsze różne. Badania eksperymentalne pokazują, że cp jest zawsze większe od cV. Wykres 2.3 na stronie 18 ilustruje to bardzo wyraźnie: gdy ciśnienie jest stałe, podgrzany gaz podnosi pokrywę i wykonuje pracę graniczną. Energia potrzebna do podniesienia pokrywy, która może pochodzić wyłącznie z dostarczonego ciepła, nie jest już dostępna do podgrzewania zawartości.

Aby lepiej zrozumieć różnicę między tymi dwoma pojęciami, przyjrzymy się matematycznemu wyprowadzeniu z pierwszej zasady termodynamiki, która stanowi fundament tych rozważań. Przyjmujemy, że pomijamy energię kinetyczną i potencjalną, a jedyną formą pracy jest praca graniczna. Wówczas pierwsza zasada termodynamiki przyjmuje postać:

ΔU=QpΔV\Delta U = Q - p \Delta V

gdzie zmienne w tej równaniu oznaczają: ∆U to zmiana energii wewnętrznej gazu, Q to całkowita ilość ciepła, a p dV to praca graniczna. Każde z tych pojęć jest związane z całkowitymi wartościami, co oznacza, że opisuje one zmiany zachodzące w całym procesie.

Analiza różniczkowa, która pozwala skupić się na nieskończenie małych zmianach zamiast na całkowitych wartościach, jest przydatna w wielu zastosowaniach termodynamiki. Aby to zrobić, wprowadzamy parametr kontrolny z, który opisuje przebieg procesu. Na przykład, rozważając tłok silnika spalinowego, możemy przyjąć, że objętość V zmienia się w wyniku ruchu tłoka. W zależności od wygody, możemy przyjąć, że parametrem kontrolnym będzie czas t, kąt obrotu ϕ, pozycja tłoka x lub objętość V.

Za pomocą tego parametru kontrolnego różniczkowa forma pierwszej zasady termodynamiki przyjmuje postać:

dUdz=dQdzpdVdz\frac{dU}{dz} = \frac{dQ}{dz} - p \frac{dV}{dz}

gdzie dQdz\frac{dQ}{dz} nie oznacza zmiany zmiennej stanu (ponieważ ciepło nie jest zmienną stanu), lecz ilość ciepła przepływającą przez granice układu. Dla przykładu, energia wewnętrzna gazu może zależeć od temperatury, a temperatura z kolei może zależeć od parametru kontrolnego z. W takim przypadku, przy obliczaniu pochodnych, należy zastosować regułę łańcuchową.

Gdy weźmiemy pod uwagę ciepło właściwe przy stałej objętości cV, proces opisany na rysunku 6.20 (a) przyjmujemy jako przykład. Gdy do gazu dostarczane jest ciepło Q przy stałej objętości, zakłada się, że funkcja U(T, V) jest znana. Wówczas równanie pierwszej zasady przyjmuje postać:

dUdT=mcV\frac{dU}{dT} = m c_V

Oznacza to, że zmiana energii wewnętrznej gazu przy stałej objętości jest bezpośrednio związana z ciepłem dostarczanym do gazu i jego temperaturą. Wzór ten opisuje także relację między zmianą energii wewnętrznej a temperaturą w warunkach stałej objętości.

Podobnie, dla ciepła właściwego przy stałym ciśnieniu (cp), proces opisany na rysunku 6.20 (b) przedstawia sytuację, gdy gaz rozpręża się pod wpływem dostarczanego ciepła. W tym przypadku, wykonana praca graniczna oznacza, że część energii dostarczonej do gazu zostaje zużyta na rozszerzanie gazu. Wówczas równanie pierwszej zasady przyjmuje postać:

dHdT=mcp\frac{dH}{dT} = m c_p

gdzie H to entalpia gazu, która jest definiowana jako suma energii wewnętrznej i energii związanej z objętością gazu pod wpływem ciśnienia:

H=U+pVH = U + pV

Enthalpia jest szczególnie przydatna przy analizie procesów, w których ciśnienie pozostaje stałe, co upraszcza obliczenia związane z energią wymaganą do podgrzewania gazu przy takim procesie.

Na koniec warto zauważyć, że w termodynamice często posługujemy się notacją różniczkową, co pozwala na uproszczenie zapisów równań. Na przykład, równanie dla zmiany energii wewnętrznej przyjmuje formę:

dU=dQpdVdU = dQ - p dV

Jest to zapis, który na pierwszy rzut oka może wydawać się mniej intuicyjny, ale w rzeczywistości upraszcza obliczenia, szczególnie gdy mamy do czynienia z różnymi procesami o różnych parametrach kontrolnych. Równania różniczkowe pomagają w uchwyceniu drobnych, ale istotnych zmian w systemie termodynamicznym.

Rozważając różnice między cV i cp w kontekście gazów idealnych, można zauważyć, że różnica między tymi dwoma wartościami wynika z dodatkowej pracy, jaką wykonuje gaz przy stałym ciśnieniu. Równania, które łączą te dwa współczynniki, pozwalają na pełniejsze zrozumienie procesów termodynamicznych zachodzących w gazach oraz wyznaczenie parametrów potrzebnych do dokładnego opisu tych procesów.

Jakie są najskuteczniejsze metody zmniejszania emisji CO2 i jak je zastosować?

Aby skutecznie przeciwdziałać zmianom klimatycznym, należy zająć się ich przyczynami. Modele klimatyczne jednoznacznie wskazują, że wzrost temperatury jest niemal na pewno wynikiem działalności człowieka, w szczególności wzrostu gazów cieplarnianych w atmosferze. Dwutlenek węgla (CO2) odgrywa w tym procesie kluczową rolę. Gaz ten powstaje w wyniku procesów spalania, takich jak palenie węgla, ropy naftowej czy gazu ziemnego. Emisje CO2 związane z działalnością człowieka są więc nierozerwalnie związane z naszym zużyciem energii pochodzącej z paliw kopalnych.

W odpowiedzi na rosnące zagrożenie zmianami klimatycznymi, w wielu krajach wprowadzono szerokie programy mające na celu ograniczenie emisji gazów cieplarnianych. Pojawia się jednak pytanie: które z tych działań są najbardziej skuteczne i jakie mają najlepszy stosunek nakładów do efektów? Które sektory mogą przynieść największe korzyści przy rozsądnych wysiłkach, a które działania będą miały mniejszy wpływ na globalny problem? W odpowiedzi na te pytania nauki przyrodnicze, w tym fizyka, odgrywają kluczową rolę.

Analizując zużycie energii przez gospodarstwa domowe w Stanach Zjednoczonych, można zauważyć, że aż dwie trzecie całkowitego zużycia energii pochodzi z dwóch obszarów: ogrzewania pomieszczeń i transportu. Oświetlenie, choć istotne, stanowi tylko 5% całkowitego zużycia energii. Choć z punktu widzenia indywidualnego użytkownika zawsze warto gasić światło, aby zaoszczędzić energię, to w skali globalnej nie jest to szczególnie efektywne. Nawet przy największych wysiłkach na rzecz oszczędzania energii w obszarze oświetlenia, nie rozwiążemy w ten sposób więcej niż 5% problemu. Zdecydowanie skuteczniejsze będzie ograniczenie emisji z transportu lub oszczędności energii na ogrzewaniu.

Z pomocą przychodzi termodynamika, która pozwala znaleźć bardziej efektywne sposoby ogrzewania. Przykładem takiej technologii jest pompa ciepła. Zanim jednak skupimy się na tej metodzie, warto spojrzeć na tradycyjne sposoby ogrzewania domów, które opierają się na spalaniu paliw. Choć przez wiele lat technologia ta była udoskonalana, jej podstawowa zasada pozostała niezmieniona: paliwo jest spalane, a energia uwolniona w tym procesie wykorzystywana do ogrzewania pomieszczeń. Dzięki nowoczesnym kotłom kondensacyjnym, w których dodatkowo wykorzystuje się ciepło kondensacji pary wodnej zawartej w spalinach, efektywność ogrzewania uległa poprawie, ale wciąż jest to klasyczny sposób przekazywania energii.

Jednakże istnieje sposób na efektywniejsze wykorzystanie energii: pompy ciepła. Co to właściwie oznacza? Pompa ciepła dostarcza energię do domu, pozyskując ją z zimnego powietrza na zewnątrz (lub z gruntu). Aby podnieść temperaturę w pomieszczeniu, powietrze zewnętrzne jest schładzane jeszcze bardziej, co na pierwszy rzut oka może wydawać się nieintuicyjne. Zwykle ciepło przemieszcza się z ciał gorących do zimnych, a tutaj zachodzi proces odwrotny: ciepło jest przekazywane z zimnego ciała do gorącego. Wymaga to jednak nakładu energii, którą musimy dostarczyć do pompy ciepła, aby mogła działać. Jest to przykład tzw. efektywnego termodynamicznie sposobu ogrzewania.

W praktyce pompy ciepła działają na prąd elektryczny, a nie na paliwa kopalne, takie jak węgiel czy gaz. Podobnie działają klimatyzatory i lodówki, które również są rodzajem pomp ciepła, choć ich celem jest raczej chłodzenie niż ogrzewanie. Pod względem termodynamicznym, zarówno klimatyzatory, jak i lodówki, to urządzenia, które wykorzystują ten sam podstawowy mechanizm działania, co pompy ciepła.

Pompy ciepła działają na zasadzie transportu energii pomiędzy dwoma rezerwuarami ciepła: zimnym (powietrze zewnętrzne) i gorącym (powietrze w pomieszczeniu). Zasada ta opiera się na tzw. bilansie energetycznym, zgodnie z którym energia transportowana przez pompę musi być zrównoważona pracą, którą włożymy w jej działanie. Warto zaznaczyć, że pompy ciepła, chociaż są bardziej efektywne niż tradycyjne metody spalania paliw, nadal wymagają energii zewnętrznej do pracy. Kluczową kwestią jest jednak to, że używają one energii z otoczenia, co czyni je znacznie bardziej ekologicznymi i efektywnymi niż tradycyjne systemy grzewcze.

W praktyce warto zatem inwestować w technologie, które pozwalają na wykorzystywanie dostępnych zasobów w sposób mądrzejszy i bardziej efektywny, zamiast koncentrować się tylko na oszczędzaniu energii w wąskich obszarach, takich jak wyłączanie świateł. W długofalowej perspektywie takie podejście może przynieść wymierne efekty w walce ze zmianami klimatycznymi i w redukcji emisji CO2, szczególnie jeśli zastosujemy je w największych źródłach zużycia energii: ogrzewaniu i transporcie.

Czy silnik Carnota jest możliwy? Zrozumienie efektywności silników cieplnych i zasad ich działania

Silnik Carnota to idealizowany model, który wyznacza graniczną efektywność silników cieplnych działających w obiegu termodynamicznym. Zasadniczo, żaden rzeczywisty silnik cieplny nie może osiągnąć wyższej efektywności niż ta wyznaczona przez silnik Carnota. To nie tylko teoretyczne założenie, ale podstawowa zasada termodynamiki. Jeśli silnik cieplny osiągałby efektywność wyższą niż silnik Carnota, oznaczałoby to, że moglibyśmy zbudować pompę ciepła, która do pracy wymagałaby mniej energii niż pompa Carnota. W takim przypadku, moglibyśmy stworzyć maszynę, która przekształca ciepło w pracę w sposób, który nie jest możliwy do zrealizowania w rzeczywistości. Silnik cieplny działający w sposób odwracalny nie może więc mieć ani wyższej, ani niższej efektywności niż silnik Carnota – musi ona być dokładnie taka sama.

Przykład z życia: energia z oceanów? Gdyby istniał silnik o efektywności wyższej niż Carnot, możliwe byłoby schładzanie oceanów w celu pozyskiwania energii elektrycznej lub mechanicznej. Zakładając, że ocean ma masę wynoszącą około 1,4 × 10²¹ kg i wykorzystując pojemność cieplną wody, obliczono, że w celu pokrycia rocznego zapotrzebowania ludzkości na energię (około 5 × 10²⁰ J) temperatura oceanów musiałaby zostać obniżona o zaledwie 8,5 × 10⁻⁵ K. Taka zmiana temperatury, choć teoretycznie możliwa, jest całkowicie nierealistyczna z uwagi na drugą zasadę termodynamiki. To wyraźnie pokazuje, dlaczego nie jest możliwe stworzenie maszyny do pozyskiwania energii w taki sposób – zawsze musi istnieć różnica temperatur, która pozwala na przekształcanie ciepła w pracę.

Rzeczywiste silniki cieplne wymagają różnicy temperatur, aby działać. Im większa jest ta różnica, tym wyższa efektywność działania silnika. Niemniej jednak, w praktyce, małe różnice temperatur są trudne do wykorzystania w sposób ekonomiczny. Potencjalne silniki o efektywności wyższej niż Carnot byłyby zatem maszynami, które łamałyby drugą zasadę termodynamiki i prowadziłyby do powstania perpetuum mobile drugiego rodzaju. Choć wciąż pojawiają się różne projekty takich urządzeń, żaden z nich nigdy nie doczekał się realizacji.

Carnot dostarcza standardu, do którego powinny dążyć rzeczywiste silniki cieplne. Jego odkrycie jest praktycznie niezwykle ważne, ponieważ pozwala określić, w jakim stopniu rzeczywisty silnik może zbliżyć się do maksymalnej efektywności. Silnik cieplny nigdy nie będzie w stanie w pełni wykorzystać energii zawartej w paliwie – 100% efektywność jest niemożliwa, ale istnieją techniczne i ekonomiczne ograniczenia, które pozwalają na zwiększanie efektywności poniżej granicy Carnota. Chociaż teoretycznie silniki mogą być coraz bardziej efektywne, wciąż są one ograniczone przez fizyczne zasady.

Na podstawie bilansu entropii można wyprowadzić maksymalną efektywność cyklicznego silnika cieplnego, bazując tylko na drugiej zasadzie termodynamiki. Przyjmuje się, że entropia w układzie zmienia się zarówno wskutek wymiany ciepła, jak i produkcji entropii w samej maszynie. Dla silnika cyklicznego, który działa w sposób odwracalny, suma entropii w systemie musi wynosić zero. Stąd pochodzi formuła na efektywność, która pokazuje, że silnik cykliczny działający w sposób odwracalny nie może uzyskać większej efektywności niż silnik Carnota.

W praktyce, w układach otwartych, gdzie materia przepływa przez system, możliwe jest przekroczenie granicy efektywności Carnota. W takich systemach, gdzie strumień masy przepływa przez system, a materia przekazuje entropię, możliwe jest, że odpływająca materia może zabrać ze sobą więcej entropii niż ta, która weszła do układu. W takich przypadkach Carnot nie stanowi już fizycznego ograniczenia efektywności.

Warto również pamiętać, że rzeczywiste maszyny cieplne, mimo że nie mogą przekroczyć efektywności Carnota, mogą zostać zoptymalizowane pod kątem innych parametrów – na przykład redukcji strat ciepła, optymalizacji przepływu ciepła czy zmniejszenia kosztów operacyjnych. Choć osiągnięcie 100% efektywności jest niemożliwe, to rozwój technologii pozwala na stopniowe zbliżanie się do tej granicy, co ma kluczowe znaczenie w kontekście poprawy efektywności energetycznej w przemyśle oraz w sektorze energetycznym.