Wzór barometryczny, stanowiący jedną z podstawowych metod określania wysokości nad poziomem morza w lotnictwie, opiera się na zależności ciśnienia atmosferycznego od wysokości. Przyjmuje się, że ciśnienie maleje wraz ze wzrostem wysokości, a jego zmiana jest zależna od temperatury, gęstości powietrza i siły grawitacji. Stąd, w atmosferze Ziemi przy średniej temperaturze 15°C (288 K) wysokość skali, określająca odległość, na której ciśnienie atmosferyczne spada do 36,7% wartości początkowej, wynosi około 8 km. Wartość ta jest interesująca, ponieważ wysokość ta jest również zbliżona do wysokości najwyższego szczytu Ziemi – Mount Everest. Przykład ten ilustruje, jak pewne wzory fizyczne mogą nawiązywać do rzeczywistych cech naszej planety.
Zasadniczym ograniczeniem wzoru barometrycznego jest założenie, że temperatura w atmosferze jest jednorodna na danej wysokości. W rzeczywistości temperatura zmienia się wraz z wysokością, co skutkuje błędami w obliczeniach. Temperatura maleje średnio o 0,5°C do 1°C na każde 100 m wzrostu, co powoduje, że wzór barometryczny w rzeczywistości przeszacowuje wartość ciśnienia na dużych wysokościach, gdzie powietrze jest chłodniejsze i gęstsze, a więc mniej rozrzedzone.
Podobne nieścisłości można zaobserwować podczas korzystania z barometrycznych wysokościomierzy w trakcie pieszych wędrówek górskich czy jazdy na rowerze. Pomiar wysokości za pomocą altimetru jest zależny od ciśnienia atmosferycznego na poziomie gruntu, które zmienia się w zależności od warunków pogodowych. Z tego powodu pomiar wysokości może nie być całkowicie precyzyjny, szczególnie w kontekście zmieniającej się pogody.
Pomimo tych ograniczeń, wzór barometryczny ma zastosowanie w lotnictwie, gdzie jest wykorzystywany do określania wysokości samolotów. Choć w nowoczesnych samolotach często wykorzystywane są systemy GPS, wzór barometryczny nie został jeszcze całkowicie zastąpiony, ze względu na błędy w pomiarze wysokości przez GPS. W praktyce, wysokość samolotu ustalana jest na podstawie pomiaru ciśnienia powietrza, które jest zmienne w zależności od lokalizacji i warunków atmosferycznych. W celu uniknięcia ciągłych kalibracji wysokościomierzy, po przekroczeniu wysokości 5000 stóp, piloci ustawiają swoje altimetry na wartość 1013 hPa, ignorując zmiany ciśnienia na poziomie gruntu. Ta metoda zapewnia, że wszyscy piloci używają tego samego poziomu odniesienia, co minimalizuje ryzyko kolizji, nawet jeśli dokładne odczyty wysokości mogą być nieco zniekształcone.
Poniżej 5000 stóp, aby zapewnić dokładność pomiarów, piloci muszą ustawić wysokościomierz zgodnie z wartością QNH, która odpowiada ciśnieniu atmosferycznemu na poziomie lotniska docelowego. Wartość ta jest ustalana przez lokalne służby meteorologiczne i jest podstawą do prawidłowego określenia wysokości nad ziemią. Warto jednak pamiętać, że nawet w tym przypadku, ze względu na nieregularności w rozkładzie ciśnienia, pomiar wysokości może nie być w pełni precyzyjny, szczególnie przy zmieniających się warunkach atmosferycznych. W każdym przypadku, choć dokładność pomiarów wysokości może być dyskusyjna, systemy te są zaprojektowane w taki sposób, aby minimalizować ryzyko wypadków, gdy wszystkie samoloty poruszają się na tej samej, „niepoprawnej” wysokości.
Błędy w pomiarach mogą mieć również znaczenie w kontekście zmian atmosferycznych, które zachodzą w ciągu dnia. Ciśnienie atmosferyczne zmienia się w odpowiedzi na zmiany warunków pogodowych, co wymaga codziennej kalibracji wysokościomierzy, aby zapewnić ich właściwe działanie. Zmiany te mogą wpływać na precyzję pomiaru, dlatego w praktyce, szczególnie w lotnictwie, pomiar wysokości może być obarczony pewnym marginesem błędu.
W obliczeniach dotyczących atmosfery, szczególnie w kontekście prognoz meteorologicznych, precyzyjne zmierzenie temperatury w różnych warstwach atmosfery jest kluczowe. Pomiar temperatury na wysokości, zwłaszcza w kontekście badania warunków atmosferycznych w obszarze wysokich gór czy podczas lotów, wymaga zastosowania odpowiednich narzędzi, takich jak radiosondy, które mierzą temperaturę, wilgotność i ciśnienie na różnych wysokościach. Współczesne metody pomiarowe, takie jak radiony, pozwalają na dokładniejsze określenie profilu temperatury w atmosferze. Dzięki tym pomiarom możemy uzyskać precyzyjny obraz warunków atmosferycznych, co ma kluczowe znaczenie dla prognoz pogody, a także dla bezpieczeństwa lotów.
Warto również zauważyć, że zmieniający się charakter atmosfery, zwłaszcza na różnych wysokościach, może mieć wpływ na różne procesy meteorologiczne. Dla dokładniejszego prognozowania, ważne jest, aby rozumieć, jak zmieniające się ciśnienie i temperatura mogą wpływać na rozwój burz czy innych zjawisk atmosferycznych.
Jak entropia i procesy adiabatyczne wpływają na termodynamikę gazów?
Procesy termodynamiczne, w tym te zachodzące w gazach idealnych, są nieodłącznie związane z pojęciem entropii, która odgrywa kluczową rolę w zrozumieniu przemian energii w systemach zamkniętych. Zajmując się tym zagadnieniem, warto przyjrzeć się procesom adiabatycznym, które stanowią podstawę do określenia dostępności stanów gazów w różnych warunkach. Takie procesy, w których nie zachodzi wymiana ciepła z otoczeniem, pozwalają na wyciągnięcie istotnych wniosków dotyczących charakterystyki gazów i ich entropii.
Rozważmy przykład gazu idealnego, który poddany jest rozprężeniu swobodnemu. Jest to proces, który charakteryzuje się tym, że gaz rozpręża się bez wymiany ciepła z otoczeniem, a proces ten jest nieodwracalny. W wyniku takiego rozprężenia gaz zapełnia całą dostępną przestrzeń, jednak nie dochodzi do osiągnięcia równowagi energetycznej w klasycznym sensie, ponieważ energia nie jest przekazywana ani odbierana z otoczenia. W tym przypadku entropia gazu wzrasta, co oznacza, że system przeszedł do stanu o wyższej entropii, co jest charakterystyczne dla procesów nieodwracalnych. Zatem stan gazu po rozprężeniu (oznaczony jako B) ma wyższą entropię niż stan początkowy (A), a entropia rośnie w trakcie rozprężenia.
Kiedy mówimy o procesach adiabatycznych odwracalnych, takich jak kompresja gazu przy użyciu tłoka, gaz nie wymienia ciepła z otoczeniem. Przykład taki ilustruje proces adiabatyczny, który jest odwracalny i w którym można obliczyć zmiany temperatury i objętości gazu. Z równania adiabatycznego, które opisuje zależność między temperaturą a objętością gazu , wynika, że zmiana objętości gazu prowadzi do zmiany jego temperatury. Na przykład, jeśli objętość gazu zostanie zmniejszona o połowę, a współczynnik adiabatyczny wynosi 1,4, to temperatura gazu wzrośnie do wartości 792 K. Takie procesy adiabatyczne zachodzą w sposób odwracalny, co oznacza, że gaz może powrócić do swojego pierwotnego stanu, pod warunkiem, że proces przebiega bez wymiany ciepła.
Również ważne jest zrozumienie, że procesy adiabatyczne, choć są odwracalne, mają swoje ograniczenia. W kontekście rozważanych stanów gazu A i B, stwierdzamy, że stan B nie jest dostępny adiabatycznie z punktu A, ponieważ temperatura stanu B jest zbyt wysoka, by gaz mógł przejść z punktu A do punktu B bez wymiany ciepła. Zatem, jeśli gaz miałby przejść z punktu B do A, musiałby wytracić ciepło, co jest niezgodne z założeniami procesu adiabatycznego. Oznacza to, że stan B nie jest adiabatycznie dostępny z punktu A, a entropia w tym przypadku wzrasta w wyniku nieodwracalności procesu.
W kontekście rozważania entropii, ważne jest, by zrozumieć, że pojęcie to ma głębsze znaczenie niż tylko matematyczna definicja. Entropia stanowi miarę nieuporządkowania systemu termodynamicznego, i w tym sensie wzrost entropii oznacza, że system staje się bardziej chaotyczny, a jego energia jest bardziej rozproszona. W procesach adiabatycznych nie zachodzi wymiana ciepła, ale zmiana entropii jest nadal istotna, ponieważ jest związana z rozpraszaniem energii w systemie. Dla gazu idealnego stan A i stan C, które są adiabatycznie równoważne, mają tę samą entropię, co oznacza, że oba stany są równorzędne pod względem dostępności energii. Można zatem powiedzieć, że oba stany są isentropowe, czyli charakteryzują się tą samą wartością entropii.
Należy również zauważyć, że entropia jest zmienną stanu. Oznacza to, że entropia gazu w danym stanie zależy tylko od jego aktualnych właściwości, takich jak temperatura i objętość, a nie od drogi, jaką system przeszedł, aby znaleźć się w tym stanie. Zatem entropia jest funkcją, którą można przypisać do każdego stanu gazu, niezależnie od jego historii. Dzięki temu entropia pozwala na uporządkowanie stanów gazu w hierarchię, w której stany o mniejszej entropii są „bardziej uporządkowane” od stanów o wyższej entropii.
Dla gazów idealnych istotną rolę odgrywa zależność między ciśnieniem, objętością i temperaturą, a także sposób, w jaki te zmienne wpływają na zmianę entropii. W procesach odwracalnych, takich jak procesy adiabatyczne, ważne jest, by pamiętać, że zmiany entropii nie są zależne od drogi, którą system przebywa, ale od punktów początkowego i końcowego. Stąd wynika, że obliczając różnicę entropii, można zastosować różne ścieżki między stanami, ale wynik będzie taki sam.
Entropia jako zmienna stanu ma swoje cechy charakterystyczne. Jest to wielkość rozdzielcza, co oznacza, że jeżeli system podzielimy na dwie identyczne części, to entropia każdej z nich będzie stanowić połowę entropii całego systemu. Dodatkowo, entropia jest addytywna: suma entropii wszystkich części systemu daje całkowitą entropię tego systemu. Wartość entropii nie może jednak być mierzona absolutnie w termodynamice, ponieważ zależy ona od wybranego stanu odniesienia, który dla każdej substancji może być różny.
Podsumowując, rozważając termodynamikę gazów idealnych i procesy adiabatyczne, warto zwrócić uwagę na kluczową rolę entropii w klasyfikacji stanów gazów. Entropia nie tylko odzwierciedla zmiany energii, ale także pozwala na zrozumienie, jak gaz zmienia się w odpowiedzi na procesy adiabatyczne, zarówno odwracalne, jak i nieodwracalne. Entropia jest zmienną stanu, której analiza daje głęboki wgląd w naturę procesów termodynamicznych.
Jakie mechanizmy rządzą przewodnictwem ciepła?
Aby zrozumieć zasady przekazywania ciepła, warto na chwilę odstąpić od skomplikowanych warunków fizjologicznych ludzkiego ciała. Prostszym zadaniem jest analiza eksperymentów Siple’a i Passela z perspektywy termodynamicznej. Pytanie brzmi: jak dokładnie powinna wyglądać równanie (13.2)? Aby odpowiedzieć na to pytanie, musimy rozważyć różne mechanizmy przekazywania ciepła.
Ciepło zdefiniowaliśmy w rozdziale 6 jako energię, która przekracza granice układu z powodu różnicy temperatur. W jaki sposób może się to wydarzyć? Jak różnica temperatur może powodować przepływ energii z jednego miejsca do drugiego? Termodynamika wyróżnia trzy mechanizmy przekazywania ciepła: przewodnictwo ciepła, konwekcję i promieniowanie.
Przewodnictwo ciepła polega na rozprzestrzenianiu się wzbudzeń termicznych w ciałach stałych (lub w cieczy i gazach w stanie spoczynku) przez wymianę energii między bezpośrednio sąsiadującymi cząstkami. Konwekcja natomiast to proces, w którym ciepło przenoszone jest przez nośnik energii w postaci przepływów cieczy lub gazów. Trzeci mechanizm, promieniowanie, polega na przekazywaniu ciepła za pomocą emisji lub absorpcji promieniowania elektromagnetycznego, które każde ciało emituje tylko dlatego, że ma określoną temperaturę.
Eksperyment Siple’a i Passela uwzględnia wszystkie trzy mechanizmy: przewodnictwo ciepła, gdzie ciepło wydzielające się z zamarzającej wody przechodzi przez ścianki pojemnika, konwekcję, w której silniejszy wiatr powoduje intensywniejszy przepływ ciepła, oraz promieniowanie, które jest wymieniane między pojemnikiem a jego otoczeniem. Choć każde ciało emituje promieniowanie termiczne nawet w "normalnych" temperaturach, najczęściej nie postrzegamy go, ponieważ jego długość fali znajduje się w niewidzialnym zakresie podczerwonym widma elektromagnetycznego.
Przewodnictwo ciepła
Zjawisko przewodnictwa ciepła jest dobrze znane z codziennego życia. Na przykład, nie możemy długo trzymać papierowego kubka z gorącą kawą, ponieważ jego cienkie ścianki szybko przekazują ciepło do naszych dłoni. Srebrna łyżka w filiżance gorącej herbaty nagrzewa się błyskawicznie, przez co staje się nie do utrzymania. W przeciwieństwie do niej plastikowa łyżka nie przewodzi ciepła, a jej uchwyt pozostaje chłodny. W przypadku przewodnictwa ciepła materiał odgrywa kluczową rolę.
Przewodnictwo ciepła ma ogromne znaczenie ekonomiczne w budownictwie. Zimą, gdy temperatura w pomieszczeniu jest wyższa niż na zewnątrz, ciepło przepływa przez ściany do otoczenia. Im lepsze właściwości przewodzące mają ściany, tym więcej ciepła ucieka na zewnątrz, co podnosi koszty ogrzewania. Właśnie z tego powodu stosuje się izolację termiczną, aby zminimalizować straty ciepła.
Mikroskalowy model przewodnictwa ciepła
Mikroskalowy mechanizm przewodzenia ciepła w ciele stałym można przedstawić za pomocą modelu, w którym ciało stałe jest regularnym układem atomów połączonych ze sobą sprężynami. Zgodnie z twierdzeniem o równomiernym podziale energii (equipartition theorem), im wyższa temperatura w danym miejscu, tym silniejsze wibracje atomów wokół ich pozycji równowagi. Połączenie atomów za pomocą sprężyn powoduje transfer energii od bardziej wibrujących atomów do ich sąsiednich, słabiej wibrujących atomów.
W izolowanym, nierównomiernie ogrzanym ciele, transfer energii prowadzi do stopniowego wyrównania temperatury w obrębie tego ciała, co prowadzi do stanu równowagi cieplnej. Jeśli jednak ciało pozostaje w kontakcie z gorącym zbiornikiem po jednej stronie i zimnym po drugiej, transfer energii trwa nieprzerwanie. Mechanizm ten nazywamy przewodnictwem ciepła – stały przepływ energii od gorącego do zimnego.
Przewodzenie ciepła przez fonony i elektrony
Mikroskalowy model przewodzenia ciepła wizualizuje sposób, w jaki energia jest przenoszona w ciele stałym na skutek różnicy temperatur. Modele kwantowo-mechaniczne doprecyzowują ten obraz, pokazując, że drgania sieci są skwantowane, a energia jest transportowana w postaci quasi-cząsteczek – fononów. W przewodnikach elektrycznych, oprócz fononów, dodatkowy mechanizm przekazywania ciepła stanowią swobodne elektrony, które tworzą "gaz elektronowy", w którym energia jest przenoszona przez zderzenia, podobnie jak w zwykłym gazie. W metalach to zjawisko jest głównym mechanizmem przewodzenia ciepła, przez co metale są znacznie lepszymi przewodnikami ciepła niż ciała stałe, w których tylko fonony przyczyniają się do tego procesu.
Prawo Fouriera o przewodnictwie ciepła
Matematyczne prawa przewodzenia ciepła w ciałach stałych zostały opracowane na początku XIX wieku przez Josepha Fouriera. Jego książka z 1822 roku "Théorie analytique de la chaleur" nazywana była "biblią fizyków matematycznych" przez Arnolda Sommerfelda, ponieważ nie tylko wprowadziła szereg Fouriera (rozwinięcie funkcji w szereg sinusów i cosinusów), ale także stworzyła podstawy rozwiązywania problemów fizycznych za pomocą równań różniczkowych cząstkowych, na przykładzie przewodzenia ciepła.
W jednowymiarowym, ustalonym stanie, prawo Fouriera o przewodnictwie ciepła przyjmuje bardzo prostą postać. Na przykład, wyobraźmy sobie ścianę o grubości ∆x, gdzie temperatura po jednej stronie wynosi T1, a po drugiej T2. Prawo Fouriera opisuje ilość ciepła Q przekazywanego z wnętrza na zewnątrz w czasie t (gdzie Q̇ to szybkość przekazywania ciepła). Zatem szybkość przewodzenia ciepła zależy:
-
od różnicy temperatur ∆T = T2 − T1,
-
od powierzchni A ściany,
-
i odwrotnie proporcjonalnie do grubości ∆x.
Łącząc te zależności w jedno równanie, otrzymujemy wzór na przewodnictwo ciepła przez ścianę o grubości ∆x:
gdzie λ to przewodność cieplna – stała materiałowa wyrażona w jednostkach W/(m·K).
Różne materiały charakteryzują się różnymi wartościami przewodności cieplnej. Metale, takie jak srebro i miedź, mają najwyższą przewodność, co czyni je najlepszymi przewodnikami ciepła. Z kolei gazy są zwykle bardzo słabymi przewodnikami ciepła, a materiały takie jak wełna, styropian czy wełna mineralna są wykorzystywane do izolacji termicznej.
Jak zmienia się szybkość wymiany ciepła w zależności od temperatury wnętrza?
Zjawisko przewodzenia ciepła w budowlach jest jednym z kluczowych elementów przy projektowaniu i ocenie efektywności energetycznej budynków. Przykład, który rozważamy, dotyczy ściany z lekkiego betonu kompozytowego o grubości 36,5 cm. Zmierzona temperatura na wewnętrznej powierzchni tej ściany wynosi 19°C, natomiast na zewnętrznej powierzchni spada do 5°C. Wysokość ściany to 3,8 m, a jej szerokość wynosi 11,5 m. Celem tego przykładu jest obliczenie szybkości wymiany ciepła przez tę ścianę w dwóch scenariuszach: przy temperaturze wewnętrznej 19°C oraz 5°C wyższej, tj. 24°C.
Zgodnie z prawem Fouriera, przewodzenie ciepła przez ścianę jest zależne od jej grubości, powierzchni, różnicy temperatur po obu stronach oraz współczynnika przewodzenia ciepła materiału, przez który przechodzi energia. Dla lekkiego betonu kompozytowego współczynnik przewodzenia wynosi 0,21 W/(m·K), co pozwala obliczyć szybkość wymiany ciepła w pierwszym przypadku, gdy różnica temperatur wynosi 14°C (19°C - 5°C). Wynik tego obliczenia to 352 W. W drugim przypadku, przy temperaturze wewnętrznej zwiększonej o 5°C, szybkość wymiany ciepła wzrasta do 453 W, co stanowi wzrost o niemal 30%.
Tego rodzaju obliczenia pokazują, jak istotną rolę odgrywa temperatura wewnętrzna pomieszczeń w kontekście zużycia energii na ogrzewanie. Wyższa temperatura w pomieszczeniu prowadzi do zwiększenia przepływu ciepła przez ściany budynku, co skutkuje wyższymi kosztami ogrzewania. Dla inwestora lub osoby odpowiedzialnej za zarządzanie energią w budynku istotne jest, aby dbać o optymalizację temperatury wewnętrznej, unikając jej nadmiernego podnoszenia, co pozwala na oszczędności w zużyciu energii.
Warto również pamiętać, że w praktyce to nie temperatury powierzchni ścian, a temperatury otaczającego powietrza są najczęściej mierzone. Należy więc uwzględniać współczynnik wymiany ciepła, który uwzględnia różnice między temperaturą powierzchni a temperaturą powietrza. Dlatego, choć konkretne obliczenia w tym przykładzie są oparte na powierzchniowych wartościach temperatur, w rzeczywistości należy brać pod uwagę cały kontekst termiczny budynku, w tym także jego otoczenie.
Ponadto, wśród mechanizmów wymiany ciepła, obok przewodzenia, istotną rolę odgrywa również promieniowanie cieplne. W przeciwieństwie do przewodzenia, promieniowanie nie wymaga obecności materiału, ponieważ odbywa się za pośrednictwem fal elektromagnetycznych. To zjawisko jest odpowiedzialne za wymianę ciepła między ciałami, które nie muszą mieć kontaktu fizycznego – typowy przykład to promieniowanie cieplne od Słońca do Ziemi. Zrozumienie tego mechanizmu jest istotne, ponieważ promieniowanie cieplne stanowi podstawę działania wielu urządzeń grzewczych, takich jak panele grzewcze czy piece na podczerwień.
Przy omawianiu promieniowania cieplnego nie można pominąć wzoru Plancka, który opisuje spektrum promieniowania emitowanego przez idealny radiator termiczny. Spektrum to jest zależne od temperatury ciała, a jego charakterystyka zmienia się wraz ze wzrostem temperatury – im wyższa temperatura, tym krótsze długości fal emitowane przez obiekt, przechodzące z podczerwieni w kierunku widocznej części spektrum. Zgodnie z prawem przesunięcia Wiena, długość fali, przy której emisja osiąga maksimum, jest odwrotnie proporcjonalna do temperatury ciała. Na przykład, dla Słońca o temperaturze powierzchni około 5800 K, długość fali maksimum wynosi około 500 nm, co odpowiada zielonemu zakresowi widma.
Zrozumienie wpływu temperatury na emitowane promieniowanie cieplne ma duże znaczenie nie tylko w kontekście fizyki budowlanej, ale także w projektowaniu efektywnych systemów grzewczych, szczególnie tych opartych na promieniowaniu. Również dla osób odpowiedzialnych za ocenę efektywności energetycznej budynku, zrozumienie mechanizmu promieniowania cieplnego pomaga w doborze odpowiednich materiałów i technologii, które mogą znacząco wpłynąć na oszczędności energetyczne.
Szczególnie warto zauważyć, że mechanizmy przewodzenia i promieniowania ciepła są ze sobą powiązane, a ich wpływ na ogólną efektywność energetyczną budynku może być różny w zależności od materiałów budowlanych, które zostały użyte, jak również od lokalnych warunków klimatycznych. Przykładem może być wykorzystanie materiałów o wysokiej przewodności cieplnej, które mogą przyspieszać wymianę ciepła w obiektach, lub zastosowanie technologii izolacyjnych, które redukują straty ciepła zarówno przez przewodzenie, jak i promieniowanie.
Jakie czynniki wpływają na wymianę ciepła przez konwekcję wymuszoną?
W nocy, kiedy metabolizm ciała zwalnia, ale jego temperatura utrzymuje się na stałym poziomie, konieczne staje się przykrycie, by uniknąć wychłodzenia. W tym przypadku można wysnuć wniosek, że w "raju", gdzie ludzie chodzili nago, temperatura musiała wynosić około 30°C, czyli o 5°C niższa od temperatury skóry.
Konwekcja wymuszona jest procesem, w którym przepływ nie zachodzi samorzutnie, lecz jest generowany przez techniczne środki lub naturalne siły, takie jak wiatr. Z fizycznego punktu widzenia, jest to łatwiejsza do opisania sytuacja niż konwekcja naturalna. Przepływ w tym przypadku może być kontrolowany, a jego prędkość (V) to parametr, który można ustawić lub zmierzyć. Niemniej jednak, wymiana ciepła przez konwekcję wymuszoną jest skomplikowanym procesem, na który wpływa wiele czynników. Odpowiednie opisanie tego procesu jest możliwe przy użyciu liczb bezwymiarowych, jak pokazano w Ramce 13.1.
Wymiana ciepła przez konwekcję jest zależna od wielu parametrów. Liczby bezwymiarowe upraszczają zarówno teoretyczny opis, jak i eksperymenty, mające na celu zrozumienie zasad rządzących tym procesem. Zasadniczą podstawą jest twierdzenie Buckingham’a o liczbach Pi, które mówi, że systemy zależne od n wymiarowych parametrów mogą być w pełni opisane przez n – m liczb bezwymiarowych, gdzie m to liczba fundamentalnych wymiarów (takich jak kilogram, metr, sekunda). Przykładem może być wachający się wahadło, które charakteryzuje się czterema parametrami: okresem oscylacji T (jednostka: s), masą m (jednostka: kg), długością linki L (jednostka: m) oraz przyspieszeniem ziemskim g (jednostka: m/s²). Ponieważ w tym przypadku mamy trzy fundamentalne wymiary (kg, m, s), liczba liczb bezwymiarowych wynosi 4 – 3 = 1. Dzięki odpowiednim obliczeniom odkrywamy, że okres oscylacji wahadła zależy jedynie od długości linki i przyspieszenia g, a jego masa nie ma wpływu na czas wahań. Tego typu analiza wymiarowa pozwala na uzyskanie wiedzy o fizycznym zachowaniu systemu bez potrzeby rozwiązywania równań.
Liczby bezwymiarowe mają również duże znaczenie praktyczne. Zamiast kosztownych eksperymentów na pełnowymiarowym modelu samolotu w tunelu aerodynamicznym, można przeprowadzać testy na mniejszych modelach, pod warunkiem że mają one ten sam numer Reynoldsa, co zapewnia, że wyniki eksperymentów będą miały zastosowanie do rzeczywistego modelu. W kontekście wymiany ciepła przez konwekcję wymuszoną, istnieją trzy kluczowe liczby bezwymiarowe, które są istotne: liczba Reynoldsa (Re), liczba Prandtla (Pr) oraz liczba Nusselta (Nu).
Liczba Reynoldsa (Re) jest podstawowym parametrem, który charakteryzuje dynamikę przepływu i wskazuje, kiedy następuje przejście od przepływu laminarnego do turbulentnego. Re jest definiowana jako stosunek gęstości płynnej (ρ) razy prędkość (V) i długość charakterystyczną (D) do dynamicznej lepkości (η). W przypadku przepływu laminarnego, ciecz płynie w warstwach, nie mieszając się, natomiast przy wyższych prędkościach przepływ staje się turbulentny, prowadząc do powstawania wirów i intensywnego mieszania cieczy, co zwiększa efektywność wymiany ciepła.
Liczba Prandtla (Pr) jest charakterystycznym parametrem dla medium, które transferuje ciepło. Jest ona stosunkiem lepkości dynamicznej (η) i pojemności cieplnej przy stałym ciśnieniu (cₚ) do współczynnika przewodzenia ciepła (λ). Liczba ta porównuje długości charakterystyczne, na których prędkość przepływu i temperatura przy powierzchni ciała przechodzą w wartości, jakie mają w swobodnym przepływie.
Liczba Nusselta (Nu) wyraża, jak efektywna jest wymiana ciepła przez konwekcję w porównaniu do samego przewodnictwa ciepła. Liczba ta jest bezpośrednio powiązana z współczynnikiem wymiany ciepła (h), który można obliczyć za pomocą odpowiednich wzorów.
Turbulencja i liczba Reynoldsa mają ogromny wpływ na efektywność wymiany ciepła przez konwekcję. W przepływach laminarnego charakteru, przepływ płynów odbywa się w wyraźnych warstwach, co ogranicza efektywność wymiany ciepła. Dopiero w przepływie turbulentnym, gdzie mamy do czynienia z wirami i intensywnym mieszaniem, wymiana ciepła staje się znacznie efektywniejsza. Szczególnie istotna jest turbulencja w warstwie przyściennej, która otacza ciało, z którym zachodzi wymiana ciepła.
Liczba Reynoldsa decyduje o tym, kiedy przepływ staje się turbulentny. Dla przepływu przez rurę przepływ jest laminarnego charakteru dla Re ≤ 2300, natomiast turbulentny pojawia się przy wyższych liczbach Reynoldsa. Przepływ wokół obiektów, takich jak np. słupki wody, pozostaje laminarnego charakteru do liczby Reynoldsa równej około 2 × 10⁵, po czym przechodzi w przepływ turbulentny.
Empiryczne wzory dla współczynnika wymiany ciepła wykorzystywane są do obliczania liczby Nusselta i są zależne od innych liczb bezwymiarowych, jak Re i Pr. Wzory te mogą być stosowane do obliczania efektywności wymiany ciepła przez różne kształty ciał w przepływie. Na przykład, dla długiego cylindra w przepływie poprzecznym, który ma średnicę D, obowiązuje wzór, który zależy od liczby Reynoldsa i liczby Prandtla.
Warto zauważyć, że efektywność wymiany ciepła przez konwekcję nie jest tylko funkcją kształtu obiektu, ale także od właściwości medium, przez które płynie przepływ, takich jak lepkość czy przewodnictwo ciepła.
Zrozumienie tych zasad pozwala na zastosowanie ich w praktycznych obliczeniach inżynierskich, w tym przy projektowaniu systemów, które bazują na efektywnej wymianie ciepła, takich jak wymienniki ciepła, chłodnice czy systemy wentylacyjne, w których kluczową rolę odgrywa konwekcja wymuszona.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский