Ozon – techniki pomiarowe

Obecnie na świecie istnieje około 150 stacji ozonowania. Około 100 stacji używa do pomiarów ulepszonych spektrofotometrów Dobsona. Są to bardzo dokładne instrumenty, ale niestety duże, ciężkie, skomplikowane i drogie. Radzieccy naukowcy stworzyli nowy przyrząd do pomiaru ozonu w atmosferze, a mianowicie ozonometr M 83 i używali go w swoich stacjach badawczych. M 83 jest mniej dokładny, ale znacznie łatwiejszy w użyciu, mniejszy i lżejszy. Należy w tym miejscu wspomnieć, że od 1963 roku systematyczne pomiary ozonometryczne prowadzone są również w Polsce w Głównej Stacji Geofizycznej Polskiej Akademii Nauk w Belsku koło Grójca. Stacja ta ma za sobą blisko czterdzieści lat systematycznych pomiarów. Do badań wykorzystuje się tu spektrofotometr Dobsona. Należy również dodać, że dokładność i staranność polskich badań jest bardzo wysoko oceniana przez Światową Organizację Meteorologiczną.

Wykonywanie pomiarów z powierzchni Ziemi jest wygodne, ale ma też swoje wady. Możliwości przeprowadzania pomiarów i ich wyniki zależą od pogody, stąd pomysł umieszczenia przyrządów pomiarowych bezpośrednio w sferze ozonowej. Pomysł ten narodził się, gdy technika balonowa osiągnęła wystarczająco wysoki poziom. Pierwszymi, którzy umieścili swoje instrumenty w OZONOSFERZE byli E. i V. Regenera. Nadal stosowali metodę optyczną, ponieważ po prostu umieścili spektrograf na balonie, który wzniósł się na wysokość 31 kilometrów. Eksperyment ten umożliwił wykonanie znacznie dokładniejszych pomiarów, które zostały wykonane na różnych wysokościach. Później skonstruowano różnego rodzaju sondy do wykonywania pomiarów za pomocą środków chemicznych (w tych sondach ozon wchodzi w różne reakcje chemiczne i w ten sposób określa się, ile go znajduje się w otaczającej atmosferze na różnych wysokościach). Wyniki pomiarów były również przesyłane na Ziemię za pomocą nadajników radiowych, czyli metody zwanej radiotelemetrią. Postęp technologiczny umożliwił również pobieranie próbek powietrza na różnych wysokościach, a następnie badanie ich po wylądowaniu balonu na Ziemi. Również w Polsce sondowania atmosferyczne rozpoczęto w 1979 r. w Stacji Obserwacyjnej Instytutu Meteorologii i Gospodarki Wodnej w Legionowie pod Warszawą, przy użyciu sond wyprodukowanych na terenie byłej Niemieckiej Republiki Demokratycznej. Balony te osiągnęły pułap 20 kilometrów. Obecnie sondowania te musiały zostać przerwane, bo jedna sonda kosztuje około 1000 dolarów, a niestety polskiej nauki nie stać na ponoszenie takich kosztów.

Mówiąc o historii polskich badań nad ozonem, warto wspomnieć także o próbie wystrzelenia w 1939 roku ogromnego załogowego balonu stratosferycznego. Start miał się odbyć z Doliny Chochołowskiej w Tatrach. Niestety start nie doszedł do skutku z powodu wybuchu wodoru podczas napełniania skorupy, która uległa uszkodzeniu. Na szczęście nie było to nic poważnego, ale przed zbliżającą się wojną nie dało się go naprawić i kolejna próba nie doszła do skutku, a miała ona na celu wypełnienie powłoki niepalnym helem. Lot balonu stratosferycznego – który nazwano "Gwiazdą Polski" – miał cel naukowy i byłby wielkim osiągnięciem w tej dziedzinie. (Marks, 1992)

Rakiety były również wykorzystywane do badania zawartości ozonu w atmosferze ziemskiej, zwłaszcza na dużych wysokościach. Pierwsze takie próby przeprowadzono zaraz po wojnie w USA, z użyciem zdobycznych niemieckich rakiet V2. W porównaniu z balonem, rakieta ma tę zaletę, że może wznieść się znacznie wyżej, ale ma też bardzo ważną wadę – porusza się bardzo szybko względem otaczającego powietrza, dlatego musi być wyposażona w przyrządy zdolne do bardzo szybkich pomiarów. Lot rakiety z dużą prędkością również zakłóca wyniki pomiarów. Te pierwsze testy rakietowe zostały z powodzeniem wykorzystane do uzyskania widma Słońca w promieniowaniu ultrafioletowym, którego nie można uzyskać z Ziemi, ponieważ atmosfera naszej planety pochłania to promieniowanie.

Inną metodą badawczą jest wykorzystanie samolotów stratosferycznych do badań ozonu. Badania te stały się możliwe, gdy w Stanach Zjednoczonych skonstruowano samolot szpiegowski U2. Samolot ten ma kształt dużego szybowca. Jest napędzany małym silnikiem odrzutowym i z łatwością osiąga pułap 20 kilometrów i to właśnie na tej wysokości dochodzi do koncentracji ozonu. Zaletą samolotu jest to, że umieszczony na nim sprzęt naukowy może wykonywać bezpośrednie pomiary na każdej długiej trasie. Obecnie nazwa samolotu U2 została zmieniona na ER2. Jest to skrót od Earth Resources (zasoby ziemi).

Począwszy od 1962 roku, wykorzystanie sztucznych satelitów Ziemi do badania ozonu atmosferycznego zaczęło przynosić znakomite rezultaty. Poruszają się one znacznie wyżej nad ozonosferą, na wysokościach nie mniejszych niż 150 kilometrów (ponieważ poniżej tego oporu powietrza uniemożliwia ruch satelity, który odbywa się z prędkością około 8 km/s). Satelity przeprowadzają testy ozonu atmosferycznego z powietrza. Wyniki takich badań są znacznie lepsze niż te "tradycyjne" z Ziemi, ponieważ warstwa atmosfery nad ozonosferą jest już bardzo rozrzedzona, a przez to bardziej przezroczysta, niż warstwa pod ozonosferą.

Badania ozonu atmosferycznego przeprowadzono do tej pory z ponad 20 sztucznych księżyców Ziemi (głównie amerykańskich). Od 1979 roku badania zawartości ozonu w atmosferze ziemskiej prowadzone są nieprzerwanie na ponad 10 takich urządzeniach. Jednym z nich jest amerykański meteorologiczny, ważący 987 kilogramów, sztuczny satelita Ziemi o nazwie "Nimbus 7", który został wprawiony w ruch satelitarny 12 października 1978 roku na wysokości od 1050 do 1100 kilometrów.

Andrzej Marks w swojej książce "Ozon – katastrofa nad Polską" wymienia jeszcze dwie metody badania ozonu w atmosferze ziemskiej. Są to: metoda mikrofalowa i metoda lidarowa.

Metoda mikrofalowa polega na badaniu atmosfery ziemskiej za pomocą bardzo krótkich fal radiowych. Fale te są pochłaniane przez ozon, dzięki czemu możliwe jest badanie jego ilości i rozkładu przestrzennego. Zaletą tej metody jest to, że pomiary te można przeprowadzać niezależnie od pogody i pory roku.

Metoda lidarowa wykorzystuje tę samą zasadę, co metoda mikrofalowa, z tą różnicą, że promieniowanie laserowe jest używane jako promieniowanie sondujące. Niestety ta metoda zależy od pogody.

Pisząc o metodach badania ozonu w stratosferze, nie sposób nie wspomnieć o metodach wykrywania ozonu w warstwie, w której żyjemy – troposferze. Jedną z najprostszych metod jest użycie roślin wrażliwych na ozon. Ta roślina to tytoń.

Amerykańscy rolnicy uprawiający tytoń w Connecticut i na Florydzie ponieśli bardzo duże straty w latach pięćdziesiątych XX wieku z powodu plam, które nagle pokryły liście roślin. Zmienione liście straciły wiele ze swojej wartości. W ciągu jednego feralnego weekendu straty wyniosły 25% wartości zbiorów. Część rolników zaczęła uprawiać tytoń pod osłonami na powierzchni nawet 2 tys. hektarów. Naukowcy wezwani na pomoc postawili jednoznaczną diagnozę. Niebezpieczna dolegliwość roślin tytoniu spowodowana jest zwiększonym stężeniem ozonu w powietrzu. Wkrótce intensywne badania i prace hodowlane zaowocowały odmianami, które lepiej tolerują agresywny gaz. Z drugiej strony spośród tych, które stały się nieopłacalne, wybrano najbardziej uszkodzone rośliny. Okazało się, że ich wrażliwość jest dziedziczna. Był to początek światowej kariery tytoniu jako wskaźnika zanieczyszczenia ozonem.

Amerykanie wyhodowali trzy odmiany tej rośliny: Bel-W3 bardzo wrażliwą, Bel-C wrażliwą i Bel-B najmniej wrażliwą. W laboratorium uszkodzenia na liściach Bel-W3 wystąpiły przy stężeniu O3 dwukrotnie niższym (0,10 ppm przez 2 godziny) niż na liściach Bel-B (0,22 ppm przez 2 godziny). Reakcja na ozon, oprócz wrodzonej wrażliwości, zależy również od wieku liści, warunków środowiskowych oraz zaopatrzenia rośliny w wodę i składniki odżywcze. Plamy ozonowe, które początkowo są ciemne, z czasem rozjaśniają się pod wpływem słońca. Pewną trudnością w obserwacjach jest fakt, że podobne zmiany na liściach mogą być spowodowane przez niektóre patogeny lub niedobór minerałów (na przykład fosforu). Porównanie najbardziej i najmniej wrażliwych odmian pomaga rozwiać wątpliwości. Jeśli do uszkodzenia dojdzie w tym samym czasie na obu roślinach, najprawdopodobniej winowajcą nie jest ozon. Gaz ten jest bardzo niestabilnym zanieczyszczeniem i pojawia się w określonych warunkach w słoneczne, gorące i bezwietrzne dni. Powstaje w łańcuchu reakcji fotochemicznych z węglowodorów i tlenków azotu, których głównym źródłem są spaliny samochodowe.

Tytoń, podobnie jak wszystkie roślinne wskaźniki zanieczyszczenia, może być używany jedynie do określenia obecności niepożądanej substancji w środowisku. Trudno jednak wywnioskować stężenie ozonu na podstawie wielkości plam na liściach. Tytoń jako "detektor" ozonu był już stosowany w wielu krajach europejskich (Dania, Niemcy, Holandia, Włochy, Szwecja, Szwajcaria i Wielka Brytania), w USA, Australii, Indiach, Izraelu i na Tajwanie.

W ostatnich latach stała się również cenną pomocą w edukacji ekologicznej w Polsce. Ponad 2 tys. szkół przyłączyło się do ogólnopolskiej akcji rozpoczętej wiosną 1998 r., organizowanej przez Fundację Ekonomistów Środowiska i Zasobów Naturalnych z Białegostoku. Ich uczniowie uprawiają rośliny Bel-W3 i Bel-B. W ósmym tygodniu po wysianiu nasion tytoń jest wystawiany na zewnątrz. Od tego momentu prowadzący eksperyment obserwują zmiany na liściach i odnotowują je na specjalnych kartkach, które następnie przesyłają organizatorom akcji. Rosnące plamy "czarno-białe" świadczą o tym, że nawet na terenach rolniczych, z dala od ośrodków przemysłowych, roślinność jest uszkodzona. ("Wiedza i Życie", 6/1998)

Jak widać, dysponujemy wystarczającymi metodami badawczymi, aby bardzo dokładnie określić zawartość ozonu w różnych miejscach atmosfery. Metody satelitarne są wysoko oceniane, ponieważ pozwalają na szybkie uzyskanie jednolitych danych o całej Ziemi. Pomiary wykonywane metodami naziemnymi wymagają gęstej sieci stacji obserwacyjnych, a następnie scentralizowanego przetwarzania uzyskanych wyników pomiarów.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.



Historia odkrycia ozonu

Nazwa OZON wywodzi się od greckiego słowa ODZON – co oznacza "pachnący", ponieważ charakteryzuje się bardzo charakterystycznym zapachem, wyczuwalnym nawet przy bardzo małych ilościach gazu. Jest go bardzo mało, bo tylko 0,000001% objętości i 0,0000017% masy. (Oznacza to, że na miliard cząsteczek powietrza przypada tylko 10 cząsteczek ozonu, a na miliard gramów powietrza przypada tylko 17 gramów ozonu). Może wydawać się dziwne, że mimo tak niskich stężeń ozon odgrywa na Ziemi tak ważną rolę, że jego ewentualne zniknięcie skutkowałoby wyginięciem życia na naszej planecie.

Chociaż ozon ma swoją nazwę, nie jest odrębnym pierwiastkiem. Jest to zwykły tlen w postaci cząsteczek złożonych z trzech atomów. W terminologii chemicznej pojedyncze atomy tlenu są oznaczone literą O, dwuatomowe cząsteczki tlenu są oznaczone przez O2, a trzy atomowe cząsteczki ozonu są oznaczone przez O3. Mówi się również, że ozon jest "alotropową" odmianą tlenu.

W parkach rozrywki można czasem znaleźć stoisko ze zderzające się miniaturowe samochodziki. Często wyczuwalny jest tam charakterystyczny, ostry zapach. To jest ozon. Ozon powstaje m.in podczas wyładowań elektrycznych. W wesołym miasteczku samochody zasilane są energią elektryczną, która dociera do silnika za pomocą długiego pręta przypominającego nieco pantograf tramwajowy. Koniec tego pręta, ślizgając się po żywej siatce rozciągniętej nad samochodami, powoduje iskrzenie, które jest wynikiem niewielkich wyładowań elektrycznych. Produktem ubocznym tego zjawiska jest ozon.

Nazwa OZON została wprowadzona w 1840 roku przez szwajcarskiego chemika Christiana Friedricha Schönbeina (1799-1868). Odkrycie natury ozonu zawdzięczamy jednak chemikowi de la Rive, który w 1845 roku umieścił iskiernik elektryczny w naczyniu zawierającym czysty tlen i stwierdził, że ozon pojawia się wówczas. Na podstawie tego eksperymentu prawidłowo wywnioskował, że ozon jest "pewną odmianą" tlenu. Zainteresowanie nowo odkrytym gazem bardzo szybko zostało rozbudzone, ponieważ wierzono, że ma on właściwości lecznicze. Dziś wiadomo, że tak nie jest. Choć nie jest wykluczone, że w bardzo małych ilościach ozon może działać pobudzająco na organizm człowieka, to wiadomo, że w stężeniach większych niż 1 parton na 50 000 cząsteczek powietrza jest szkodliwy dla człowieka, w wyższych stężeniach jest po prostu bardzo trujący. Popularne niegdyś (przed wojną) "ozonizatory" powietrza przyniosły więcej szkody niż pożytku.

W celu zbadania występowania ozonu w warunkach naturalnych opracowano bardzo prosty sposób jego wykrywania za pomocą "bibuły ozonowej". Metoda ta polegała na pokryciu paska papieru związkiem chemicznym – jodkiem potasu – który pod wpływem ozonu zmieniał swoją barwę. Metoda ta była stosowana przez ponad 30 lat, do 1880 roku. Zwrócono wówczas uwagę na fakt, że jodek potasu reaguje nie tylko z ozonem, ale z całym szeregiem innych związków chemicznych

(z dwutlenkiem siarki, powstającym podczas spalania siarkowych paliw chemicznych, a także reagującym z tlenkami azotu, powstającymi podczas spalania w wysokiej temperaturze), wyniki pomiarów przeprowadzonych tą metodą mogą być obarczone bardzo dużymi błędami.

Mówiąc o czasach sprzed ponad wieku, warto wspomnieć, że w okresie 1853-1878 na Krakowskim Uniwersytecie Astronomicznym prowadzono badania z użyciem papieru ozonometrycznego Observatory.In 1879 roku, badania nad zawartością ozonu w atmosferze ziemskiej wkroczyły na nową ścieżkę. Francuski fizyk A. Cornu zaczął fotografować widmo Słońca i odkrył, że gdy Słońce znajduje się na dużej wysokości nad horyzontem, fotografowane są linie w jego widmie o krótszej długości fali niż wtedy, gdy znajduje się na niskiej wysokości nad horyzontem. Słusznie doszedł do wniosku, że w atmosferze ziemskiej musi istnieć jakiś czynnik, który pochłania krótkofalowe promieniowanie słoneczne. (Marks, 1992)

Gdy Słońce znajduje się na niskiej wysokości nad horyzontem, jego promienie muszą przebyć znacznie większą odległość w atmosferze ziemskiej, zanim dotrą do powierzchni Ziemi, niż gdy Słońce jest wysoko, więc absorpcja promieniowania w atmosferze jest większa.

W 1881 roku W. M. Hartley odkrył w warunkach laboratoryjnych, że ozon bardzo silnie pochłania promieniowanie ultrafioletowe. Z tego wywnioskowano, że tym absorberem promieni krótkofalowych w atmosferze musi być ozon.

W 1890 roku zaobserwowano obecność absorbujących ozonu linii widmowych w widmie Słońca, a nawet w widmie najjaśniejszej gwiazdy na niebie, Syriusza. Dzięki temu odkryciu możliwe stało się określenie ilości ozonu w atmosferze ziemskiej na podstawie obserwacji spektralnych Słońca, a także obliczenie zawartości ozonu w atmosferze na różnych wysokościach, jeśli pomiary wykonywane są na różnych wysokościach Słońca nad horyzontem. Pierwszych takich pomiarów dokonał w 1903 roku W. Meyer, a w 1913 roku Ch. Fabry i N. Buisson obliczyli, że ozon w atmosferze ziemskiej jest niezwykle rzadki, gdyby nagromadził się w pobliżu powierzchni naszej planety, powstała warstwa gazu nie przekraczałaby 5 milimetrów grubości.

W 1919 roku Fabry i Buison zbudowali w Marsylii specjalny spektrograf do określania zawartości ozonu w atmosferze ziemskiej i przeprowadzili za jego pomocą pomiary, na podstawie których obliczyli, że ozonu jest jeszcze mniej, ponieważ byłaby to warstwa o grubości zaledwie około 3 milimetrów przy powierzchni Ziemi. Oszacowali również, że ozon nie jest równomiernie rozłożony w atmosferze, ale że stężenie ozonu występuje na wysokości około 30 kilometrów, a w miarę przemieszczania się ozonu w górę i w dół od tej warstwy – która nazywana jest sferą ozonową – zawartość ozonu maleje.

Musiało jednak minąć kolejne pięć lat, zanim rozpoczęły się systematyczne pomiary zawartości ozonu w atmosferze ziemskiej. Został zapoczątkowany przez uczonego brytyjskiego lorda G.M.B. Dobsona. W 1924 roku skonstruował w tym celu specjalny spektrograf (zwany "spektrografem Dobsona") i zainstalował go w stacji obserwacyjnej Boars Hill w pobliżu Oksfordu. Instrument ten rejestrował promieniowanie ultrafioletowe Słońca na kliszy fotograficznej. (Marks, 1992)

Po kilku miesiącach obserwacji i pomiarów Dobson zauważył, że ilość ozonu w atmosferze ziemskiej była znacznie wyższa wiosną 1925 roku niż jesienią roku poprzedniego. Odkrycie to zainteresowało świat naukowy i bardzo szybko powstało pięć kolejnych stacji obserwacyjnych: w Arosa w Szwajcarii, w Lindbergu w Niemczech, w Abisko w Szwecji, w Valentii w Irlandii i w Lerwick na Wyspach Szetlandzkich. Jednak instrumenty z ostatnich czterech stacji zostały przeniesione do Egiptu, Indii, Nowej Zelandii i Kalifornii, tworząc jądro sieci obserwacyjnej obejmującej całą Ziemię.

Badania rozwijały się tak szybko, że w 1929 roku w Paryżu zorganizowano – po raz pierwszy w historii nauki – Międzynarodowe Sympozjum Naukowe poświęcone zagadnieniu ozonu. Dalszy znaczący rozwój badań nastąpił dopiero po wojnie, a zwłaszcza w czasie Międzynarodowego Roku Geofizycznego 1957-1958. W tym czasie powstały nowe stacje obserwacyjne, do badań włączyli się również radzieccy naukowcy.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.



Struktura i skład atmosfery

Bardzo rzadko zdajemy sobie sprawę z tego, że żyjemy na dnie "oceanicznego powietrza". Cała planeta otoczona jest atmosferą, którą jest powietrze. Podstawowym składnikiem atmosfery jest gazowy azot. Stanowi około 78% objętości atmosfery (i około 76% jej masy). Drugim podstawowym składnikiem powietrza jest gaz – tlen. Jest to około 21% jego objętości, ale około 23% jego masy, ponieważ cząsteczki tlenu są nieco cięższe niż cząsteczki azotu. Azot i tlen nie występują w powietrzu w postaci pojedynczych atomów. Tlen jest gazem bardzo aktywnym chemicznie, co oznacza, że łatwo łączy się z innymi pierwiastkami chemicznymi. Z tego wynika, że na Ziemi musi istnieć jakieś intensywne źródło, które dostarcza tlen do atmosfery. Źródłem tego są procesy życiowe roślin zielonych. Jak łatwo obliczyć, azot i tlen stanowią około 99% składu atmosfery.

Brakujące około 1% to około 0,93% objętości argonu (i około 1,25% masy). Jest gazem szlachetnym, ponieważ w przeciwieństwie do tlenu i azotu praktycznie nie tworzy związków chemicznych z innymi pierwiastkami. Czwartym składnikiem powietrza, pod względem obfitości, jest dwutlenek węgla. (CO2). Chociaż stanowi zaledwie 0,03% objętości atmosfery (i 0,05% masy), odgrywa niezwykle ważną rolę na naszej planecie, ponieważ przyczynia się do tzw. "efektu cieplarnianego". Po zsumowaniu odpowiednich wartości może się okazać, że azot, tlen, argon i dwutlenek węgla stanowią całość (100%) powietrza. Istnieją jednak również inne gazy, takie jak neon, metan, ozon i wiele innych. Jednak w normalnych warunkach występują one w bardzo małych ilościach.

Wśród gazów obecnych w atmosferze – w bardzo małych ilościach – znajduje się ozon. Chciałbym skupić się na tym konkretnym gazie, a raczej na jego braku, w pozostałej części mojej pracy.

Atmosferę można podzielić na cztery różne warstwy: troposferę, stratosferę, mezosferę i termosferę. Troposfera jest najcieńszą i najniższą warstwą atmosfery. Wznosi się na wysokość 6-8 km nad biegunami i 17 km nad równikiem. Na poziomie gruntu średnia temperatura wynosi 15°C, natomiast w górnej części spada do -55°C.

Kolejną warstwą jest stratosfera, która sięga nawet 50 km nad Ziemią. Skupię się bardziej szczegółowo na stratosferze, ponieważ to właśnie w tej warstwie znajduje się warstwa ozonowa — sfera ozonowa — która chroni nas przed szkodliwym promieniowaniem słonecznym. W najniższej części tej strefy temperatura wynosi -55°C. W miarę oddalania się od Ziemi temperatura wzrasta, osiągając 0°C w górnej części. Wzrost temperatury w stratosferze spowodowany jest przemianą tlenu w ozon, który zachodzi tam pod wpływem promieniowania słonecznego, czemu towarzyszą reakcje uwalniające ciepło. Trzecią warstwą atmosfery jest mezosfera. Charakteryzuje się znacznym spadkiem temperatury wraz ze wzrostem wysokości. W okolicach mezopauzy temperatura spada do -90°C, a nawet -100°C. Są to najniższe temperatury w całej atmosferze.

Najbardziej zewnętrzną warstwą atmosfery jest termosfera. Rozciąga się na wysokości około 80-85 km nad powierzchnią Ziemi. Składa się z jonosfery, magnetosfery i egzosfery. W jonosferze występuje zorza polarna, tam również odbijają się fale radiowe. Magnetosfera działa jak ogromny magnes, który chroni Ziemię przed cząstkami o wysokiej energii. Egzosfera stopniowo przechodzi w przestrzeń kosmiczną. (www.alphabeta.pl)

Należy wspomnieć, że dolne warstwy atmosfery mają ogromne znaczenie dla życia na naszej planecie. Procesy pogodowe zachodzą tak, jakby atmosfera na powierzchni Ziemi charakteryzowała się znacznie większymi dobowymi wahaniami temperatury i znacznie większymi różnicami sezonowymi. (Przykładowo, na bezwietrznym Księżycu temperatury w ciągu dnia osiągają +130°C, podczas gdy w nocy spadają poniżej -170°C. Atmosfera chroni również powierzchnię Ziemi przed bombardowaniem przez meteoryty z kosmosu, a także przed różnymi szkodliwymi promieniowaniami (zwłaszcza ze Słońca), które są szkodliwe dla istot żywych. Niektóre z nich całkowicie blokują niektóre rodzaje promieniowania (na przykład promieniowanie rentgenowskie), podczas gdy inne znacznie je osłabiają. Atmosfera ziemska przepuszcza tylko około 1% promieniowania ultrafioletowego Słońca, znanego również jako promieniowanie UV, ale omówię to promieniowanie bardziej szczegółowo w innym rozdziale.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.



Warstwa ozonowa

Wstęp pracy licencjackiej

Stojąc u progu nowego tysiąclecia, warto zastanowić się nad problemami, jakie niesie ze sobą rozwój cywilizacyjny. Coraz więcej uwagi poświęca się potrzebie, aby rozwój cywilizacji i kultury człowieka opierał się na harmonijnym współżyciu z naturą, a także na bardziej ludzkim traktowaniu Ziemi – „kolebki ludzkości” oraz miejsca życia i rozwoju człowieka. Ważne jest, aby zrozumieć, że żaden kraj ani osoba nie może izolować się od globalnych skutków degradacji środowiska, które musimy chronić, aby nadal się rozwijać.

Jednym z problemów cywilizacyjnych, do których odniosę się w tym artykule, jest zubożenie warstwy ozonowej w stratosferze.

Jeszcze 20 lat temu mało kto słyszał o warstwie ozonowej. Teraz, dzięki niefortunnym odkryciom naukowców, zdaliśmy sobie sprawę z jego znaczenia dla ochrony życia na Ziemi i wynikającej z tego konieczności jego zachowania. Warstwa ozonowa jest bardzo wrażliwym elementem struktury atmosfery, który jest podatny na zakłócenia. Jest to jedyna tarcza chroniąca powierzchnię naszej błękitnej planety przed śmiercionośnym (w dużych ilościach) promieniowaniem ultrafioletowym, które działa destrukcyjnie na tkanki organizmów żywych. Z tego powodu ozon atmosferyczny odgrywa ważną rolę, być może najważniejszy czynnik w kształtowaniu klimatu ekologicznego na Ziemi.

W swojej pracy chciałabym przedstawić różne efekty i zagrożenia związane z obserwowanym zubożeniem warstwy ozonowej w stratosferze, które jest spowodowane ciśnieniem antropogenicznym. W pierwszym rozdziale skupię się na przedstawieniu obszaru o najwyższym stężeniu ozonu, czyli WARSTWY OZONOWEJ, oraz jej funkcji. Przedstawię również techniki stosowane do pomiaru ozonu w atmosferze.

Drugi rozdział poświęcony jest przyczynom spadku stężeń ozonu w stratosferze. Możesz dowiedzieć się, czym jest ozonowa i jak powstaje. Jednak mimo prawie dwudziestu lat badań, opinie naukowe na temat zmian w warstwie ozonowej nie są do końca jednoznaczne; Wynika to z faktu, że wiele poglądów ma charakter hipotetyczny. Z tego powodu często spotyka się sprzeczne opinie, na przykład, że ozonowa zmniejszyła się, a w innej publikacji, że ozonowa osiągnęła obecnie swoje największe rozmiary. Ważne jest, aby zwrócić uwagę na to, kto go napisał i skąd pochodzą te informacje. Niezaprzeczalnym faktem jest, że sytuacja w warstwie ozonowej jest zła, a wielu specjalistów twierdzi, że będzie się jeszcze pogarszać.

W trzeciej części pracy przedstawiono konsekwencje degradacji ozonu, które mają na celu jednoznaczne ukazanie bezpośrednich skutków ozonowej dla ludzkości, która przestała być zagadnieniem akademickim, a ma obecnie kluczowe znaczenie. Powinniśmy działać w tym kierunku i mieć nadzieję, że wydarzenia w warstwie ozonowej nie staną się katastrofalne, jak sugerują niektóre hipotezy. A wyniki badań pokazują, że winę za tę sytuację ponosimy wyłącznie my.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.



Skład granulometryczny gleb badanych obiektów

Na badanych obszarach występują asocjacje gleb autogenicznych bielicoziemnych, wytworzonych z różnej miąższości piasków eolicznych zalegających na piaskach fluwioglacjalnych w podłożu.

  1. Skład gleb

Tabela 1. Skład granulometryczny gleb badanych obiektów

Obiekt Gleba Warstwa

(cm)

Zawartość frakcji (%)
1 – 0,1 0,1 – 0,2 < 0,2
1 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 86,9 9,1 4,0
10 – 20 86,7 11,3 2,0
2 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 83,0 12,0 5,0
10 – 20 83,6 11,4 5,0
3 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 90,6 7,4 2,0
10 – 20 92,0 6,0 2,0
1 Ż Glejobielicowa

torfiasta

5 – 10 74,5 18,5 7,0
10 – 20 77,8 13,2 9,0
2 Ż Rdzawa,wytworzona

z piasków sg

5 – 10 71,6 21,4 7,0
10 – 20 80,7 14,3 5,0
3 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 55,3 25,7 19,0
10 – 20 57,7 25,3 17,0
4 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 44,2 28,2 27,0
10 – 20 43,5 29,5 27,0
5 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 48,5 32,5 19,0
10 – 20 49,0 35,0 16,0

Szczegółowy opis przedstawiono w rozdziale IV.

Badane gleby cechują się luźnym składem granulometrycznym (Tab. 1).

W części mineralnej gleb do głębokości 20 – 40 cm znajdują się eoliczne piaski luźne lub średnio i drobnoziarniste.

  1. Odczyn gleb

 Badane gleby charakteryzują się odczynem od bardzo kwaśnego do kwaśnego, z pH w 1 mol·dcm-3 KCl od 2,8 do 3,9 i pH w H2O od 3,9 do 5,1 (tab. 2). Tak wysokie kwasowości uwarunkowane są długotrwałą, intensywną imisją związków azotowych w formie opadu suchego i mokrego do gleb. W warunkach wysycenia kompleksu sorpcyjnego kationami
i anionami N, powstają nadmiary protonów H+ wywołujące kwasowe reakcje.

Tabela 2. Odczyn gleb badanych obiektów

Obiekt Gleba Warstwa

(cm)

pH

w H2O

PH w

1 mol·dcm-3 KCl

1 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 4,1 3,4
10 – 20 4,3 3,5
2 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 3,9 3,2
10 – 20 4,2 3,3
3 P Rdzawa,wytworzona

z piasków luźnych

5 – 10 4,3 3,4
10 – 20 4,5 3,6
1 Ż Glejobielicowa

torfiasta

5 – 10 4,5 3,5
10 – 20 4,7 3,8
2 Ż Rdzawa,wytworzona

z piasków sg

5 – 10 4,0 2,9
10 – 20 4,7 3,6
3 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 3,9 2,8
10 – 20 4,1 3,2
4 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 4,4 3,3
10 – 20 4,8 3,6
5 Ż Opadowo-glejowa,

Wytworzona z pgp

5 – 10 4,9 3,7
10 – 20 5,1 3,9

Szczegółowy opis przedstawiono w rozdziale IV.

  1. Zawartość Corg. i N ogółem w glebie

Zawartość próchnicy w glebach, przedstawiona w tabeli 1, w formie TOC była niska, z C organicznym od 0,56 do 1,16 g/kg w poszczególnych punktach badawczych. Również zasoby ogólnej ilości azotu w glebach były niskie od 0,03 do 0,09 g/kg. Istotne zubożenie gleb pod względem zawartości tych składników obserwowano w punktach pozbawionych naturalnej okrywy roślinnej, położonych najbliżej ZA. Zawartość Corg. i N ogółem w glebach była zróżnicowana w zależności od badanego ekosystemu i odległości od ZA (Tab. 3). Najmniejsze ilości tych składników stwierdzono w glebie synantropijnego ekosystemu położonego najbliżej ZA (0,5 km – obiekt 1P), a największe w glebie siedliska BMśw., w odległości 15,5 km od ZA (obiekt 4Ż). Zawartość Corg. i N ogółem w głębszej warstwie (10-20 cm) gleby była około dwukrotnie niższa niż w warstwie 5-10 cm (tab. 2).

Wartości stosunku C:N w glebach badanych siedlisk  leśnych mieściły się w granicach od 10,6 do 12,9 (Tab. 3).

Tabela 3. Zawartość C organicznego ogółem i N ogółem w glebie (%)

Obiekt Warstwa C organiczny N ogółem C : N
1 P 5 – 10 1,30 0,11 11,8
10 – 20 0,65 0,06 10,8
2 P 5 – 10 1,44 0,12 12,0
10 – 20 0,76 0,06 12,7
3 P 5 – 10 1,55 0,12 12,9
10 – 20 0,88 0,08 11,0
1 Ż 5 – 10 1,75 0,14 12,5
10 – 20 0,86 0,08 10,8
2 Ż 5 – 10 1,58 0,14 11,3
10 – 20 0,76 0,07 10,8
3 Ż 5 – 10 1,70 0,14 12,1
10 – 20 0,86 0,08 10,8
4 Ż 5 – 10 1,90 0,16 11,8
10 – 20 1,04 0,09 11,6
5 Ż 5 – 10 1,66 0,14 11,8
10 – 20 0,85 0,08 10,6

Szczegółowy opis przedstawiono w rozdziale IV.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.



Rewitalizacja terenów nadrzecznych

Rewitalizacja terenów nadrzecznych stanowi ważny element współczesnych strategii urbanistycznych i środowiskowych, mających na celu poprawę jakości życia mieszkańców miast, ochronę środowiska oraz rozwój gospodarczy. Przekształcenie zaniedbanych i zanieczyszczonych obszarów w atrakcyjne przestrzenie publiczne nie tylko zwiększa ich wartość estetyczną, ale również przyczynia się do poprawy warunków ekologicznych, tworzenia miejsc rekreacji oraz integracji społecznej.

Cele rewitalizacji terenów nadrzecznych

Rewitalizacja terenów nadrzecznych ma na celu realizację kilku kluczowych celów:

  1. Poprawa jakości środowiska: Jednym z głównych celów rewitalizacji jest redukcja zanieczyszczeń oraz ochrona ekosystemów wodnych. Dzięki projektom rewitalizacyjnym można przywrócić naturalne siedliska, poprawić jakość wód i zmniejszyć ryzyko powodzi.
  2. Zwiększenie atrakcyjności turystycznej i rekreacyjnej: Rewitalizowane tereny nadrzeczne stają się atrakcyjnymi miejscami dla mieszkańców i turystów. Ścieżki spacerowe, rowerowe, parki, place zabaw i obiekty sportowe przyciągają ludzi, zachęcając do spędzania czasu na świeżym powietrzu i promując aktywny styl życia.
  3. Rozwój gospodarczy: Ożywienie zaniedbanych terenów może prowadzić do wzrostu wartości nieruchomości, przyciągania inwestycji oraz tworzenia nowych miejsc pracy. Restauracje, kawiarnie, sklepy i inne usługi mogą rozwijać się w pobliżu atrakcyjnych nadrzecznych przestrzeni publicznych.
  4. Integracja społeczna: Rewitalizacja terenów nadrzecznych może sprzyjać integracji społecznej, tworząc przestrzenie, gdzie ludzie z różnych środowisk mogą się spotykać, wspólnie uczestniczyć w wydarzeniach kulturalnych i rekreacyjnych, a także angażować się w życie społeczności lokalnej.

Przykłady udanych rewitalizacji terenów nadrzecznych

Na całym świecie można znaleźć liczne przykłady udanych rewitalizacji terenów nadrzecznych, które przyniosły znaczące korzyści ekologiczne, społeczne i ekonomiczne.

W Londynie nad Tamizą powstała nowoczesna przestrzeń publiczna znana jako South Bank. Obejmuje ona takie atrakcje jak London Eye, Tate Modern i Shakespeare’s Globe Theatre. Przekształcenie dawnych przemysłowych nabrzeży w tętniącą życiem dzielnicę kulturalną i rekreacyjną przyciągnęło miliony turystów i znacząco przyczyniło się do rozwoju lokalnej gospodarki.

W Polsce przykładem udanej rewitalizacji terenów nadrzecznych jest projekt Bulwarów Wiślanych w Krakowie. Dzięki rewitalizacji powstały nowe ścieżki spacerowe, rowerowe, place zabaw, a także miejsca do uprawiania sportów wodnych. Bulwary stały się ulubionym miejscem wypoczynku mieszkańców i turystów, promując zdrowy styl życia i integrację społeczną.

W USA spektakularnym przykładem jest projekt The High Line w Nowym Jorku, który przekształcił dawną linię kolejową biegnącą wzdłuż rzeki Hudson w unikalny park nadziemny. The High Line stał się symbolem innowacyjnej rewitalizacji miejskiej, przyciągając zarówno mieszkańców, jak i turystów, a także stymulując rozwój okolicznych dzielnic.

Wyzwania i przyszłość rewitalizacji terenów nadrzecznych

Rewitalizacja terenów nadrzecznych wiąże się z licznymi wyzwaniami. Po pierwsze, proces ten wymaga znacznych nakładów finansowych, zarówno na etapie planowania, jak i realizacji projektów. Zabezpieczenie środków może być trudne, zwłaszcza w miastach o ograniczonych budżetach. Ponadto, konieczne jest skoordynowanie działań różnych interesariuszy, w tym władz lokalnych, deweloperów, organizacji pozarządowych i społeczności lokalnych.

Kolejnym wyzwaniem jest zapewnienie zrównoważonego rozwoju, który będzie respektować i chronić naturalne ekosystemy. Zbyt intensywna zabudowa i komercjalizacja mogą prowadzić do degradacji środowiska i utraty naturalnych walorów. Dlatego kluczowe jest uwzględnienie aspektów ekologicznych w procesie planowania i realizacji projektów rewitalizacyjnych.

Pomimo tych wyzwań, przyszłość rewitalizacji terenów nadrzecznych rysuje się obiecująco. W obliczu rosnącej urbanizacji i zmian klimatycznych, miasta na całym świecie coraz bardziej doceniają znaczenie zielonych przestrzeni i zrównoważonego rozwoju. Innowacyjne podejścia, takie jak wykorzystanie technologii inteligentnych miast, zielonej infrastruktury oraz zintegrowane planowanie urbanistyczne, mogą przyczynić się do jeszcze bardziej efektywnej i trwałej rewitalizacji terenów nadrzecznych.

Podsumowując, rewitalizacja terenów nadrzecznych jest kluczowym elementem zrównoważonego rozwoju miast. Przynosi liczne korzyści ekologiczne, społeczne i ekonomiczne, jednocześnie promując zdrowy styl życia i integrację społeczną. Dzięki udanym projektom na całym świecie możemy czerpać inspirację i uczyć się najlepszych praktyk, aby tworzyć jeszcze bardziej atrakcyjne, zrównoważone i przyjazne dla mieszkańców przestrzenie nad wodą.

Jeśli potrzebujesz pomocy w napisaniu pracy z zakresu ochrony środowiska, to polecamy serwis pisanie prac - prace z ekologii i innych kierunków pisane na (prawie) każdy temat.