Blog > Komentarze do wpisu

FAQ - Pomiary temperatury

Ponieważ w ciągu najbliższych kilkunastu dni opublikowane zostaną oficjalne podsumowania klimatyczne dla roku 2010, noworoczne FAQ poświęcone będzie pomiarom temperatur.

1. Dlaczego "globalne ocieplenie"?

Ponieważ odkryto, że wzmocnienie efektu cieplarnianego, poprzez antropogeniczne emisje CO2, doprowadzi do ocieplenia całej planety. Była to podstawowa prognoza teorii antropogenicznego globalnego ocieplenia, obecna zarówno w pierwszych, prostych rachunkach z pierwszej połowy XX wieku, jak i coraz bardziej skomplikowanych skomplikowanych modelach klimatu z lat siedemdziesiątych i osiemdziesiątych. Co istotniejsze, była to prognoza, którą można było zweryfikować dzięki prowadzonym od ponad stulecia obserwacjom meteorologicznym.

Termin "globalne ocieplenie" wprowadził do literatury jako pierwszy wybitny amerykański oceanograf Wallace Smith Broecker, w tytule artykułu opublikowanego w 1975 roku w magazynie Science,1 jednak tak naprawdę spopularyzowała go grupa modelarzy z ośrodka NASA GISS, zainteresowanych właśnie weryfikacją przewidywań teoretycznych przy pomocy obserwacji. W roku 1988 naukowcy ci orzekli, że "najlepszym miejscem do poszukiwania [wzmocnionego] efektu cieplarnianego wydaje się średnia temperatura powierzchni globu", i że to "globalne ocieplenie" powinno w czytelny sposób przekroczyć granice naturalnej zmienności klimatycznej przed końcem następnej dekady.2 (Jak się okazało, mieli rację.)

Nazwa chwyciła, choć wielu klimatologów uważa, że nie jest najszczęśliwsza, gdyż podkreśla jeden tylko aspekt zmian klimatycznych.

2. Skąd wiemy, że Ziemia się ociepla?

Z wielu źródeł: pomiarów przeprowadzanych przez stacje meteorologiczne z całego świata; tzw. sondaży atmosferycznych wykonywanych przez balony i satelity; pomiarów temperatury oceanów przeprowadzanych przez statki, zautomatyzowane boje i satelity;3 a także, pośrednio, dzięki obserwacjom gatunków roślin i zwierząt, oraz systemów geofizycznych reagujących na wzrost temperatury.4

3. Ile wynosi średnia temperatura Ziemi?

Mniej więcej 14 stopni Celsjusza.

Dokładna wartość jest trudna do obliczenia, a nawet do zdefiniowania -- wyobraźmy sobie rejon górski, gdzie różnica temperatur mierzonych w tym samym czasie, ale w nieodległych, choć różniących się wysokością nad poziomem morza lokalizacjach może wynosić kilka, a nawet kilkanaście stopni.

Podanie średniej temperatury dla całego regionu, np. Tatr, byłoby bardzo trudne -- rzeczywiste obserwacje przeprowadza się dla zaledwie kilku punktów, i trudno nawet powiedzieć jakie znaczenie miałaby wyciągnięta z nich "średnia".

Z drugiej strony wiemy, że zmiany temperatury w całym regionie przebiegają w bardzo podobny sposób: jeśli w jakimś miejscu jest cieplej niż zwykle, tak samo (w dobrym przybliżeniu) cieplej niż zwykle jest w promieniu dziesiątków, a nawet setek kilometrów. Klimatolodzy posługują się więc chętniej pojęciem anomalii temperatury, która oznacza jak bardzo cieplej -- bądź zimniej -- jest w danym miejscu w stosunku do średniej wieloletniej, zwykle wynoszącej 30 lat.

Choć więc nie potrafimy precyzyjnie powiedzieć, ile wynosi średnia temperatura powietrza mierzona nad powierzchnią Ziemi, możemy -- z dużą dokładnością -- oszacować zmiany tej temperatury, w stosunku do średniej wieloletniej (ile by ona nie wynosiła).

4. Jak wyglądają takie szacunki?

Ponieważ najwięcej pytań dotyczy pomiarów instrumentalnych, przeprowadzanych przez stacje meteorologiczne, poniższy opis dotyczy właśnie tychże pomiarów -- według metod stosowanych przez brytyjski ośrodek Climatic Research Unit z Uniwersytetu Wschodniej Anglii.5

  1. W pierwszym tygodniu każdego miesiąca, około 1600 stacji meteorologicznych z całego świata wysyła tzw. depesze CLIMAT zawierające podsumowania mierzonych temperatur (i innych wielkości). Dane te gromadzone są w trzech centralnych bazach danych w USA, Niemczech i Japonii.
  2. Dla każdej stacji, posiadającej wystarczającą ilość danych w okresie 1961-1990, wyliczana jest, dla każdego miesiąca, 30-letnia średnia z temperatur miesięcznych. Następnie, dla każdego indywidualnego miesiąca każdego roku, wyliczana jest różnica ("anomalia") pomiędzy jego wartością, a odpowiednią średnią.
  3. "Podejrzane" wartości (na przykład wysokie dodatnie temperatury przy typowej, ujemnej średniej) są lokalizowane i ewentualnie odrzucane.
  4. Powierzchnia Ziemi dzielona jest następnie na "oczka" siatki o wymiarach 5 na 5 stopni szerokości i długości geograficznej (tak naprawdę nie są to kwadraty, gdyż są wycinane z powierzchni sfery -- która też tak naprawdę nie jest sferą...). Dla każdego oczka, które zawiera jakieś stacje, wyliczana jest średnia ich anomalii temperatur.
  5. Na koniec, dla półkuli północnej i południowej, wyliczana jest średnia anomalii ze wszystkich (posiadających jakieś dane) oczek siatki. Średnia ta uwzględniać musi zmianę powierzchni oczek siatki w zależności od ich szerokości geograficznej. Ze średnich hemisferycznych wyliczana jest średnia globalna.

Jak widać, ta konkretna metoda wyliczania średniej temperatury globu jest stosunkowo prosta (przykładową emulację można znaleźć u Piotra Djakówa). Na drugim końcu spektrum komplikacji znajdują się tzw. reanalizy historyczne, gdzie wykorzystuje się modele numeryczne atmosfery do asymilacji danych pochodzących z różnych źródeł (nie tylko pomiarów dokonywanych przez stacje meteorologiczne), oraz "prognozowania" wielkości takich jak temperatura czy ciśnienie tam, gdzie występują luki w danych meteorologicznych. Od niedawna reanalizy takie są na tyle dobre, by dało się je wykorzystywać do badania trendów klimatycznych.

Oczywiście, różnice metodologiczne sprawiają, że szacunki zmian temperatury nieznacznie się różnią. Należy także pamiętać, przy porównywaniu różnych serii pomiarowych, że mogą się one różnić okresami referencyjnymi, wobec których wyliczane są anomalie. Przykładowo, NASA podaje je wobec średniej z lat 1951-1980, a CRU używa okresu 1961-1990.

5. Podobno rok 2010 ma być najcieplejszy w historii pomiarów, tj. od roku 1880. Czy to oznacza, że wcześniej było cieplej?

Aby wyliczyć średnią dla całego globu, potrzebna jest odpowiednia liczba punktów pomiarowych, na wszystkich kontynentach. Przed rokiem 1880 ta liczba zmniejsza się na tyle, że trudno wiarygodnie oszacować zmiany temperatury (przede wszystkim na półkuli południowej).

Aby dowiedzieć się o zmianach klimatu, w skali globalnej, dla okresów wcześniejszych, trzeba sięgnąć po dane pośrednie (tzw. proxy).

6. W jaki sposób można porównywać temperatury mierzone 100 lat temu, przy użyciu ówczesnych przyrządów i metod, z pomiarami współczesnymi?

Krótka odpowiedź brzmi: zazwyczaj nie można. Dlatego dane meteorologiczne, jeśli mają służyć do badań klimatu, muszą podlegać tzw. homogenizacji, czyli usunięciu wpływu czynników nie-klimatycznych na wyniki pomiarów.

Takimi czynnikami może być przesunięcie lokalizacji stacji; wymiana klatki meteorologicznej albo zamiana termometru na termistor; wycięcie okolicznych drzew; zmiana godzin prowadzenia pomiarów czy nawet sposobu wyliczania średnich dobowych.6

Homogenizacja jest możliwa dzięki temu, że choć sąsiadujące ze sobą stacje meteorologiczne mogą mierzyć znacznie różniące się wartościami temperatury, to same zmiany temperatur wyglądają bardzo podobnie. Poprzez porównanie różnych serii pomiarowych można więc wykryć punkty, w których jakieś czynniki powodowały zawyżenie bądź zaniżenie mierzonych temperatur, zaś dokumentacja historyczna stacji dostarcza informacji, o jakie czynniki chodzi.

7. Czyli ocieplenia nie widać w "surowych" danych meteorologicznych, tylko takich które zostały odpowiednio zmodyfikowane przez klimatologów?

Jeśli pomiary były przeprowadzane w sposób ciągły, bez zmian lokalizacji (albo były one niewielkie), w terenie niezurbanizowanym -- to ocieplenie jest wyraźne nawet w danych "surowych". Przykładem może być tych 11 nowozelandzkich stacji meteorologicznych.

A co do innych danych -- no cóż, nie można zjeść ciastka i mieć ciastka, wskazywać na istnienie błędów systematycznych w pomiarach i jednocześnie wymagać, by tych błędów nie usuwano, i używano "surowych" danych. Pomiarów meteorologicznych nie przeprowadzano, przez większość XX wieku, z myślą o ich zastosowaniach w klimatologii, a nie możemy niestety cofnąć się w czasie i ich powtórzyć. Stąd wynika konieczność homogenizacji danych.

8. A co z Miejskimi Wyspami Ciepła? Czy to nie one odpowiadają za trend wzrostowy temperatur?

Nie. Jak napisano na początku, ocieplenie jest widoczne także w danych na które efekt MWC nie ma wpływu (np. pomiarach temperatury troposfery albo oceanów).

Dodatkowo, dotychczasowe analizy pokazują, że wpływ MWC na wartość trendów regionalnych i globalnych wyliczonych z pomiarów przeprowadzanych przez stacje meteorologiczne jest znikomy;7 "sceptycy klimatyczni" zaś, pomimo szumnych deklaracji i wieloletniego wysiłku, nie zdołali wykazać że mogłoby być inaczej -- a nawet wręcz przeciwnie, udowodnili poprawność "oficjalnych" danych oraz stosowanej przez klimatologów metodologii.7a

9. Skoro klimat się ociepla, dlaczego jest tak zimno?

Ponieważ wciąż mamy pogodę, której zmienność przysłania trendy klimatyczne obserwowane w okresach krótszych niż jedna czy dwie dekady. Nawet jeśli patrzymy na całą planetę (tzn. średnie globalne), nie należy spodziewać się, w związku z globalnym ociepleniem, jednostajnego wzrostu temperatury. Nie jest więc dziwne, że po rekordowo ciepłym roku może nastąpić kilka lat chłodniejszych. Z drugiej strony, jeśli popatrzymy na dłuższe czasookresy, nie powinno być wątpliwości że Ziemia się ociepla -- przykładowo, średnia temperatur dla każdej kolejnej dekady jest coraz wyższa.

Oczywiście ludzie bezpośrednio doświadczają lokalnych zjawisk pogodowych, a o stanie klimatu mogą co najwyżej poczytać. Dodatkowo, ponieważ pamięć ludzka jest zawodna, trudno nam, bez dostępu do danych meteorologicznych, porównywać warunki pogodowe, a tym bardziej klimatyczne.

Dlatego, przed pochopnym obwieszczeniem końca globalnego ocieplenia, warto sprawdzić kontekst "niespotykanie" niskich temperatur. Przykładowo, rozkład temperatur na półkuli północnej w grudniu 2010 wyglądał następująco:

Jak widać, temperatury znacznie niższe niż średnia wieloletnia (1968-1996) panowały w Europie, na Syberii, Alasce oraz Wschodnim Wybrzeżu USA. Jednocześnie wyjątkowo ciepło było niemal w całej Arktyce, północno-wschodniej Kanadzie, zachodnich USA, rosyjskim Dalekim Wschodzie, Bliskim Wschodzie i Afryce Północnej.

Dla porównania, rozkład anomalii temperatur w globalnie bardzo ciepłym styczniu 2010 roku, wyglądał bardzo podobnie, co polecam uwadze osób szukających potwierdzenia tezy o zatrzymaniu Golfstromu:

10. No dobrze, ale dlaczego jest tak zimno? Słyszałem, że tłumaczy się to właśnie globalnym ociepleniem!

Istnieje kilka hipotez8 wiążących niskie wartości minimum powierzchni lodu arktycznego z występowaniem blokady cyrkulacji atmosferycznej, która jest "bezpośrednio" odpowiedzialna za mroźny styczeń, luty i grudzień 2010 roku. Nawet gdyby któraś z tych hipotez okazała się prawdziwa (a do ich potwierdzenia jest daleko), to trudno byłoby jednak jednoznacznie wykazać, że jakieś konkretne zdarzenie pogodowe zostało "spowodowane" przez globalne ocieplenie. Można co najwyżej powiedzieć, że byłoby ono mało prawdopodobne (choć nie niemożliwe), gdyby nie modyfikacja klimatu przez człowieka.

W każdym razie potrzebnych jest więcej obserwacji (i więcej symulacji klimatu), by wykazać że blokady cyrkulacji z 2010 nie są tylko mało prawdopodobnymi "anomaliami", które po prostu się wydarzyły, lecz że faktycznie coś się zmieniło w systemie klimatycznym.

11. Przecież rosyjscy eksperci udowodnili, że Brytyjczycy sfabrykowali przesyłane im z Rosji dane dotyczące średnich temperatur na terenie tego kraju.

W zasadzie trudno sobie wyobrazić, jak coś takiego mogłoby być możliwe i czemu miałoby służyć: jeden brytyjski ośrodek badań nad klimatem nie ma przecież monopolu na analizę danych temperaturowych (z Rosji czy z innych krajów), a ich analiza jest replikowalna na podstawie ogólnodostępnych danych, więc "fabrykacje" byłby łatwe do wykrycia, czy to przez rosyjskie służby meteorologiczne (których oficjalne stanowisko w sprawie globalnego ocieplenia można znaleźć tutaj), czy inne ośrodki.

Skąd więc wzięły się te sensacyjne doniesienia prasowe? W dużym skrócie, "rosyjscy eksperci" wzięli część danych używanych przez brytyjski CRU, błędnie uznali że stanowią one całość wszystkich danych którymi dysponuje CRU, po czym odkryli, że analiza oparta o ten podzbiór danych różni się, dla okresu gdzie danych jest w ogóle mało, i obciążone są one największymi niepewnościami, od analizy opartej o cały zbiór. Przy okazji, niejako niechcący potwierdzili także realność globalnego ocieplenia na terenie Rosji.

12. A co z "wymieraniem termometrów"? Podobno amerykańska agencja NOAA kasowała dane ze stacji meteorologicznych położonych w zimniejszych regionach, by wprowadzić sztuczne ocieplenie.

Zmiana liczebności punktów pomiarowych jest w meteorologii i klimatologii zjawiskiem powszechnie spotykanym -- stacje meteorologiczne są zakładane, przenoszone, zamykane z różnych przyczyn -- byłoby więc dziwne, gdyby naukowcy zajmujący się analizą danych temperaturowych przeoczyli możliwość, że może prowadzić ona do obciążenia szacowanych zmian temperatury błędami systematycznymi, poprzez zawyżenie bądź zaniżenie wyliczanych średnich.

Okazuje się jednak, że -- niespodzianka -- naukowcy wiedzą co robią. Wystarczy chwilę przeanalizować opisaną w punkcie 4 metodę anomalii klimatycznych, by zrozumieć że eliminuje ona te błędy, ponieważ nie interesuje nas czy temperatury mierzone przez daną stację są wysokie, czy niskie, ale czy są wyższe bądź niższe niż zwykle (jeśli ktoś nie jest tym przekonany, może znaleźć prostą demonstrację u Piotra Djaków).

Inne metody radzą sobie z tym problemem w inny sposób (jak to wygląda w używanym przez GISTEMP algorytmie Reference Station Method można przeczytać tutaj), ale prowadzą do bardzo podobnych wyników. I choć, teoretycznie, zmiana liczebności stacji może prowadzić do zmian wyliczanych trendów klimatycznych (przykładowo, "zimne" stacje z rejonu Arktyki ogrzewają się szybciej, więc ich usunięcie prowadziłoby do oziębienia, a nie ocieplenia, jak twierdzili "sceptycy klimatyczni"), wpływ ten jest znikomy jak długo dysponujemy wystarczającą liczbą obserwacji.

Ile to jest wystyarczająco? Można oszacować, że ze względu na korelację pomiędzy zmianami temperatur rejestrowanymi na dużych obszarach, liczba tzw. przestrzennych stopni swobody pola temperatury wynosi, globalnie, około 100 (mniej w miesiącach zimowych, więcej w letnich).9 Tyle mniej więcej potrzebowalibyśmy zatem punktów obserwacyjnych na całej planecie, by móc szacować zmiany temperatury z dużą dokładnością. Stacji pomiarowych, wysyłających co miesiąc wyniki pomiarów wykorzystywane do analiz klimatologicznych, jest ponad 15 razy więcej.

A skąd wzięło się "wymieranie termometrów" w roku 1990? Nie jest to żadną tajemnicą: baza danych klimatycznych GHCN, której zawartość doprowadziła do tych oskarżeń, pierwotnie zawierała wyłącznie dane historyczne, skompilowane jednorazowo, na przełomie lat osiemdziesiątych i dziewięćdziesiątych. Dołączono do niej następnie, w formie comiesięcznych uaktualnień, depesze CLIMAT.10 Ponieważ stacji wysyłających te depesze jest mniej, niż wszystkich publikowanych stacji, zawartych w bazie historycznej, spadek ilości obserwacji był oczywiście nieunikniony. Aczkolwiek, jak napisano wyżej, nie ma to większego wpływu na szacunki zmian temperatur.


1) W. S. Broecker (1975), "Climatic Change: Are We on the Brink of a Pronounced Global Warming?", Science, 189, 460-463 (link).

2) J. E. Hansen, et al (1988), "Global climate changes as forecast by Goddard Institute for Space Studies three-dimensional model", J. Geophysical Research, 93, 9341-9364 (link).

3) D.S. Arndt, M. O. Baringer, i M. R. Johnson (red) (2010), "State of the Climate in 2009", Bull. Amer. Meteor. Soc., 91 (7), S1-S224 (link).

4) T. L. Root, et al. (2003), "Fingerprints of global warming on wild animals and plants", Nature 421, 57-6 (link).

5) P. Brohan, J.J. Kennedy, I. Harris, S.F.B. Tett i P.D. Jones (2006), "Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850", J. Geophysical Research 111, D12106 (link).

6) B. Trewin (2010), "Exposure, instrumentation, and observing practice effects on land temperature measurements", Wiley Interdisciplinary Reviews: Climate Change, 1, 490–506 (link).

7) J. Hansen, R. Ruedy, Mki. Sato, K. Lo (2010), "Global surface temperature change", Rev. Geophys., 48, RG4004 (link); M.J. Mennes, C. N. Williams Jr., M. A. Palecki (2010), "On the reliability of the U.S. surface temperature record", J. Geophysical Research 115, D11108 (link).

7a) Fall, S., A. Watts, J. Nielsen-Gammon, E. Jones, D. Niyogi, J. Christy, i R.A. Pielke Sr. (2011): "Analysis of the impacts of station exposure on the U.S. Historical Climatology Network temperatures and temperature trends", J. Geophys. Res., in press.

8) Np. V. Petoukhov, V. A. Semenov (2010), "A link between reduced Barents-Kara sea ice and cold winter extremes over northern continents", J. Geophysical Research 115, D21111 (link).

9) X. Wang i S. S. Shen (1999), "Estimation of Spatial Degrees of Freedom of a Climate Field", J. Climate, 12, 1280–1291.

10) T. C. Peterson, i R. S. Vose (1997), "An Overview of the Global Historical Climatology Network Temperature Database", Bull. Am. Meteorol. Soc., 78, 2837-2849.

sobota, 01 stycznia 2011, perfectgreybody
Tagi: faq

Polecane wpisy

TrackBack
TrackBack w tym blogu jest moderowany. TrackBack URL do wpisu:
Komentarze
2011/01/01 13:59:18
W najnowszym numerze SFFiH Baron Cebula pisze - nieco bełkotliwie - o "seriach pomiarowych z rosyjskich stacji, które 'zgubiły' się klimatologom". A także o Svensmarku, Becku i Wattsonie.

Może by w FAQ coś i o tym?
-
2011/01/01 14:34:58
Jeśli prawidłowo rozszyfrowuję SFFiH jako "Science Fiction, Fantasy i Horror" to uważam, że opisana wyżej treść utworu pasuje jak ulał do profilu pisma.

Szczęśliwego Nowego Roku 2011!

I dodam, że pewnie chłodniejszego średnio niż 2010 bo mamy akurat La Ninię.
-
2011/01/01 14:41:17
No dobrze, ale sformułuj pytanie (ewentualnie przeklej kawałek tekstu Cebuli, do którego mam się odnieść). O rosyjskich stacjach, Wattsonie i Svensmarku mam osobne notki, możliwe jednak że pan Cebula wymyślił coś nowego -- jakiś czas temu próbował nas tutaj przekonywać, że nikt nie mierzy stężeń fluorowcopochodnych w stratosferze, bo kondensują się one w troposferze, wszystko oczywiście celem wykazania, że dziura ozonowa to kolejne oszustwo ekologów.

Był bardzo zdziwiony kiedy się dowiedział, że jest inaczej niż mu się przez 10 lat wydawało.
-
2011/01/01 14:54:26
Jako się rzekło, tekst Cebuli jest dość bełkotliwy. Jednak link do notki o rosyjskich pomiarach jest właśnie tym, czego szukałem - wkleić go do FAQ i będzie dobrze.

Wszystkiego Najcieplejszego w Nowym 2011 Roku!
-
2011/01/02 15:47:06
OT: redakcja portalu wrzuciła notkę na jedynkę, ciekawe ile gawiedzi przeczyta ze zrozumieniem - bo miłośników powszechnie-wiadomego-globalnego-ochłodzenia jeszcze nie przywiało.
-
2011/01/02 17:03:43
Mam pytanie:

Jak sie oblicza średnią dla regionów. Np. pod poprzednią notką pdjakow napisał, że dla "centralnej Polski" lata 1999-2008 były dekadą najcieplejszą w historii pomiarów. Czy to efekt średniej z wytypowanych stacji pomiarowych, wszystkich istniejących w Polsce centralnej, czy jest jakaś jedna reprezentatywna?
-
2011/01/02 20:41:11
Jak to zrobił pdjakow, i jak zdefiniował "centralną Polskę", najlepiej odpowie Ci on sam. Są trzy podstawowe metody, o rosnącym stopniu komplikacji:
1) Jeśli interesuje nas tylko względna zmiana temperatury, punkty pomiarowe (powiedzmy, Koło, Płock, Łódź, Warszawa) są rozmieszczone w miarę równomiernie, region mały a orografia jest mało skomplikowana, to wystarczy zwykłe wyliczenie średniej z kilku serii pomiarowych. Teoretycznie nawet wybranie jakiejś jednej "reprezentatywnej" stacji wystarczyłoby, ale większa ich ilość redukuje błędy przypadkowe pomiarów.
2) W bardziej skomplikowanych przypadkach niezbędna jest interpolacja danych (uwzględniając gradient wysokościowy, jak to się robi np. na mapkach IMGW), po czym można wyciąć wybraną powierzchnię dla której chcemy policzyć średnią.
3) W jeszcze bardziej skomplikowanych przypadkach można wykorzystać model numeryczny (czyli, w dużym uproszczeniu, wykorzystać prognozy do interpolacji danych).
-
2011/01/03 11:21:02
@pgb

"Jak to zrobił pdjakow, i jak zdefiniował "centralną Polskę", najlepiej odpowie Ci on sam."

Formalnie, to ja liczę całą Europę Środkową od 10E do 25E i 45N do 55N zgridowaną na siatce 2.5 stopnia. Centralną Polskę można definiować bez gridowania danych, biorąc dane z kilku miast. Dane można znaleźć:
- dla okresu 1954-1995 w każdym Dużym Roczniku Statystycznym z tego okresu
- dla okresu po 1996 w roczniku "Ochrona Środowiska". Ostatni rocznik do pobrania tutaj:
www.stat.gov.pl/gus/5840_1523_PLK_HTML.htm
Paroletnie archiwum:
www.stat.gov.pl/gus/5840_1526_PLK_HTML.htm

Informacja o najcieplejszej dekadzie 1999-2008 jest prawdziwa dla całej Europy Środkowej, tutaj kreśliłem średnie ruchome 11-letnie:
gfspl.rootnode.net/BLOG/wp-content/uploads/2010/10/ceu.png
-
2011/01/03 11:36:45
Teraz widzę, że dla CEU wyszło mi nawet cieplej w dekadzie 2000-2009. Z nieco starszej wersji bazy danych wychodzi tak:
gfspl.rootnode.net/CEU.xls
Różnica jest rzędu 0.02, więc być może w domu mi wychodzi nieco inaczej.
Notabene cała dekada 2001-2010 będzie miała temperaturę niższą - rzędu +0.95, co i tak oznacza, że licząc dekady 1991-2000, 2001-2010 itp. jest najcieplejsza:

1901-1910: -0.36
1911-1920: -0.08
1921-1930: -0.06
1931-1940: -0.06
1941-1950: 0.13
1951-1960: -0.02
1961-1970: -0.19
1971-1980: -0.05
1981-1990: 0.25
1991-2000: 0.63
2001-2010: 0.95 (+-0.03)
-
2011/01/04 09:16:47
Denialiści powinni grzmieć na alarm. Dzisiejsze numeryczne prognozy pogody, np. z ICM-u mają ewidentnie zawyżone temperatury . Modele nie uwzględniły bowiem istotnego wymuszenia. Zapytanie jakiego?

www.astronomia.pl/wiadomosci/index.php?id=2682
-
2011/01/04 10:58:23
O ile spadnie temperatura mierzona na 2m przy 80% zaćmieniu? :) Z drugiej strony, czy ktoś kiedyś mierzył zachowanie t2m przy dłuższym (parę minut) zaćmieniu całkowitym? Z chęcią bym sobie takie dane obejrzał, a nie chcę czekać do 2135...
-
2011/01/04 11:32:05
Probka literatury na temat:

Antonia, R.A., Chambers, A.J., Phong-Anant, D., Rajagopalan, S., Sreenivasan, K.R., Response of atmospheric surface layer turbulence to a partial solar eclipse (1979) J. Geophys. Res., 84, pp. 1689-1692.

Ramchandran, P.M., Ramchandran, R., Gupta, K.S., Patil, S.M., Jadhav, P.N.
Atmospheric surface-layer processes during the total solar eclipse of 11 August 1999 (2002) Boundary-Layer Meteorology, 104 (3), pp. 445-461.

Eaton, F.D., Hines, J.R., Hatch, W.H., Cionco, R.M., Byers, J., Garvey, D., Miller, D.R. Solar eclipse effects observed in the planetary boundary layer over a desert (1997) Boundary-Layer Meteorology, 83 (2), pp. 331-346

Hanna, E. Meteorological effects of the solar eclipse of 11 August 1999
(2000) Weather, 55, pp. 430-446.

Ahrens, D., Iziomon, M.G., Jaeger, L., Matzarakis, A., Mayer, H.
Impacts of the solar eclipse of 11 August 1999 on routinely recorded meteorological and air quality data in south-west Germany
(2001) Meteorologische Zeitschrift, 10 (3), pp. 215-223.

Founda, D., Melas, D., Lykoudis, S., Lisaridis, I., Gerasopoulos, E., Kouvarakis, G., Petrakis, M., Zerefos, C.
The effect of the total solar eclipse of 29 March 2006 on meteorological variables in Greece (2007) Atmospheric Chemistry and Physics, 7 (21), pp. 5543-5553. (za darmo online)

i dziesiatki innych pozycji....
-
2011/01/04 17:39:09
Latem be na naszej szerokości (to niby kanadyjska Arktyka ale szerokość geograficzna jak 100 km na północ od Rozewia) to może być nawet 10 stopni:
www.jstor.org/pss/1550088

Oczywiście zimą i przy chmurach efekt będzie znacznie słabszy.
-
2011/01/05 08:35:06
A tymczasem Spencer pomierzył grudzień. Wyszło mu +0.18. Należy zwrócić uwagę, że zmienił okres bazowy - z 1979-1998 na 1981-2010. Generalnie ma to oczywiście sens, choć moim zdaniem dobrze by było, gdyby wszystkie serie miały ten sam okres bazowy, bo o ile wiem RSS okresu bazowego chyba nie zmieniło. Wtedy mamy:

GISS 1951-1980
CRU 1961-1990
RSS 1979-1998
UAH 1981-2010

Moim skromnym zdaniem, powinni się dogadać co do okresów bazowych - odpadła by znaczna część denialistycznego pierdu-smerdu.
-
2011/01/05 09:54:19
Czy Spencer opublikował gdzieś dane z tym nowym okresem bazowym?

Jak rozumiem te dane (nie uaktualnione dla grudnia) to te ze starym?
vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc.lt

Mogę sobie sam przeliczyć "stare" na "nowe" używając powyższego pliku i dane z 2010 z blogu Spencera ale byłoby ciekawiej gdyby on to opublikował sam. Byłoby widać, czy znowu "przypadkiem" coś poza tym się zmieniło. Wiem, że gadam już prawie jak denialista ale nie podobają mi się nieustanne zmiany historycznych danych w jakich ostatnio Spencer się specjalizuje.
-
2011/01/05 10:10:32
Odjąłem sobie miesięczne wartości z w/w pliku i te "nowe" z blogi Spencera


Format: rok, miesiąc, stara anomalia, nowa anomalia, różnica

2010 1 0.64 0.542 0.098
2010 2 0.61 0.510 0.100
2010 3 0.66 0.554 0.106
2010 4 0.50 0.400 0.100
2010 5 0.54 0.454 0.086
2010 6 0.44 0.385 0.055
2010 7 0.49 0.419 0.071
2010 8 0.51 0.441 0.069
2010 9 0.60 0.477 0.123
2010 10 0.43 0.306 0.124
2010 11 0.38 0.273 0.107

Stare i nowe anomalie podane są z różna dokładnością, zatem należy spodziewać się błędów zaokrągleń do 0.005 C. Jednak różnice są o rząd większe. Szczególnie ciekawe są miesiące letnie. Wydaje się, że Spencer je ostatnio cichcem "docieplił" o około 0.050 C. Alternatywnie, oziębił wszystkie pozostałe o tyle samo. Ale tego się nie dowiemy jeśli nie opublikuje wartości anomalii za poprzednie lata z tym samym okresem bazowym

Nie jestem - jak może już zauważyliście - denialistą. Jednak takie zmiany bez wytłumaczenia uważam za nie do przyjęcia.
-
2011/01/05 10:12:25
Najłatwiej to zanotować stare dane, poczekać na nowe i porównać. Jeśli coś skopał, to wyjdzie. Na szybko przeliczyłem dane do listopada 2010:

gfspl.rootnode.net/klimat/uah8110.txt

-
2011/01/05 10:15:21
Widzę, że dodałeś dane z blogu Spencera. To ja wrzucę różnice od stycznia 2010 pomiędzy nowym Spencerem, a moim przybliżeniem:

0,000
-0,002
-0,002
0,003
-0,004
0,000
0,005
0,003
-0,004
-0,010
0,003

Wygląda dobrze.
-
2011/01/05 10:23:48
OK. Znalazłem co on zrobił w tym pliku:
vortex.nsstc.uah.edu/data/msu/t2lt/readme.08Dec2010

"Here are the preliminary differences (old annual cycle v5.3 minus
new annual cycle (v5.4).)
The final anomalies will be out next month when Dec is calculated.

TLT annual cycle v5.3 minus v5.4

MON GL NH SH TRPCS
1 -0.106 -0.185 -0.026 -0.047
2 -0.093 -0.167 -0.019 -0.033
3 -0.099 -0.186 -0.013 -0.006
4 -0.102 -0.193 -0.010 0.000
5 -0.079 -0.134 -0.026 -0.003
6 -0.052 -0.067 -0.036 0.008
7 -0.070 -0.077 -0.063 -0.050
8 -0.069 -0.096 -0.043 -0.043
9 -0.125 -0.146 -0.104 -0.049
10 -0.119 -0.113 -0.127 -0.050
11 -0.109 -0.139 -0.079 -0.048
12 -0.075 -0.129 -0.021 -0.068"

Jeśli dodać kolumną GL (global) do mojej kolumny różnic to wyniki są zerem z dokładnością do 0.005 (czyli zaokrąglenia). Teraz jestem w stanie sam wyprodukować "nowe" wartości anomalii dla poprzednich lat aby je porównać.

Ale jestem też w stanie wyliczyć wartość grudnia 2010 w starej wersji programu Spencera. A jest to (ta-da!) +0.255. I zaraz wyrysuje (u siebie) porównanie 1998, 2005 i 2010 w starych i nowych danych Spencera. Sam jestem ciekaw wyniku.

-
2011/01/05 10:25:10
Pamiętajcie że średnie wieloletnie obliczane są indywidualnie dla każdego miesiąca, więc offset pomiędzy starymi i nowymi wartościami nie musi być (i z reguły nie jest) identyczny po zmianie okresu bazowego.
-
2011/01/05 10:52:40
@perfect

Ja to rozumiem tylko nie wiem czemu zmieniać konie w środku rzeki.

Wykresy anomalii miesięcznych dla starej i nowej (5.3 i 5.4) wersji programu Spencera wrzuciłem u siebie w komentarzach
anomaliaklimatyczna.com/2010/05/23/gdzie-najlepiej-obserwowac-globalne-ocieplenie/#comment-495
oraz
anomaliaklimatyczna.com/2010/05/23/gdzie-najlepiej-obserwowac-globalne-ocieplenie/#comment-496
-
Gość: 123456, 195.205.81.*
2011/01/05 11:52:20
Zaklad ze Spencerem moze jakis ,cos nie bylo by wam panowie wesolo.
-
2011/01/05 12:32:40
@Gość

Jaki zakład? Nie ma się o co zakładać.

@pgb
Ja zrobiłem offsety dla każdego miesiąca w oparciu o jego odchylenie w okresie 1981-2010. Różnice nie są duże - maksymalna to listopad, 0.01 stopnia, więc nie istotna.
-
2011/01/05 12:42:33
"Zaklad ze Spencerem moze jakis ,cos nie bylo by wam panowie wesolo."

Nawet chętnie bym się założył ze Spencerem np. o to, czy w wersji 6 jego analizy rok 2010 będzie w dalszym ciągu o 0,01 stopnia chłodniejszy niż 1998. Jego ostrożne wypowiedzi - że różnica taka oznacza praktyczny remis - wskazują że raczej by się na to nie zgodził, bo jest świadomy że nawet drobna zmiana w analizie (np. poprawka na niewykryty dryf satelitów czy ich czujników) spowodować może zmianę rankingu.

Nie dotyczy to zresztą tylko analizy UAH, bo wszystkie prasowe historie z rodzaju "rok X jest na Y miejscu w historii pomiarów" oznacza tak naprawdę, że w jednej konkretnej analizie, przy konkretnych założeniach metodologicznych, wyszło tyle ile wyszło. Prawdziwa nauka zaczyna się w momencie, gdy daje się wykazać, że niezależnie od tych założeń (o ile są one oczywiście rozsądne) wszystkie analizy dają zbliżone wyniki (np. "dekada 2001-2010 jest cieplejsza od 1991-2000", albo nawet "różnica pomiędzy rokiem 1998 a każdym poprzednim jest statystycznie istotna").
-
2011/01/05 15:46:06
Jako osoba, która chciała zakładać się już rok temu, że rok 2010 będzie rekordowo ciepły, chciałbym jednak poprzeć naszego gospodarza. tego typu zakłady na pewno nie są nauką a raczej zabawą (i to niezależnie od stawki zakładu). Z wartości dla jednego roku jeszcze wiele nie wynika.

Pozostaje pytanie czy przegrałbym ten zakład. Myślę że nie. Wg. samego Spencera różnica jest w granicach błędu. Zatem li tylko na podstawie jego indeksu zakład byłby nierozstrzygnięty. Istnieją jednak inne indeksy i poczekamy na nie. Niektóre, jak GISS mają tę zaletę, że są naprawdę globalne (obejmują obszary polarne), czyli bardziej stosowne do rozstrzyganiu o, bądź co bądź, globalnej temperaturze.
-
2011/01/06 08:30:22
Oj, wygrywam konkurs zgadywanek na Blackboard :)
-
2011/01/06 11:47:24
A jako memento tego, że dane z jednego miesiąca i jednego kraju to za mało aby wnioskować o trendach światowych radzę zobaczyć to:
www.metoffice.gov.uk/news/releases/archive/2011/cold-dec

Wielka Brytania miała właśnie najzimniejszy grudzień w stuletniej historii pomiarów meteorologicznych. I było to w roku, który z całą pewnością globalnie załapie się na podium najcieplejszych w tej samej historii pomiarów, a być może okaże się wg, NASA czy NOAA nawet najcieplejszy w historii.
-
Gość: paweł, *.neoplus.adsl.tpnet.pl
2011/01/06 12:34:23
Panowie jeżeli mamy zbyt wiele CO 2 i chcemy mieć mniej jednocześnie nie ograniczać spalania , wydobywania itp. Czy znacie może technologie du usuwania z atmosfery CO2 .Piszecie o tem. a nie piszecie o zmniejszeniu nie przez ograniczenie a zagospodarowanie , lub zmniejszenie w jakiś inny zposób .
-
Gość: paweł, *.neoplus.adsl.tpnet.pl
2011/01/06 15:31:55
Jeżeli pamietam dobrze to CO2 było znacznie wiecej niż obecnie . Ziemia była lodowa pustynią . Niemniej jednak nadal nikt nie przedstawił technologii do zmniejszenia CO2 .
-
2011/01/06 15:57:40
Paweł, technologie usuwania CO2 z powietrza (CDR) można podzielić na dwa rodzaje:
bezpośredniego wychwytywania z powietrza (air capture) oraz wzmocnienia naturalnych zlewni CO2 (carbon sink enhancement).

Opis i ocenę różnych propozycji możesz znaleźć np. w drugim rozdziale tego raportu:

royalsociety.org/geoengineering-the-climate/

Niestety, żadna z potencjalnie dostępnych technologii nie jest na tyle efektywna, by można było zniwelować nimi emisje CO2 bez redukcji tych ostatnich. W przypadku technologii CSE dochodzi jeszcze ryzyko nieprzyjemnych skutków ubocznych gmerania przy systemie, który w szczegółach jest słabo rozumiany. Klasycznym przykładem była pierwsza tura niemiecko-indyjskiego eksperymentu LOHAFEX, gdzie po wsypaniu do Oceanu Południowego ciężarówki żelaza okazało się, że zakwitające algi zostały zeżarte przez widłonogi.

"Piszecie o tem. a nie piszecie o zmniejszeniu nie przez ograniczenie a zagospodarowanie , lub zmniejszenie w jakiś inny zposób ."

Jeśli taki skuteczny sposób się w końcu zmaterializuje, to chętnie o nim napiszę. Równie dobrze możesz wymagać, bym więcej pisał o fuzji termojądrowej.

"Jeżeli pamietam dobrze to CO2 było znacznie wiecej niż obecnie . Ziemia była lodowa pustynią ."

Źle pamiętasz.
-
2011/01/06 16:24:39
@paweł
Jeżeli pamietam dobrze to CO2 było znacznie wiecej niż obecnie . Ziemia była lodowa pustynią . Niemniej jednak nadal nikt nie przedstawił technologii do zmniejszenia CO2 .

Eeee, (prawie na pewno) bywały okresy, w których "CO2 było znacznie więcej, niż obecnie" i (chyba) bywały okresy gdy "Ziemia była lodową pustynią", ale to nie były te same okresy.

Słuchaj, a czy mógłbyś pisać spacje tylko po znakach przestankowych? W sensie zdanie-kropka-spacja-następne zdanie?
-
Gość: paweł, *.neoplus.adsl.tpnet.pl
2011/01/06 16:32:23
To w takim razie poszukam o tej lodowej planecie naszej .Czemu pisze o technikach zmniejszenia ilości CO2 ,dlatego ze są takie ale w powijakach wymagają udoskonaleń .Swego czasu w tv discawery był cykl programów poświęcony właśnie zmniejszeniu CO2 i proszę sobie wyobrazić ze niektóre z nich sprawdziły się dobrze .Zapamietalem taka z NaOH , była to wielka rura w której przebiegał proces chemiczney ,ale by mógł powstać ten proces trzeba było wytworzyc zasilanie niestety spalinowo i pytanie czy Co2 wytworzone w trakcie nie jest większe od zasysanego z nad stadionu bo tam się rozgrywalo doświadczenie.doświadczenie się udało ilość CO2 znacznie spadła, mimo zesilnik spalinowy produkowal CO2 akcja doświadczenia to stadion sportowy . Doświadczenie trwało niestety nie pamietam ale 24 to był chyba ten czas .
-
Gość: paweł, *.neoplus.adsl.tpnet.pl
2011/01/06 16:38:44
Do kolegi Pierto wyżej już Ci napisałem i na tym koniec . Wszystkiego naj w nowym roku .
-
2011/01/06 16:49:33
@paweł
i proszę sobie wyobrazić ze niektóre z nich sprawdziły się dobrze .Zapamietalem taka z NaOH
Dwutlenek węgla plus wodorotlenek sodu da ci wodę plus wodorowęglan sodu (NaHCO3). Sekwestrowanie CO2 tą metodą dałoby nam hałdy "sodki oczyszczanej" wystarczające do pieczenia ciast i zwalczania zgagi w całej Lokalnej Gromadzie Galaktyk.

kolegi Pierto
Nikogo takiego tu nie ma.
-
2011/01/06 16:54:00
P.s. wodorotlenek sodu nie bierze się znikąd. Bierze się z elektrolizy roztworu wodnego soli kuchennej. Na to idzie dużo prądu. Na ten prąd idzie dużo węgla. Z tego się ulatnia dużo CO2. To też trzeba uwzględnić w rachunkach, nie tylko napęd "rury zasilanej spalinowo".
-
2011/01/06 17:20:47
Dołączam się do prośby o poszanowanie polskiej interpunkcji.

Zdanie kończymy kropką, potem stawiamy spację. Nie na odwrót.
-
2011/01/07 08:30:01
Jeżeli pamietam dobrze to CO2 było znacznie wiecej niż obecnie . Ziemia była lodowa pustynią .

Oba stwierdzenia są prawdziwe, ale nie dotyczą tego samego czasu.

W czasach zlodowaceń koncentracja CO2 wynosiła ok. 200 ppm. Obecnie zbliża się już do 400 ppm.

Natomiast w czasach gdy CO2 było stanowczo więcej niż dzisiaj (np. pierwsze kilkanaście milionów trzeciorzędu) na wyspach Arktyki Kanadyjskiej żyły krokodyle a na Alasce rosły palmy.
-
Gość: paweł, *.sky24.pl
2011/01/08 19:22:08
Dzięki za dokładna odpowiedz .Bez zlosliwosci .
-
2011/01/08 22:09:40
@paweł
Jeśli nie chodziło o zlodowacenia plejstoceńskie, tylko o duużo wcześniejsze wydarzenia, to mogłeś mieć na myśli późny prekambr.
en.wikipedia.org/wiki/Snowball_Earth
pl.wikipedia.org/wiki/Ziemia-śnieżka

Ale wtedy też było albo-albo (albo bardzo wysokie stężenie dwutlenku węgla, albo zlodowacenia).
Creative Commons License