Blog > Komentarze do wpisu

A jednak się ociepla

Co za niespodzianka!

Jeśli coś w tym momencie słyszycie, to zapewne jest to szum przesuwanych przez denialistów chorągiewek, którzy przecież nigdy, przenigdy nie poddawali w wątpliwość samego ocieplenia klimatu w XX wieku, i tak naprawdę chodziło im tylko o jego przyczyny, skutki oraz dobór odpowiednich strategii mitygacyjnych.

A tak poważnie, to trochę dziwi mnie szeroki oddźwięk medialny, z jakim spotkało się ogłoszenie wyników projektu Berkeley Earth Surface Temperature; mimo że przecież nie dowiedzieliśmy się tak naprawdę niczego nowego (ok, nie do końca -- o czym więcej poniżej). Niektórzy odnotowali ze złośliwą satysfakcją, że pomimo wydania ponad 600 kilodolarów, zatrudnienia najbystrzejszych z bystrych: fizyków nuklearnych, kosmologów-noblistów i statystycznych guru, oraz wykorzystania zaawansowanych technik interpolacyjnych -- grupie z Berkeley udało się zreplikować wyniki otrzymane przez prosty algorytm stosowany od lat przez klimatologów, a który zresztą da się zaimplementować w jedno popołudnie.

Jak powiedziała medialna twarz projektu, fizyk Richard Muller

Naszym największym zaskoczeniem było to, że uzyskane przez nas rezultaty tak bardzo zgadzały się z tymi z USA i Wielkiej Brytanii. A to potwierdza, że te badania były robione poprawnie i potencjalne błędy wskazywane przez sceptyków nie miały wpływu na ich wyniki.

Ale o tym wiedzieliśmy przecież już wcześniej. Zaskoczenie Mullera bierze się stąd, że grupa z Berkeley, w momencie gdy na fali Climategate wystartowała z projektem BEST, po prostu nie miała pojęcia o dorobku klimatologii w tym jednym (malutkim) aspekcie zmian klimatu: nie wiedziała o licznych badaniach wiążących niepewności w szacunkach zmian temperatury z próbkowaniem i zmianami pokrycia przestrzennego; o benchmarkowaniu skuteczności algorytmów homogenizacji danych; o empirycznych szacunkach efektu miejskiej wyspy ciepła, i tak dalej. Z wypowiedzi niektórych członków projektu BEST (Richarda Mullera i Judith Curry) wynika, że spodziewali się oni że przynajmniej niektóre zastrzeżenia sceptyków okażą się zasadne; jeszcze nie tak dawno Muller nazywał zresztą jednego z nich "bohaterem", a ten odwzajemniał mu się deklaracjami, że zaakceptuje wyniki BEST niezależnie od tego, jakie one będą. Jak można było się spodziewać, wzajemne zauroczenie trwało krótko, i już dzisiaj na najbardziej popularny denialistyczny blog znów powrócił do taktyki podważania faktu ocieplenia.

Projekt BEST ma jednak także kilka ważnych, choć mniej medialnych wyników. Po pierwsze, dla ostatnich kilku dekad udało im się znacząco zmniejszyć niepewności szacunków zmian temperatury na lądach, jak widać na wykresie poniżej, dla porównywalnej serii CRUTEM3 były one wciaż spore. Przy okazji -- najcieplejszym rokiem jest dla tych danych 2007, później 2005, 2002, 2006 i dopiero 1998.

Górny panel: analiza BEST, CRUTEM3 oraz NOAA (anomalie średnich rocznych temperatury globalnych wobec okresu 1961-1990), liniami przerywanymi zaznaczono erupcje Tambory i Krakatau; panele dolne: analiza BEST i CRUTEM3 razem z zakresem niepewności (95% CI).

Po drugie, zmniejszenie niepewności we wcześniejszej części serii umożliwiło przedłużenie jej do początku XIX wieku, z zastrzeżeniem, że przed rokiem 1850 odzwierciedla ona zmiany temperatury na lądach półkuli północnej, a dla pierwszych dwóch dekad tylko Europy i kawałka Ameryki Północnej. Zwiększona wariancja serii w pierwszej połowie XIX wieku oznacza tutaj lokalny sygnał klimatyczny, zdaniem autorów związanych z minimum Daltona i erupcjami wulkanicznymi. Analiza BEST przyda się zatem paleoklimatologom, do kalibracji i weryfikacji rekonstrukcji zmian temperatur w okresie historycznym.

Trzecim ciekawym wynikiem jest oszacowanie wpływu efektu miejskiej wyspy ciepła na trendy temperatur. Podobnie jak inne grupy, projekt BEST określił go jako niewielki, ale w odróżnieniu od innych wyników okazał się on być ujemny, choć spójny z zerowym (tj. -0.19 ± 0.19 °C na stulecie dla okresu 1950-2010). Innymi słowy, stacje "wiejskie" ocieplały się w drugiej połowie XX i początku XXI wieku nieco szybciej niż stacje "miejskie".

Warto dodać na koniec, że wyliczenia te dotyczą tylko pomiarów instrumentalnych ze stacji meteorologicznych, prawdziwie "globalna" średnia powinna obejmować także oceany, których temperatur grupa z Berkeley (na razie) nie analizowała.

poniedziałek, 24 października 2011, perfectgreybody

Polecane wpisy

TrackBack
TrackBack w tym blogu jest moderowany. TrackBack URL do wpisu:
Komentarze
2011/10/24 14:19:54
Przy okazji -- najcieplejszym rokiem jest dla tych danych 2007, później 2005, 2002, 2006 i dopiero 1998.

Dobre. Ulubiony projekt sceptyków podważa totalnie ich inną tezę, że globalne ocieplenie skończyło się na 1998 roku.

A nawiasem mówiąc na jakiej dacie kończy się ich analiza? Pytam, bo ze strony BEST ciężko się tego dowiedzieć. Zgaduję, że przez 2010 bo brakuje go na liście najcieplejszych lat.
-
2011/10/24 15:59:00
"A nawiasem mówiąc na jakiej dacie kończy się ich analiza?"

Maj 2010. W danych NOAA różnica pomiędzy 2007 a 2010 była poniżej 0,03 stopnia, więc pewnie 2010 byłby drugi w rankingu także i w analizie Berkeley.
-
2011/10/24 16:25:16
@Dobre. Ulubiony projekt sceptyków podważa totalnie ich inną tezę, że globalne ocieplenie skończyło się na 1998 roku.

A tam. Po pierwsze zostali przekupieni przez establishment. Po drugie nie znają się na tym, mają kiepskich statystyków i fizyków. Po trzecie, globalne ocieplenie skończyło się w 2007 roku. Po czwarte, przecież nikt nigdy nie twierdził, że nie ma globalnego ocieplenia.
-
2011/10/24 19:06:25
@pohjois
A tam. Po pierwsze zostali przekupieni przez establishment

... czyli braci Koch? ;))
en.wikipedia.org/wiki/Berkeley_Earth_Surface_Temperature
"The BEST project is funded by unrestricted educational grants totalling (as of March 2011) about $635,000. Large donors include Lawrence Berkeley National Laboratory, the Charles G. Koch Foundation..."

Reszta się zgadza. Nie znają się:
www.informath.org/apprise/a5700.htm
wmbriggs.com/blog/?p=4530

"Nikt nie twierdził":
wmbriggs.com/blog/?p=4525
wattsupwiththat.com/2011/10/22/world-is-warming-pope-is-catholic/

Watts nie miał niestety jaj żeby własnoręcznie napisać o tym jak to nikt nigdy nie twierdził, a szkoda, a szkoda. Wartość rozrywkowa tego obrotu o 180 stopni byłaby jeszcze większa.

"Globalne ocieplenie skończyło się w 2007" będzie pewnie za parę lat, po silniejszej La Nina.
-
Gość: PTR, *.warszawa.mm.pl
2011/10/25 17:45:48
Dla porządku warto dodać, że wyniki projektu BEST nie zostały jeszcze opublikowane w prasie naukowej.
-
2011/10/25 18:54:58
@PTR

Na swojej stronie mają cztery manuskrypty, które podobno wysłali do redakcji. Czyli tak, nie przeszli jeszcze przez peer review.

A propos, fizycy zwykle wrzucają swoje manuskrypty jeszcze przed wysłaniem do redakcji na serwery takie jak arXiv.org. I to mi przypomniało: jeśli kogoś interesuje temat nieco bardziej fizyczny, chociaż związany z tak nam tu wszystkim bliskimi problemami błędu pomiarowego to zapraszam na swój blog gdzie pod tym pretekstem tłumaczę czemu zapewne jednak neutrina nie są szybsze od światła:
anomaliaklimatyczna.com/2011/10/25/bledy-systematyczne-czyli-czy-rozwiazano-problem-neutrin-szybszych-od-swiatla/
-
2011/10/25 20:15:10
"Dla porządku warto dodać, że wyniki projektu BEST nie zostały jeszcze opublikowane w prasie naukowej."

Tak, to prawda, mówimy o preprintach. Zresztą, jeśli wysłali je do GRL (a tak słyszałem), to wątpię by czwarty artykuł - ten o AMO - przeszedł pomyślnie przez recenzję. W tym przypadku "niezależność" autorów (z których tylko Curry ma wykształcenie kierunkowe, no ale ona z pewnych względów mocno dystansuje się od projektu, zarzekając się że tak naprawdę niewiele tam robiła) oznacza po prostu niekompetencję w kwestiach innych niż czysta statystyka.
-
2011/10/25 23:00:38
To ja, PTR.
Ciekawi mnie to niezmiernie jak im się uda z procesem recenzji.
Na marginesie dyskusji... Studiowałem sobie kiedyś fizykę mając już dyplom z biologii (nawet mi się teraz przydaje w pracy biologa ewolucyjnego). I zauważyłem, że podejście "Odsuńcie się, jestem fizykiem! Mogę policzyć wszystko!" (tylko po pobieżnej lekturze literatury przedmiotu) jest chyba chorobą zawodową w tym środowisku naukowym ;-)
-
2011/10/25 23:30:57
"I zauważyłem, że podejście "Odsuńcie się, jestem fizykiem! Mogę policzyć wszystko!" (tylko po pobieżnej lekturze literatury przedmiotu) jest chyba chorobą zawodową w tym środowisku naukowym ;-) "

Oj jest (i mówię to jako fizyk). Z tym, że niektórym to wychodzi. Ostatnio Murray Gell-Mann, ten sam który w 1969 roku dostał Nobla za kwarki, rozwiązał kwestię ewolucji szyku zdania w historii języka.

Nie zmyślam:
www.pnas.org/content/108/42/17290.abstract

-
2011/10/26 00:14:02
@arctic_haze
Lingwistyka to może po prostu hobby Gell-Manna (nie ma w tym artykule jakiejś potężnej matmy). Mam kumpla, młodego naukowca, który zawodowo zajmuje się początkami życia, a po godzinach rozszyfrowuje starożytne alfabety. Nie wszyscy chodzą po górach, grają w szachy czy żeglują :-)
Metodologia fizyki jest potężna! Sam celowo się jej uczyłem, aby być lepszym biologiem i chyba działa. Ale czasem warto przeczytać jakiś przyzwoity podręcznik dla II roku studiów w biologii molekularnej/klimatologii/medycynie/lingwistyce aby ogarnąć temat. Ale może, nie wiem... jak się jest profesorem to obciach czytać podręczniki dla studentów ;-)
-
2011/10/26 00:36:02
Oj wiem, wiem. Sam widziałem jak pewien (bardzo dobry) fizyk postanowił rozwiązać pewien problem z mojej dziedziny. Zaczął brać problem "z biegu", nie czytając żadnej literatury. Już po paru dniach paru dniach zaczął nabierać respektu do wcześniejszego dorobku i jednak postanowił czytać literaturę. Nawet zaczął używać naszej terminologii. A problemu i tak nie rozwiązał, chociaż coś tam nawet opublikował.

Czyli masz racje, ale nie zawsze prowadzi to do katastrof, jak te które możemy znaleźć na blogach denialistów.
-
2011/10/26 08:50:54
Wracając do tematu, zgadzam się, z naszym gospodarzem, że ten artykuł o AMO może mieć problemy z publikacją. Wiele argumentów przeciw niemu podano tutaj:
tamino.wordpress.com/2011/10/24/decadal-variations-and-amo-part-i/

Na szczególna uwagę zasługuje filtrowanie użyte w artykule. Tamino szczególnie nie podoba się ich kroczący filtr 12-miesieczny (bo zwiększa autokorelacje). Mi włosy staja na myśl o usuwaniu składowych wolno-zmiennych za pomocą odjęcia fitowania do wielomianu piątego stopnia. Wiem jak dziwne może to dać wartości, szczególnie przy brzegach badanego zakresu.

Ale najlepszy jest ich wynik korelacji (cross correlation) temperatury kontynentów i AMO. Ma maksimum dla przesunięcia 1 miesiąc i to temperatura kontynentw o ten miesiąc poprzedza AMO. Chciałoby się powiedzieć: "A czego się spodziewaliście?!" Przecież indeks AMO to temperatura powierzchniowa Oceanu Atlantyckiego na północ od równika. Chyba nie jest dziwne, że temperatura kontynentów i oceanów jest skorelowana i w dodatku kontynenty reagują nieco szybciej na wymuszenia.

Tylko żeby z tego wyciągać wnioski o wpływie AMO na temperaturę kontynentów? Ręce i nogi opadają...
-
2011/10/26 11:10:53
@arctic
Też czytałem analizę tamino, i zgadzam się z konkluzjami. Wygląda na to, że zespół BEST bardzo bardzo chciał odkryć coś nowego. No i nieco się ośmieszyli, bo wyszedł (chyba) brak oczytania w temacie - powiązany z brakiem wyczucia, czy coś ma ręce i nogi czy nie.
-
2011/10/26 11:52:30
@prawdziwy_ptr, arctic_haze

xkcd.com/793/
-
2011/10/26 16:57:38
@arctic_haze

Nie przesadzajmy z tym "rozwiązał problem pochodzenia szyku zdania". Z mojego doświadczenia jako językoznawcy biologowie ewolucyjni i statystycy przymierzający się do badań nad historią języka z reguły budzą swoimi pomysłami co najwyżej uśmiech politowania, nawet jeśli efekty swych przemyśleń publikują w Nature czy Science. Geil-Manna jeszcze nie czytałem, ale gdy widzę w abstrakcie "putative phylogenetic tree of human languages" zapala mi się czerwona lampka alarmowa, albowiem (a) język nie ewoluuje jak żywy organizm (o ile w ogole ewoluuje w rozumieniu biologicznym) (b) gdyby Geil-Mann zdołał opracować bliski prawdzie model "phylogenetic tree of human languages", byłoby to osiągnięcie na miarę Nobla w naukach ścisłych.
-
2011/10/26 17:02:08
Btw, jakby ktoś był kochany i podesłał ten artykuł na hpai (at) vp.pl, byłbym wdzięczny; moja alma (niekiedy) mater ma dostęp do PNAS z półrocznym embargiem.
-
2011/10/26 18:00:30
@ejczibi

Już wysyłam. Właśnie sam to czytam i jeszcze nie mam zdania (wyżej pisałem "rozwiązał" nieco ironicznie). Zresztą to niezupełnie moje core competence area.

Ciekaw jestem Twojego zdania.
-
2011/10/26 23:32:00
@arctic_haze

Dzięki za artykuł.

Bardzo to wszystko nieprzekonujące. Za językoznawstwo w tym artykule odpowiada Ruhlen, który jest zwolennikiem metod opracowanych w latach 60tych zeszłego wieku przez Josepha Greenberga. Problem w tym, że wśród językoznawców te metody uważane są za błędne (tu jest milusi przykład krytyki Ruhlena: www.cognisud.org/documents/030919/Ruhlen_Barcelona.PDF). Dalej - proponowane przez Ruhlena rodziny językowe wcale nie są tak oczywiste; już na poziomie makrorodziny języków nostratycznych dyskusja jest daleka od rozstrzygniętej, a wcześniejsze makrorodziny (na przykład Nostratic-Amerind) to dla mnie czysta, niczym nie poparta spekulacja. Dalej - założenie, że powstanie języka skorelować należy z rewolucją w górnym paleolicie 40-50 tys. lat temu, jest już chyba do odrzucenia, zważywszy na ślady sugerujące myślenie symboliczne - a więc i język - odnajdywane w RPA czy Izraelu, a datowane na około 80-100 tys. lat temu, a anatomicznie współcześnie wyglądające elementy kostne pojawiają się jeszcze wcześniej. Czysto językoznawczo, moim zdaniem GM/R straszliwie naciągają dane pod hipotezę, tam, gdzie są one niejednoznaczne, zawsze wybierając korzystną dla siebie interpretację. Dalej - zbycie właściwie machnięciem ręki olbrzymiego dorobku językoznawstwa historycznego z zakresu zmian semantycznych powodowanych kontaktem językowym (to, co GM/R nazywają dyfuzją) i podejście "taksonomia über alles", dyskwalifikuje ich argumentację. Może jeszcze dorzucę, że GM/R bardzo upraszczają dane, a językoznawczo operują na nie najświeższych publikacjach. Niech się więc radują, jakie fajne wyniki im wyszły, ale oklasków ze strony językoznawców nie powinni się spodziewać.

Oczywiście to tylko moje zdanie ;).
-
2011/10/27 08:11:05
Na językoznawstwie się nie znam ale artykuły o wczesnej historii naszego gatunku ("człowieka współczesnego") śledzę, więc te 50 tysięcy lat temu jako data postania ostatniego wspólnego przodka wszystkich współczesnych języków też mnie uderzyło. Bo 50 tysięcy lat temu ludzkość nie tylko zamieszkiwała praktycznie całą Afrykę ale była już także rozproszona wzdłuż brzegów Oceanu Indyjskiego aż po brzegi Australii, którą właśnie zaczęto zasiedlać. Było już stanowczo za późno na powstanie wspólnego języka. Sto tysięcy lat brzmiałoby znacznie lepiej.

Czyli rzeczywiście ten artykuł może być nie najgorszym przykładem na to co znani fizycy robią na starość w nie swoich dziedzinach (vide "słoń w sklepie z porcelaną").
-
Gość: Adi, *.internetdsl.tpnet.pl
2011/11/04 15:48:07
Portale podały info dla mas. I to na głównej ;)

wyborcza.pl/eko/1,113774,10587534,Termometry_nie_klamia.html
-
2011/11/04 16:57:56
I właśnie dlatego ostatnio do naukowych press releases dodawane są youtubki. Np. Dessler 2011.
-
Gość: Adi, *.rene.com.pl
2011/11/05 20:30:41
żeby jeszcze jakiś mądry klimatolog powiedziałby mi ile drzew mam zasadzić, albo ile dachów pomalować na biało ...
-
2011/11/06 16:13:51
@Adi

Im więcej tym lepiej bo i tak nie da się w ten sposób zrównoważyć prawie 5 gigaton węgla, jakie pod postacią CO2 dodajemy rocznie do składu atmosfery (około połowa tego co emitujemy).
-
2011/11/06 17:03:20
Ciekawe, czy w dzisiejszych czasach Einstein dodałby youtubkę z STW ;)
-
2011/11/06 18:06:27
"żeby jeszcze jakiś mądry klimatolog powiedziałby mi ile drzew mam zasadzić"

Jeśli chcemy zniwelować całość wpuszczanego do atmosfery węgla, to przy gęstości 200tC/ha dla typowego lasu wypadałoby sadzić jakieś 500 tys. kilometrów kwadratowych rocznie, przy obecnych emisjach CO2 oczywiście.

"albo ile dachów pomalować na biało ..."

T. M. Lenton i N. E. Vaughan "The radiative forcing potential of different climate geoengineering option", Atmos. Chem. Phys., 9, 55395561, 2009:

"The albedo of urban regions can be increased by using highly reective roofs and altering the material used in paving roads (Rosenfeld et al., 1997; Akbari et al., 2009). Assuming roofs comprise 25% of urban area and can have their albedo increased by 0.25, and paved surfaces comprise 35% of urban area and can have their albedo increased by 0.15, the average increase in albedo of urban areas would be 0.1 (Akbari et al., 2009). Assuming 1% of the land surface (1.5×10^12 m2) is urban this has been estimated to induce a radiative forcing of 0.044 W m2 (Akbari et al., 2009)."

Przypominam, że RF z podwojenia zawartości CO2 w atmosferze to około 4 Wm-2.
-
2011/11/06 19:07:54
@perfectgreybody

Mój pierwszy odruch to odpowiedzieć Ci, że zawyżyłeś ilość potrzebnych lasów dwukrotnie, zapominając że połowę naszych emisji pochłania biosfera lądowa i oceany. Jednak po namyśle dochodzę do wniosku, że gdybyśmy zmniejszyli emisje o połowę to strumień do oceanu tez by się nieco zmniejszył (mniejsza różnica ciśnień parcjalnych). Podobnie zapewne z roślinnością lądową.

Jednak różnica byłaby nie tak duża więc napisze, że zawyżyłeś ilość potrzebnych nowych drzew prawie dwukrotnie.
-
2011/11/07 13:32:53
"Jednak różnica byłaby nie tak duża więc napisze, że zawyżyłeś ilość potrzebnych nowych drzew prawie dwukrotnie. "

Bo powinienem był napisać "jeśli chcemy zniwelować całość wpuszczanego do atmosfery i oceanów węgla, ..."

Jeśli sadzimy lasy tylko po to żeby przeciwdziałać wzrostowi CO2 w atmosferze, i nie interesuje nas zmieniająca się chemia oceanów, to faktycznie tych lasów można sadzić mniej.
-
2011/11/07 15:13:25
To dobry argument. Bo większość proponowanych schematów geoinżynierii koncentruje się na obniżaniu temperatury, przy czym w ogóle nie przejmując się ilością węgla nieorganicznego (czyli CO2) w atmosferze i oceanie.
-
Gość: Adi, *.rene.com.pl
2011/11/10 18:11:16
prawie dwie Polski lasu rocznie? Niewyobrażalna liczba. Jak ta atmosfera to jeszcze wytrzymuje? Poza tym tyle dwutlenku to chyba duży las pochłania, a nie małe sadzonki. Lasy na naszej szerokości geograficznej, wydajnie absorbują tylko przez pół roku, czyżby więc cztery Rzeczypospolite trzeba zalesiać? A są w ogóle jakieś inne realne sposoby, ciekawie byłoby poczytać...
-
2011/11/10 21:33:10
@Adi,
Stary las ma z grubsza bilans zero - tyle samo pochlani CO2 a co rozklada sie w nim materii organicznej uwalniajac CO2. Mlody las, w ktorym przyrasta masa (w niej gromadzi sie wegiel) materii organicznej wiaze wezel.
cvzyli w skrocie: sadzimy dwie Polski lasu do momentu do ktorego paliwa kopalne sie nie wyczerpia, albo i wiecej bo jednak prawie co roku wiecej wydobywamy i spalalmy juz :)
-
2011/11/11 07:59:49
W teorii to prawda (stary las w równowadze węglowej) ale w praktyce ponieważ podwyższamy nieustannie koncentracje CO2 i związków azotu to tym samym użyźniamy lasy i nawet stare lasy pochłaniają CO2 (rosną coraz bujniej). To właśnie jest główną przyczyną dlaczego biosfera lądowa pochłania 1/4 naszej emisji CO2.

Pisałem o tym u siebie na blogu:
anomaliaklimatyczna.com/2010/11/02/spadek-czego-ukrywali-klimatolodzy-czyli-dlaczego-sloje-drzew-nie-sluchaja-meteorologow/
-
2011/11/17 18:36:51
@arctic_haze
No tak, ale jest w takim razie jakaś granica pochłanialności lasów, tak? Oraz, z tego co wiem lasy tropikalne akumulują bardzo mało biomasy. Większość z niej jest w ciągłym ruchu. Tj. drzewa jak padną w ciepłym klimacie, to szybciej gniją i ten węgiel wraca do obiegu? Las to chyba słaby "zlew" na węgiel ?
Creative Commons License