Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
199.558.706 wizyt
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 246 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:

Złota myśl Racjonalisty:
Brakujące ogniwo między zwierzęciem i człowiekiem to właśnie my.
Nowinki i ciekawostki naukowe
Rok 2010
 Lipiec (23)
 Sierpień (23)
 Wrzesień (34)
 Październik (20)
 Listopad (24)
 Grudzień (17)
Rok 2011
 Styczeń (34)
 Luty (39)
 Marzec (43)
 Kwiecień (19)
 Maj (18)
 Czerwiec (17)
 Lipiec (19)
 Sierpień (30)
 Wrzesień (29)
 Październik (45)
 Listopad (35)
 Grudzień (24)
Rok 2012
 Styczeń (18)
 Luty (31)
 Marzec (34)
 Kwiecień (12)
 Maj (10)
 Czerwiec (11)
 Lipiec (12)
 Sierpień (9)
 Wrzesień (8)
 Październik (3)
 Listopad (11)
 Grudzień (4)
Rok 2013
 Styczeń (4)
 Luty (4)
 Marzec (0)
 Kwiecień (0)
 Maj (6)
 Czerwiec (0)
 Lipiec (5)
 Sierpień (4)
 Wrzesień (3)
 Październik (3)
 Listopad (3)
 Grudzień (20)
Rok 2014
 Styczeń (32)
 Luty (53)
 Marzec (38)
 Kwiecień (23)
 Maj (45)
 Czerwiec (46)
 Lipiec (36)
 Sierpień (26)
 Wrzesień (20)
 Październik (24)
 Listopad (32)
 Grudzień (13)
Rok 2015
 Styczeń (16)
 Luty (13)
 Marzec (8)
 Kwiecień (13)
 Maj (18)
 Czerwiec (11)
 Lipiec (16)
 Sierpień (13)
 Wrzesień (10)
 Październik (9)
 Listopad (12)
 Grudzień (13)
Rok 2016
 Styczeń (20)
 Luty (11)
 Marzec (3)
 Kwiecień (3)
 Maj (5)
 Czerwiec (2)
 Lipiec (1)
 Sierpień (7)
 Wrzesień (6)
 Październik (3)
 Listopad (5)
 Grudzień (8)
Rok 2017
 Styczeń (5)
 Luty (2)
 Marzec (10)
 Kwiecień (11)
 Maj (11)
 Czerwiec (1)
 Lipiec (8)
 Sierpień (5)
 Wrzesień (8)
 Październik (3)
 Listopad (3)
 Grudzień (3)
Rok 2018
 Styczeń (2)
 Luty (1)
 Marzec (7)
 Kwiecień (9)
 Maj (6)
 Czerwiec (5)
 Lipiec (4)
 Sierpień (0)
 Wrzesień (3)
 Październik (0)
 Listopad (0)
 Grudzień (11)
Rok 2019
 Styczeń (3)
 Luty (0)
 Marzec (1)
 Kwiecień (1)
 Maj (0)
 Czerwiec (0)
 Lipiec (2)
 Sierpień (8)
 Wrzesień (1)
 Październik (5)
 Listopad (3)
 Grudzień (5)
Rok 2020
 Styczeń (7)
 Luty (1)
 Marzec (1)
 Kwiecień (3)
 Maj (4)
 Czerwiec (1)
 Lipiec (3)
 Sierpień (1)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (3)
Rok 2021
 Styczeń (3)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (3)
 Październik (2)
 Listopad (0)
 Grudzień (0)
Rok 2022
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2023
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2024
 Styczeń (0)
 Luty (0)
 Marzec (0)
Archiwum nowinek naukowych
Różności
Według OECD potrzebne są większe nakłady na naukę, technologie i innowacje (17-12-2010)

Organizacja Współpracy Gospodarczej i Rozwoju (OECD) twierdzi w swoim najnowszym raporcie rocznym, że członkowie OECD i inne państwa muszą zwiększyć nakłady na naukę, technologie i innowacje (NTI), aby stawić czoło rosnącej konkurencji na świecie i promować długofalowy rozwój. NTI oferuje społeczeństwom potencjał do podejmowania niezliczonych wyzwań, jakie przed nimi stają, takich jak kwestie zdrowotne i zmiany demograficzne. Utrzymanie nakładów inwestycyjnych na NTI ma kluczowe znaczenie.

W raporcie pt. "Science, Technology and Industry Outlook 2010" (''Perspektywy nauki, technologii i przemysłu 2010") podkreślono, że państwa członkowskie OECD raportują zastój w wydatkach na badania naukowe i rozwój (B+R), których roczny wzrost spadł z ponad 4% w ostatnich latach do 3,1% w 2008 r. Liczba patentów wzrosła o ponad 2% w okresie 1995 - 2008, aczkolwiek wzrost osłabił się w ostatnich latach i liczba patentów z obszaru OECD spadła w 2008 r. Liczba zastrzeżonych znaków towarowych również zmalała o 20%. Raport sugeruje, że wzrost jakości wywołał spadek liczby patentów. Przedsiębiorstwa mogą również decydować się na inne sposoby ochrony swojej bazy wiedzy, takie jak oparte na współpracy mechanizmy informacji naukowej.

Zostały one zmuszone do ograniczenia swoich wysiłków na rzecz utrzymania innowacyjnej działalności, a handel i inwestycje zagraniczne niekorzystnie odbiły się na globalnych łańcuchach wartości. To z kolei zahamowało techniczną wiedzę ekspercką przedsiębiorstw i rozpoznanie przez nie rynku.

Niemniej OECD wskazuje również na pewne pozytywne wyniki. Pomimo kryzysu, który pustoszył światową gospodarkę w ciągu ostatnich dwóch lat, wiele państw informuje o gwałtownym wzroście wydatków. Korea Południowa, Niemcy, Szwecja i USA wręcz pobudziły swoją długofalową innowację poprzez zwiększenie wydatków na publiczne badania naukowe. Co więcej, wszyscy członkowie OECD, poza USA, raportują wzrost liczby artykułów naukowych w latach 1998 - 2008.

Raport wskazuje również, w jaki sposób wschodzące gospodarki utrzymują wzrost nakładów na B+R. Rosja na przykład informuje, że jej nakłady na B+R w 2008 r. były równe 2% łącznych nakładów OECD, co jest niemal równe udziałom Kanady i Włoch.

"Nakłady na naukę i technologię to inwestowanie w przyszłość" - mówi Sekretarz Generalny OECD Angel Gurr¡a. "W czasach konsolidacji fiskalnej kraje muszą starannie ważyć długofalowy wpływ ograniczenia nakładów na naukę i technologię. Istnieje również konieczność zwiększenia skuteczności tych nakładów. Powinny funkcjonować odpowiednie struktury rządowe, jeżeli państwa mają optymalnie wykorzystywać środki przeznaczane na naukę i technologię."

Zatem w jaki sposób możemy stymulować innowację? Raport OECD wskazuje na wiele kwestii, które wymagają rozwiązania. Rządy powinny na przykład ustanowić nowy, wspólny system zarządzania międzynarodową współpracą w dziedzinie nauki i technologii, aby stawić czoła problemom, które dotykają nas wszystkich, np. zmianie klimatu. Państwa członkowskie powinny również zwiększyć wsparcie polityczne na rozmaitych etapach innowacyjnego łańcucha wartości, takich jak przedsiębiorczość. Raport wskazuje również, że infrastruktura technologii informacyjnych i komunikacyjnych (TIK) powinna zostać zmodernizowana a dostęp do danych dotyczących publicznych badań naukowych powinien być łatwiejszy. Wreszcie poprawy wymaga koordynacja polityki na szczeblach międzynarodowym, krajowym i regionalnym.

© Unia Europejska 2005-2010

Źródło:
CORDIS

Technika
Polscy naukowcy prezentują supermikroskop elektronowy (15-12-2010)

Finansowani ze środków unijnych naukowcy z Polski zakończyli testy nad TITAN CUBED 80-300, wysokorozdzielczym, transmisyjnym mikroskopem elektronowym.

To zaawansowane urządzenie umożliwia naukowcom szybkie i dokładne charakteryzowanie struktur półprzewodnikowych stosowanych do produkcji laserów i diod oraz dokładniejsze testowanie materiałów wykorzystywanych w spintronice i nanotechnologii.

Projekt został częściowo dofinansowany z unijnego programu operacyjnego "Innowacyjna gospodarka" w ramach Europejskiego Funduszu Rozwoju Regionalnego (EFRR). Schemat "Innowacyjna gospodarka" wspiera projekty z zakresu badań naukowych i rozwoju (B+R) oraz technologii informacyjnych i komunikacyjnych (TIK).

Naukowcy z Instytutu Fizyki Polskiej Akademii Nauk (PAN) instalowali i testowali mikroskop przez cztery miesiące. Ich zdaniem to jeden z najnowocześniejszych obiektów w Europie.

"Mikroskopią elektronową zajmujemy się od ponad 35 lat" - mówi prof. dr hab. Leszek Sirko, dyrektor naukowy Instytutu Fizyki PAN. "TITAN zagwarantuje nam możliwość prowadzenia badań na najwyższym światowym poziomie."

Zespół twierdzi, że wysokorozdzielcza transmisyjna mikroskopia elektronowa (HRTEM) to cenne narzędzie dla naukowców, którzy badają właściwości materiałów krystalicznych w nanoskali, w tym metali i półprzewodników.

W tak małej skali można obrazować poszczególne atomy i wady strukturalne. "Tak małych obiektów nie zobaczymy za pomocą światła widzialnego" - wyjaśnia Kamil Sobczak, doktorant z Zespołu Mikroskopii Elektronowej IF PAN. Zamiast wiązki światła zespół wykorzystał wiązkę elektronów do "oświetlania" próbki.

Mikroskop składa się z pionowej kolumny, na szczycie której umieszczono działo elektronowe. Po przeniknięciu przez preparat wiązka przechodzi przez system soczewek, aby stworzyć super powiększony obraz próbki.

Zdaniem zespołu obiekt musi być bardzo cienki (o grubości maksymalnie jednego mikrona). Zespół wykorzystał również urządzenie, które umożliwia wysokowydajne wycinanie preparatów, a mianowicie Focus Ion Beam (FIB). "Przygotowanie próbki zajmuje nam obecnie od kilku dni do tygodnia (standardowymi technikami)" - zauważa Alicja Szczepańska z Zespołu Mikroskopii Elektronowej. "Dzięki urządzeniu FIB [...] czas ten wyniesie zaledwie kilka godzin."

Nowoczesny mikroskop został wyposażony w spektrometr strat energii, umożliwiając obrazowanie holograficzne oraz testowanie w temperaturze ciekłego azotu. Naukowcy podkreślają, że urządzenie charakteryzuje się wysokiej jakości optyką elektronową, wysoką stabilnością napięcia przyspieszającego i super czułymi detektorami obrazu.

Wyjątkowe właściwości mikroskopu pozwalają naukowcom śledzić konkretne procesy, takie jak zmiany w temperaturze. Dodają, że mikroskop przyniesie ogromne korzyści naukowcom.

Na podstawie wyników testów mikroskopowych "będziemy mogli na przykład powiedzieć producentom, jakiego koloru światło zostanie wyemitowane z konkretnego miejsca struktury półprzewodnikowej dostarczonego układu" - mówi dr hab. Piotr Dłużewski, kierownik Zespołu Mikroskopii Elektronowej.

Mikroskop rozpocznie regularną pracę w styczniu 2011 r. Z nowego urządzenia korzystać będą naukowcy i przedsiębiorcy z Polski i zza granicy.

© Unia Europejska 2005-2010

Źródło:
CORDIS

Zdrowie
Pigułka, która zmniejsza ryzyko zakażenia HIV (13-12-2010)

Leki używane w przypadku zakażenia HIV mogą również w istotnym stopniu zmniejszać prawdopodobieństwo nabycia wirusa przez mężczyzn z grupy ryzyka. Wyniki szeroko zakrojonych badań klinicznych oznaczają duży postęp w profilaktyce HIV/AIDS.

Każdego roku na całym świecie diagnozuje się zakażenie wirusem HIV u ponad 2,5 miliona osób. Choć udało się znacznie ograniczyć ilość nowych zakażeń, naukowcy nadal poszukują bardziej efektywnych strategii, aby zapobiegać rozprzestrzenianiu się wirusa. Obecnie stosowane strategie profilaktyczne bazują głównie na kształtowaniu odpowiednich nawyków, takich jak używanie prezerwatyw, abstynencja seksualna i ograniczenie liczby partnerów seksualnych.

Niektóre badania naukowe prowadzone z udziałem ludzi i zwierząt wskazywały, że leki antyretrowirusowe, których obecnie używa się w przypadku stwierdzenia zakażenia HIV, mogą również zmniejszać ryzyko nabycia wirusa.

Aby sprawdzić tę hipotezę, przeprowadzono badania kliniczne w 11 miejscach w Ameryce Południowej, Afryce Południowej, Tajlandii i Stanach Zjednoczonych. Badania były współfinansowane przez amerykański National Institute of Allergy and Infectious Diseases (NIAID) oraz The Bill & Melinda Gates Foundation. Badania przeprowadzono z udziałem ponad 2500 mężczyzn współżyjących seksualnie z innymi mężczyznami. Wszystkie osoby badane miały w momencie rozpoczęcia badań klinicznych co najmniej 18 lat, a wyniki testów na nosicielstwo HIV były u nich ujemne.

Mężczyzn biorących udział w badaniach przydzielono losowo do dwóch grup: mężczyźni z grupy eksperymentalnej codziennie przyjmowali tabletkę zawierającą 2 powszechnie stosowane leki antyretrowirusowe (emtricitabinę i tenofovir), a mężczyźni z grupy kontrolnej przyjmowali placebo. Mężczyźni w miesięcznych odstępach przechodzili badania na nosicielstwo HIV, wszyscy otrzymywali również prezerwatywy, korzystali z poradnictwa na temat bezpiecznego seksu oraz leczenia z powodu innych chorób przenoszonych drogą płciową. Przeciętny czas udziału w badaniach wynosił około 14 miesięcy.

Wyniki badań opublikowano w New England Journal of Medicine  (online edition) z dnia 23 listopada 2010. Wykazały one, że stosowanie leku wiązało się z blisko 44% niższym ryzykiem zakażenia. Jeśli chodzi o dokładne dane, to w grupie 1251 mężczyzn korzystających z terapii antyretrowirusowej odnotowana liczba nowych zakażeń HIV wynosiła 36, gdy tymczasem wśród 1248 mężczyzn z grupy kontrolnej, przyjmujących placebo, odnotowano 64 przypadki zakażenia HIV.

Leczenie profilaktyczne było najbardziej skuteczne u tych mężczyzn, którzy byli w stanie podporządkować się jego  reżimowi, co oznaczało konieczność codziennego przyjmowania preparatu. W podgrupie osób badanych, które przyjmowały lek średnio co drugi dzień, odnotowano blisko połowę mniej zakażeń, a u mężczyzn, którzy przyjmowali lek przez co najmniej 90% dni, liczba zakażeń była o blisko 73% niższa w stosunku do grupy przyjmującej placebo.

Naukowcy zwracają uwagę, że wyniki badań można odnosić jedynie do mężczyzn utrzymujących kontakty homoseksualne. Niezbędne są dalsze badania, które pozwolą ustalić, na ile skuteczna może być tego rodzaju strategia w przypadku innych populacji - kobiet i mężczyzn utrzymujących kontakty heteroseksualne.

"Nie istnieje żadna pojedyncza strategia zapobiegania HIV, która będzie skuteczna u wszystkich, - mówi dyrektor NIAID Anthony S. Fauci - "konieczne są dalsze badania, ale jest to z pewnością ważne odkrycie, które stanowi punkt wyjścia dla dalszych prac badawczych, służących rozwijaniu i stosowaniu tego typu strategii profilaktycznych, co może znacząco wpłynąć na przebieg walki z HIV/AIDS'".

[tłum./oprac. C. O. Reless]

Źródło:
NIH

Ekologia
Aktualne strategie ograniczania emisji gazów cieplarnianych w ruchu miejskim (12-12-2010)

Według Komisji Europejskiej czterdzieści procent emisji CO2 związanej z ruchem drogowym powstaje w ruchu miejskim. Liczne projekty, aktualnie realizowane, mają za zadanie ograniczyć emisję gazów cieplarnianych, która jest generowana przez ruch drogowy w miastach, przy jednoczesnej poprawie jego przepustowości.

W ramach projektu ''Bilet do Kyoto'' (''Ticket to Kyoto'') pięć europejskich przedsiębiorstw z branży transportu publicznego dąży do znacznego ograniczenia poziomu emisji CO2. Należą do nich duńska firma RET, brytyjska GMPTE, niemiecka moBiel, francuska RATP i belgijska STIB.

Do rozwiązań zastosowanych w celu ograniczenia emisji należą, między innymi, czujniki ruchu i różnego rodzaju liczniki, które pozwalają na zmniejszenie zużycia paliwa w trakcie postojów na przystankach, nauka jazdy w sposób ekologicznie przyjazny poprzez stosowanie łagodnego przyspieszania i hamowania, systemy odzyskiwania energii w trakcie hamowania pojazdów, odzyskiwanie ciepła z przejeżdżających pociągów metra do ogrzewania budynków, używanie mniej energochłonnych instalacji ogrzewających torowiska w sezonie zimowym, a także szeroko zakrojone kampanie informacyjne, które mają zachęcać obywateli do prowadzenia bardziej proekologicznego stylu życia.

Również producenci pojazdów pracują obecnie nad bardziej zrównoważonymi rozwiązaniami, ukierunkowanymi na ograniczenie emisji gazów cieplarnianych. W bieżącym roku firma Daimler, działając we współpracy z włoskim dostawcą energii - firmą Enel, rozpoczęła realizację infrastrukturalnego projektu ''e-mobility Italy''. Celem projektu jest stworzenie sieci ponad czterystu stacji ładowania akumulatorów. W czasie realizacji projektu mieszkańcy Pizy, Rzymu i Mediolanu będą mogli podróżować pojazdami Mercedes-Benz i Smart, zasilanymi za pomocą stu baterii elektrycznych. Pojazdy te w skali lokalnej stworzą możliwość jazdy wolnej od emisji gazów cieplarnianych. Realizację podobnego projektu rozpoczęto w Berlinie, a jego faza pilotażowa przy wsparciu władz wystartowała w 2008 roku w Londynie. Daimler planuje realizację podobnych projektów w innych miastach Europy i Stanów Zjednoczonych.

W Sztokholmie wszystkie autobusy komunikacji miejskiej napędzane są za pomocą paliw pochodzących ze źródeł odnawialnych, a energia elektryczna ze źródeł odnawialnych służy do napędzania wszystkich pociągów podmiejskich i składów metra. Tutejsza flota autobusów napędzanych etanolem jest obecnie największa na świecie, a autobusy hybrydowe (napędzane elektrycznie i etanolem) przechodzą właśnie fazę testów. W Madrycie ambicją rady miasta jest posiadanie wyłącznie ''czystych'' pojazdów służących do obsługi komunikacji publicznej w 2011 roku. Storstockholms Lokaltrafik będzie zachęcać przedsiębiorstwa  w regionie do częstszego używania środków komunikacji publicznej w podróżach służbowych, czemu mają służyć nowe rozwiązania infrastrukturalne, większa częstość kursowania pojazdów i ułatwienia w dostępie do informacji.

W Sztokholmie wykorzystano również inne rozwiązania, mające na celu z jednej strony - ograniczenie poziomu emisji gazów cieplarnianych, z drugiej - zwiększenie mobilności. Jednym z nich jest program ''Rower'', polegający na rozbudowie istniejącej sieci ścieżek i dróg dla rowerów, a także budowie nowych, tworzeniu parkingów dla rowerów i dostosowaniu do potrzeb rowerzystów systemu sygnalizacji świetlnej. Dzięki temu w ciągu ostatnich dziesięciu lat liczba rowerzystów, korzystających z systemu ścieżek i dróg dla rowerów, liczącego obecnie 760 kilometrów, wzrosła o 75 procent.

W 2005 roku w Sztokholmie emisja gazów cieplarniach związana z użyciem różnych środków transportu, energii elektrycznej i ogrzewania wynosiła 4 tony na jednego mieszkańca. W 2009 roku udało się wartość tego wskaźnika zredukować do 3,4 tony, a zakładanym celem jest dalsze jego zmniejszenie: do 3 ton najpóźniej w roku 2015. Jeśli udałoby się zrealizować te plany, oznaczałoby to redukcję emisji gazów cieplarnianych w przeliczeniu na głowę mieszkańca o  44 procent w stosunku do roku 1990, kiedy wynosiła ona średnio 5,4 tony.

Sztokholm został ogłoszony przez Komisję Europejską pierwszą zieloną stolicą  Europy, a to ze względu na długofalowe zaangażowanie miasta w działania na rzecz środowiska naturalnego. Storstockholms Lokaltrafik utrzymuje, że w 2025 roku przedsiębiorstwo będzie używało wyłącznie floty autobusów korzystających z innych źródeł energii niż paliwa kopalne. Miasto usilnie dąży do tego, by w 2050 roku Sztokholm stał się zupełnie niezależny od paliw kopalnych.

Wiele ambitnych projektów jest właśnie realizowanych, choć nieprzewidziane okoliczności z pewnością doprowadzą do opóźnień w niektórych z nich. Jednakże w nadchodzących latach w wielu miejscach z pewnością będziemy świadkami spadku emisji gazów cieplarnianych ze strony ruchu miejskiego.

[tłum. C. O. Reless]

Źródło:
YOURIS.COM

Medycyna
Potrójny neuronalny podpis autyzmu (09-12-2010)

Wyniki najnowszych analiz statystycznych wskazują, że zaburzenia ze spektrum autyzmu mogą dotykać nawet 3,4 na 1000 dzieci w wieku 3-10 lat. Mimo względnie wysokiej częstości występowania zaburzenia, autyzm dziecięcy został po raz pierwszy opisany naukowo dopiero w połowie XX wieku. W 1943 roku dr Leo Kanner z Johns Hopkins Hospital w Baltimore (USA) przedstawił wyniki badań jedenaściorga dzieci, u których stwierdził charakterystyczny zespół objawów, któremu nadał nazwę autyzmu wczesnodziecięcego, tym samym wprowadzając ten termin do amerykańskiej i światowej nozologii medycznej. Mniej więcej w tym samym czasie austriacki naukowiec dr Hans Asperger opisał zbliżoną, lecz łagodniejszą formę tego zaburzenia, które zyskało miano zespołu Aspergera. Zarówno autyzm dziecięcy, jak i zespół Aspergera (obok innych całościowych zaburzeń rozwoju) można dziś odnaleźć w najpowszechniej stosowanych medycznych klasyfikacjach zaburzeń psychicznych i zaburzeń zachowania: w rozdziale V (F) ICD-10 oraz amerykańskim Diagnostic and Statistical Manual of Mental Disorders DSM-IV-TR. Zarówno dla autyzmu, jak dla zespołu Aspergera charakterystyczne są zaburzenia komunikacji, zaburzenia we wzajemnych interakcjach społecznych, a także ograniczone, powtarzające się i stereotypowe wzorce zachowań.

Zaburzenia ze spektrum autyzmu obejmują głębsze formy zaburzeń rozwoju, do których należy autyzm dziecięcy, ale również zaburzenia rozwoju psychicznego o łagodniejszym nasileniu, do których należy zespół Aspergera. Inne, o wiele rzadziej występujące zaburzenia rozwoju psychicznego ze spektrum autyzmu to zaburzenie Retta i dziecięce zaburzenie dezintegracyjne.

Poglądy na podłoże autyzmu ulegały z biegiem czasu głębokim przeobrażeniom. Początkowo teoretycy związani z nurtem psychoanalitycznym, tacy jak Bruno Bettelheim, nie wahali się wysuwać śmiałych twierdzeń o psychogennym pochodzeniu zaburzenia, brzemię winy zrzucając na nieprawidłową, chłodną i pozbawioną uczuć relację matki z dzieckiem. W czasach współczesnych badacze zwracają baczniejszą uwagę na endogenne - genetyczne i neurologiczne podłoże zaburzeń ze spektrum autyzmu.

Wyniki najnowszych badań prowadzonych w tym ostatnim nurcie teoretycznym zostały opublikowane na łamach Proceedings of the National Academy of Scieces w wydaniu z dnia 7 grudnia 2010 (PNAS, December 7, 2010, vol. 107, no. 49, 21223-21228).

W tym miejscu warto przypomnieć wyniki badań, jakie zostały przedstawione w ''Nowinach naukowych'' Racjonalisty w dniu 20 października 2010 w notatce pod tytułem ''Dzieci z autyzmem wolą wygaszacze''. http://www.racjonalista.pl/index.php/s,38/t,39028 Wyniki tych badań zwracają uwagę na uderzającą cechę dzieci autystycznych, jaką jest ignorowanie ''biologicznego'' ruchu i nadmierne koncentrowanie się na poruszających się elementach obiektów nieożywionych. Tymczasem większość zdrowo rozwijających się dzieci i osób dorosłych cechuje się wysoką wrażliwością na ruch ''biologiczny''. Szczególną wrażliwość ludzkiego spostrzegania wzrokowego na ruch ''biologiczny'' obserwuje się bardzo wcześnie w ontogenezie (już u noworodków) i istnieją przesłanki przemawiające za tezą, że jest to cecha głęboko utrwalona w procesie ewolucji gatunku. Stąd też niższa wrażliwość dzieci z autyzmem na ruch ''biologiczny'' urasta z czasem do rangi bardzo poważnego deficytu rozwojowego, głęboko zaburzającego relacje dziecka z najbliższym otoczeniem społecznym, w tym również z matką.

W badaniach opublikowanych w PNAS wykorzystano funkcjonalny magnetyczny rezonans jądrowy (functional Magnetic Resonance Imaging, fMRI) do rejestrowania aktywności dziecięcych mózgów w odpowiedzi na obserwację ruchu ''biologicznego'' i ruchu zdezorganizowanego. W badaniach brało udział trzy grupy osób badanych - dzieci z rozpoznanymi zaburzeniami ze spektrum autyzmu (n=25), ich rodzeństwo niedotknięte chorobą (n=20) oraz dzieci prawidłowo rozwijające się (n=17). Dzieci biorące udział w badaniach miały od 4 do 17 lat.

Wyniki badań wskazują, że istnieje specyficzny dla autyzmu podpis neuronalny, przejawiający się w zaburzonej aktywności mózgowej. Można w nim jednak wyróżnić trzy części składowe. Pierwszą z nich można określić jako aktywność-stan, drugą - jako aktywność-cechę, a trzecią -  jako aktywność kompensacyjną.

Naukowcy doszli do tego wniosku porównując aktywność mózgu u dzieci z trzech wspomnianych wcześniej grup. Okazało się wówczas, że choć rodzeństwo dzieci cierpiących z powodu autyzmu nie wykazywało symptomów zaburzenia, to wzorce odpowiedzi neuronalnej rejestrowane w tej grupie istotnie różniły się od wzorców odpowiedzi neuronalnej rejestrowanych u dzieci prawidłowo rozwijających się (w badaniach: niemających autystycznego rodzeństwa).

Jako aktywność-stan autorzy badań wskazują odpowiedź neuronalną rejestrowaną w mózgach dzieci ze zdiagnozowanymi zaburzeniami ze spektrum autyzmu; jako aktywność-cechę - obszary mózgu, które nie funkcjonują prawidłowo zarówno u dzieci z zaburzeniami ze spektrum autyzmu, jak i w przypadku ich zdrowego rodzeństwa, a jako aktywność kompensacyjną - unikalne dla zdrowego rodzeństwa dzieci autystycznych systemy neuronalne, które prawdopodobnie rozwinęły się w odpowiedzi na podwyższone ryzyko genetyczne wystąpienia autyzmu i skutecznie zahamowały rozwój zaburzenia, a których aktywności nie obserwuje się u dzieci prawidłowo rozwijających się.

Wyniki badań w zakresie aktywności-cechy okazały się zbieżne z poprzednimi doniesieniami, które wskazywały, że w autyzmie występują zaburzenia w funkcjonowaniu obszarów: prawego ciała migdałowatego, tylnej części prawej bruzdy skroniowej górnej, zakrętu wrzecionowatego (obustronnie), lewej brzuszno-bocznej kory przedczołowej i brzuszno-przyśrodkowej kory przedczołowej. W przypadku dzieci z zaburzeniami ze spektrum autyzmu stwierdzono również istotne i dość silne korelacje między poziomem aktywności niektórych ośrodków mózgowych a głębokością deficytów funkcjonowania społecznego.

[Oprac. C. O. Reless]

Źródło:
PNAS
NIMH

Medycyna
Naukowcy wyjaśniają naturę zaburzeń pamięci występujących w demencji (09-12-2010)

Międzynarodowy zespół naukowców odkrył, że to raczej niekompletne wspomnienia, a nie utrata pamięci, są odpowiedzialne za wywoływanie dezorientacji umysłowej u pacjentów cierpiących na demencję.

Badania, których wyniki zostały zaprezentowane w magazynie Science, rzucają nowe światło na sposób, w jaki zdolność mózgu do utrzymywania kompletnych i szczegółowych wspomnień zostaje zakłócona, potencjalnie obalając teorie, że przyczyną problemów z pamięcią jest zapominanie minionych zdarzeń lub wiadomości. Zdaniem naukowców pozostające, mgliste wspomnienia dezorientują pacjentów, zwiększając prawdopodobieństwo błędnego zapamiętania przez nich informacji, z którymi nigdy się nie zetknęli.

Naukowcy, pracujący pod kierunkiem Uniwersytetu Cambridge w Wlk. Brytanii, wykorzystali model zwierzęcy amnezji, który jest powszechnie stosowany do ustalania stopnia pogorszenia się pamięci. W ramach wcześniejszych badań nad pamięcią odkryto, że zwierzęta dotknięte amnezją nie były w stanie odróżnić nowych obiektów od starych. Niemniej w ramach tych badań nie udało się wykazać, czy zwierzę nie było w stanie rozróżnić obiektów, ponieważ postrzegało stary obiekt jako nowy (zapominanie czegoś, co miało miejsce), czy też dlatego, że uznawało nowy obiekt za stary (pamięć rzeczy niebyłych).

W toku najnowszych prac badanym osobnikom pokazywano obiekt, następnie przeprowadzano etap testowy, w którym obiekt był ponownie prezentowany wraz z dostrzegalnie odmiennym, nowym obiektem. Badane zwierzęta miały odróżnić nowe obiekty od powtórzonych. To pozwoliło naukowcom ocenić osobno reakcje na nowe i na stare obiekty. Zwierzętom pokazywano obiekt, a następnie przeprowadzano test pamięci po upływie godziny z użyciem tego samego lub nowego obiektu. Wyraźnie spędzały one więcej czasu na badaniu nowego obiektu, pokazując w ten sposób że pamiętały stary obiekt.

Tymczasem osobniki dotknięte amnezją osiągały słabe rezultaty w testach. Spędzały tyle samo czasu na badaniu nowych co starych obiektów. Naukowcy również odkryli, że zwierzęta te spędzały mniej czasu na badaniu nowego obiektu w porównaniu do swoich "normalnych" odpowiedników. W przypadku nowych obiektów zwierzęta dotknięte amnezją wykazywały pamięć rzeczy niebyłych.

Zespół ocenił, czy wykonywanie zadania pamięciowego można poprawić, jeżeli nie będzie innych wspomnień dezorientujących mózg. Przed testem zwierzęta umieszczono w ciemnym, spokojnym miejscu. Naukowcy odkryli, że zwierzęta dotknięte amnezją, które wykazywały się brakiem pamięci, kiedy czas przed testem spędzały w normalnych, ruchliwych warunkach, wykazywały się doskonałą pamięcią, jeżeli spędzały czas przed testem w ciemnym, spokojnym środowisku.

"To sugeruje, że głównym elementem problemów z pamięcią może być mylenie wspomnień, a nie utrata wspomnień jako taka" - mówi dr Lisa Saksida z Wydziału Psychologii Eksperymentalnej Uniwersytetu Cambridge, współautorka raportu z badań. "Jest to spójne z doniesieniami o zniekształceniach pamięci w demencji - na przykład pacjenci mogą nie wyłączyć kuchenki lub nie zażyć lekarstw nie dlatego, że zapomnieli o zrobieniu tego, tylko dlatego, że sądzą, iż już to zrobili" - dodaje.

"Rzecz, która nas zaskoczyła w uzyskanych wynikach, to zakres odzyskiwania pamięci osiągany po prostu poprzez zredukowanie napływających informacji przed testem pamięci" - podkreśla. "Ten wynik nie tylko zaprzeczył naszym oczekiwaniom, ale również pogłębił naszą wiedzę na temat możliwej natury upośledzenia pamięci leżącego u podstaw amnezji i niektórych typów demencji, co ma kluczowe znaczenie dla opracowania bardziej zaawansowanych i skutecznych metod leczenia."

Naukowcy są przekonani, że ich odkrycia mogą pomóc w opracowaniu nowych metod leczenia, które zredukują dezorientację we wspomnieniach, w tym leków poprawiających złożone i szczegółowe reprezentacje niezbędne do rozdzielenia wspomnień.

"Jeszcze bardziej intrygująca byłaby możliwość opracowania metod leczenia, które potrafiłyby powstrzymać chorobę na początkowych etapach, a nie tylko metod leczenia, które zajmują się objawami rozwiniętej już demencji" - zauważa dr Saksida. "Wczesne wykrywanie upośledzenia pamięci ma zasadnicze znaczenie dla opracowania tego typu profilaktyki, a dogłębniejsze poznanie natury upośledzenia, jak odkryliśmy, jest kluczowe dla wczesnego wykrycia."

Wkład w badania wnieśli naukowcy z Instytutu Behawioralnej i Klinicznej Neurologii Wellcome Trust Uniwersytetu Kalifornijskiego w San Diego w USA i Uniwersytetu w Guelph w Kanadzie.

© Unia Europejska 2005-2010

Źródło:

CORDIS

Astronomia
Siarkowa atmosfera Wenus to według ESA ostrzeżenie przed geoinżynierią (06-12-2010)

Pomimo ewidentnych różnic Wenus ma wiele wspólnego z Ziemią i możemy się dużo nauczyć od naszej najbliższej sąsiadki, co może się okazać przydatne w przyszłości. Chodzi o niedawne odkrycie przez sondę Venus Express Europejskiej Agencji Kosmicznej (ESA) warstwy dwutlenku siarki na dużej wysokości atmosfery Wenus. Astronomowie w końcu odkryli tajemnicę grubej warstwy chmur, która od dawna intrygowała naukowców. Przełomowe wyniki badań zostały zaprezentowane w czasopiśmie Nature Geoscience.

Owa cieplarniana planeta jest spowita warstwą szybko poruszających się chmur kwasowych, które zasłaniają widok powierzchni. Gęste chmury odbijają z powrotem w przestrzeń kosmiczną około 80% światła, jakie dociera ze Słońca. Naukowcy tłumaczą to zjawisko bardzo wysokim albedo (częścią światła padającego, jaka zostaje odbita) planety Wenus. To dlatego tak łatwo można ją dostrzec gołym okiem i tak długo była uważana za gwiazdę, a nie planetę.

Gruba warstwa chmur Wenus tworzy się około 50 kilometrów (km) od powierzchni planety, kiedy dwutlenek siarki z wulkanów łączy się z wodą i powstaje kwas siarkowy, jedna z najbardziej żrących substancji w świecie przyrody. Wszelkie ewentualne pozostałości dwutlenku siarki powyżej 70 km są szybko niszczone przez promieniowanie słoneczne. Niemniej zagadka pozostawała nierozwiązana - naukowcy nie mogli ustalić ani przyczyny obecności dwutlenku siarki na wysokości 90 km, ani jego pochodzenia.

Symulacje komputerowe, przeprowadzone przez Xi Zhang z Kalifornijskiego Instytutu Technologii w USA wraz z kolegami z Francji, Tajwanu i USA, pokazały że kropelki kwasu siarkowego są przenoszone z głębokich warstw atmosfery w górę na szczyty chmur wokół planety. Na dużej wysokości niektóre z tych kropelek parują, uwalniając gazowy kwas siarkowy, który jest wówczas rozbijany przez światło słoneczne, co powoduje uwolnienie dwutlenku siarki.

"Nie spodziewaliśmy się warstwy siarki na dużej wysokości, ale teraz możemy wyjaśnić nasze pomiary" - mówi Hakan Svedhem, naukowiec uczestniczący w projekcie Venus Express ESA. "Niemniej nowe odkrycia oznaczają również, że cykl siarki atmosferycznej jest bardziej złożony niż dotychczas sądziliśmy."

Ma to istotne znaczenie dla naszej planety z uwagi na rozważane plany łagodzenia skutków zmian klimatu poprzez wprowadzanie kropelek siarki do atmosfery Ziemi. Paul Crutzen z Instytutu Chemii im. Maxa Plancka w Niemczech, laureat Nagrody Nobla, jest jedną z osób, która otwarcie popiera wprowadzanie dwutlenku siarki na wysokości 20 km nad Ziemią, aby walczyć ze zmianami klimatu powodowanymi przez emisje dwutlenku węgla.

Jeżeli Słońce zbyt niebezpiecznie ogrzewa Ziemię, być może nadszedł czas na zaciągnięcie zasłony - sugerują czołowi naukowcy. "Zasłoną" mogłaby być warstwa zanieczyszczeń celowo wypuszczonych do atmosfery, aby pomóc schłodzić planetę. Dr Crutzen wykorzystuje erupcję wulkanu Mount Pinatubo na Filipinach jako model swojej "górnolotnej" koncepcji.

Erupcja wulkaniczna w 1991 r. spowodowała wyrzucenie daleko w stratosferę cząstek zawierających siarkę. Zwiększone odbijanie promieniowania słonecznego w przestrzeń kosmiczną przez cząstki obniżyło temperaturę powierzchni Ziemi średnio o 0,5°C w roku następującym po erupcji.

Jednakże odkrycia dr Zhanga przynoszą nam wyraźne ostrzeżenie. Musimy pogłębić naszą znajomość cyklu siarki zanim zaczniemy rozmyślać o jej wykorzystaniu do celów związanych z klimatem. Poznanie Wenus może ostatecznie doprowadzić do lepszego poznania naszej planety, zwłaszcza że rozważamy długofalowe oddziaływanie takiego eksperymentu na klimat Ziemi.

"Musimy zbadać w najdrobniejszych szczegółach potencjalne konsekwencje takiej sztucznej warstwy siarki w atmosferze Ziemi" - podkreśla Jean-Loup Bertaux z Université de Versailles-Saint-Quentin we Francji, kierujący badaniami z wykorzystaniem spektrometru SPICAV (Spektroskopia do badania parametrów atmosfery Wenus) sondy Venus Express. "Wenus ma ogromną warstwę takich kropelek, zatem wszystko, czego się dowiemy o tych chmurach prawdopodobnie będzie istotne dla wszelkiej inżynierii naszej planety".

© Unia Europejska 2005-2010

Źródło:
CORDIS

Medycyna
W mediach coraz mniej wiadomości o pandemii AIDS (05-12-2010)

Wyniki nowych badań międzynarodowych pokazują, że w ciągu ostatnich 20 lat ilość relacji w mediach na temat HIV/AIDS (ludzkiego wirusa niedoboru odporności/zespołu nabytego niedoboru odporności) w krajach rozwiniętych skurczyła się o ponad 70%.

Naukowcy twierdzą, że nie powinno to stanowić wielkiego zaskoczenia, gdyż poczyniono w tych krajach znaczne postępy w walce z chorobą. Jednakże ostrzegają, że zważywszy na fakt prowadzenia zdecydowanej większości badań nad chorobą w rozwiniętym świecie, brak zainteresowania w tym regionie może ograniczyć intensywność prac ukierunkowanych na walkę z pandemią w krajach rozwijających się. Odkrycia stanowią dorobek trwających badań prowadzonych przez naukowców z Francji, Irlandii, Niemiec i Wlk. Brytanii nad relacjami w mediach na całym świecie dotyczącymi zagadnień związanych ze zrównoważonym rozwojem.

Projekt "Trendy dotyczące zrównoważenia" realizowany przez Uniwersytet w Leeds (Wlk. Brytania), Queen's University w Belfaście (Irlandia), Instytut Badań nad Przyszłością i Oceny Technologii (IZT) w Berlinie (Niemcy) i Euromed Management w Marsylii (Francja), ujawnia, że średnio w każdym wydaniu głównych dzienników na początku lat 90. XX w. ukazywało się 1,5 artykułu powiązanego z HIV/AIDS. Od roku 2008 poziom ten spadł do poniżej 0,5 artykułu na każde wydanie. Zainteresowanie gazet francuskich i amerykańskich również radykalnie spadło w tym okresie.

Naukowcy odkryli, że w ciągu dwóch ostatnich dekad miejsce artykułów poświęconych HIV/AIDS zajęły poszerzone relacje zagadnień związanych ze zrównoważeniem. Niemniej zauważyli, że liczba relacji dotyczących problemów środowiskowych, takich jak kwaśne deszcze czy dziura ozonowa, które udało się rozwiązać, zmalała na początku lat 90. XX w. Tymczasem liczba artykułów na temat zmian klimatu wzrosła ponad 10-krotnie od tego czasu, osiągając średni poziom ponad 2 artykułów na każde wydanie w całej próbie 115 gazet.

"W ostatnich latach zmiana klimatu jawi się jako zagadnienie decydujące w kontekście zrównoważenia" - mówi dr Ralf Barkemeyer z Uniwersytetu w Leeds. "Temu zagadnieniu o globalnym znaczeniu udało się z powodzeniem zyskać akceptację społeczeństwa i jego uwagę dla kwestii zrównoważenia, ale jednocześnie mogło ono znacząco zmienić sam program zrównoważenia - być może kosztem uwagi poświęcanej problemom społeczno-ekonomicznym, takim jak malaria, HIV/AIDS, a nawet korupcja, prawa człowieka czy ubóstwo."

Zdaniem dr Barkemeyera w ostatnich latach nastąpiło "poważne ograniczenie" relacji w mediach poświęcanych wszystkim tym zagadnieniom, "zwłaszcza od początku 2006 r., kiedy uwaga mediów poświęcana zmianom klimatu zaczęła wyraźnie rosnąć".

Natomiast profesor Frank Figge z Queen's University Management School w Belfaście zauważa: "Kwestia HIV/AIDS pojawiła się jako kluczowe zagadnienie, które jest coraz częściej zaniedbywane przez gazety z rozwiniętej północy", fakt który "niekoniecznie stanowi zaskoczenie, gdyż ogromny postęp poczyniony w walce z HIV/AIDS również w dużej mierze ograniczył się do bogatej północy. Zatem problem przeniósł się na południe świata".

Naukowcy zauważają, że "poziom uwagi na obszarach najciężej dotkniętych pandemią AIDS - takich jak Afryka Południowa - pozostał wysoki, a nawet wzrósł na przestrzeni ostatnich 20 lat". Niemniej sugerują, że brak relacji w mediach na temat HIV/AIDS w świecie zachodnim może "hamować postęp w pracach nad rozwiązaniami problemu szerzącej się pandemii w krajach rozwijających się, zwłaszcza w subsaharyjskiej Afryce, gdyż znakomita większość badań nad HIV/AIDS jest prowadzona w rozwiniętym świecie".

Dr Tobias Hahn z Euromed Management zauważa, że zagadnienia dotyczące zmian klimatu i zrównoważenia nie były jedynymi, które odciągnęły uwagę od HIV/AIDS. "W ciągu ostatnich 10 lat zagrożenie stwarzane przez międzynarodowy terroryzm również wydaje się wypierać większość z zestawu 20 zagadnień związanych ze zrównoważeniem, które przeanalizowaliśmy w gazetach amerykańskich. Globalna recesja z pewnością również nie sprzyjała poświęcaniu uwagi problemowi HIV/AIDS przez społeczeństwo".

© Unia Europejska 2005-2010

Źródło:
CORDIS

Biologia
Uwaga: zawał na cyferblacie! (04-12-2010)

Chronobiologia jest dziedziną nauki, która zajmuje się badaniem cyklicznych zjawisk zachodzących w organizmach, czyli tzw. rytmów biologicznych. Z jednej strony niektóre osiągnięcia chronobiologii nie uniknęły trywializacji, będącej skutkiem wykorzystania autorytetu nauki do promowania pseudonaukowej koncepcji ''biorytmów'', z drugiej strony - niektóre wyniki rzetelnych badań zdążyły już ''zbłądzić pod strzechy'' i zyskać status wiedzy popularnej, jak stało się w przypadku koncepcji typów porannych i wieczorny, dzielącej ludzi na tzw. ''skowronki'' i ''sowy''.

Nie da się ukryć, że u zwierząt wiele procesów życiowych przebiega cyklicznie. Należą do nich bicie serca, oddychanie, przyjmowanie pokarmu i procesy trawienie, cykl menstruacyjny, sen i czuwanie, gody, sen zimowy, linienie i wiele innych. To samo dotyczy ludzi, choć wydawałoby się, że człowiek, poprzez coraz skuteczniejsze odgradzanie się od natury, uwolnił się od dyktatu własnej fizjologii, a także wpływu rytmów astronomicznych Ziemi, takich jak fazy Księżyca czy wędrówki Słońca po nieboskłonie. Wyniki badań wskazują, że nic bardziej błędnego. Co więcej, cykliczny przebieg różnych procesów fizjologicznych w ludzkim organizmie może mieć wpływ między innymi na porę występowania problemów zdrowotnych w ciągu doby czy szansę przeżycia pacjenta.

Zwraca na to uwagę artykuł, który został opublikowany na łamach Proceedings of the National Academy of Sciences z dnia 23 listopada 2010: ''Wpływ systemu okołodobowego, wysiłku fizycznego i ich interakcji na układ krążenia" (PNAS, November 23, 2010, vol. 107, no. 47, 20541-20546).

Najwyższe ryzyko wystąpienia niepożądanych zaburzeń ze strony układu sercowo-naczyniowego odnotowuje się w godzinach porannych, około godziny dziewiątej. Z kolejnym, nieco mniej wyraźnym okresem krytycznym w ciągu doby mamy do czynienia około godziny dwudziestej oraz w ciągu nocy. Do tej pory tłumaczono to wpływem wzorców aktywności i zachowania ludzi w ciągu dnia i w nocy, nie było jednak wiadomo, na ile do występowania tych wahań przyczynia się również niezależny system endogenny, sterujący rytmami fizjologicznymi.

Badacze postawili hipotezę, że endogenny system regulujący rytmy okołodobowe wpływa na funkcje autonomicznego układu nerwowego (sterującego niezależnie od woli pracą mięśni gładkich i gruczołów wydzielania wewnętrznego), hemodynamikę, czyli tętno i ciśnienie krwi, związane z czynnością mechaniczną serca i naczyń krwionośnych, oraz hemostatykę, czyli krzepliwość krwi. Poziom markerów fizjologicznych związanych z przebiegiem wymienionych procesów w stanie spoczynku powinien dać informację o funkcjonowaniu endogennego mechanizmu regulującego rytmy biologiczne, działającego niezależnie od czynników zewnętrznych, takich jak poziom wysiłku i aktywności fizycznej w ciągu doby. Zakładano przy tym, że ewentualne stresory behawioralne (np. wysiłek fizyczny) mają inną wartość stresogenną dla organizmu w różnych porach doby, a ryzyko wystąpienia niewydolności układu krążenia wynika z interakcji ''sztywnego'', wewnętrznego zegara biologicznego, działającego niezależnie od czynników środowiskowych i zachowania, i czynników behawioralnych.

Badania przeprowadzono z udziałem dwunastu dorosłych osób cieszących się dobrym zdrowiem. Aby oszukać endogenny zegar biologiczny, działający w rymie około 24-godzinnym, osobom badanym, przebywającym w warunkach laboratoryjnych, dobę, wyznaczaną cyklem snu i czuwania oraz regularnej aktywności fizycznej, skrócono do 20 godzin. Pozwoliło to na monitorowanie działających odtąd niezależnie dwóch ''zegarów'' - endogennego (taktującego nadal w rytmie 24-godzinnym) i behawioralnego (którego rytm wyznaczany był przez cykle 20-godzinne). Osoby badane przebywały w tych specyficznych warunkach 240 godzin, czyli - zależnie od wyboru zegara - 10 lub 12 dni.

W stanie spoczynku występowały silne wahania poziomu kortyzolu we krwi. W szczytowym momencie poziom kortyzolu był o ok. 85% wyższy niż średnia wartość dobowa. Dobowy szczyt kortyzolu przypadał około godziny dziewiątej. W ciągu ''biologicznego dnia'' występował również dobowy szczyt poziomu katecholamin krążących we krwi - adrenaliny (ok. 70% powyżej średniej dobowej) i noradrenaliny (ok. 35% powyżej średniej dobowej).

Z kolei około godziny dwudziestej zaobserwowano dobowy szczyt wartości ciśnienia krwi i minimum modulacji ze stron nerwu błędnego, który odpowiada za obniżanie częstotliwości skurczów serca. Wskaźniki pobudzenia układu sympatycznego osiągały najniższą wartość w ciągu ''biologicznej nocy''. Z kolei aktywność nerwu błędnego była wówczas najwyższa.

Nie zaobserwowano prostych zależności między zegarem biologicznym a poziomem krzepliwości krwi, choć agregacja płytek miała dwa szczyty - około południa i około godziny 23.

Stwierdzono również występowanie okołodobowej modulacji reaktywności układu krążenia w odpowiedzi na wysiłek fizyczny: najniższy poziom aktywności nerwu błędnego i najwyższa reaktywność katecholamin występowały około godziny dziewiątej rano i około godziny 21.

Wyniki badań potwierdzają więc, że endogenne mechanizmy regulujące rytmy fizjologiczne ludzkiego organizmu wpływają na poziom wielu czynników ryzyka wystąpienia zaburzeń ze  strony układu sercowo-naczyniowego; decydują również o zdolności reagowania organizmu na działanie różnych czynników stresogennych w ciągu doby.

[Oprac. C. O. Reless]

Źródło:
PNAS
Supporting Information

Medycyna
Nowe, obiecujące sposoby walki z malarią (03-12-2010)

Każdej minuty średnio dwoje dzieci na świecie umiera z powodu malarii, choroby tropikalnej wywoływanej przez pasożyty z rodzaju Plasmodium. Naukowcom udało się ostatnio zidentyfikować kluczowe czynniki wpływające na rozprzestrzenianie się chorobotwórczych pasożytów. Ustalono również, że zachodzi możliwość wyeliminowania co najmniej jednej trzeciej z nich. Stanowi to prawdziwy przełom w walce z zarodźcem malarycznym, który staje się ostatnio coraz bardziej oporny; stwarza również nadzieję na opracowanie nowych leków i skutecznych szczepionek.

Zgodnie z doniesieniami Światowej Organizacji Zdrowia (WHO) każdego roku odnotowuje się blisko milion zgonów w następstwie zakażenia zarodźcem malarycznym i około 250 mln zakażeń. Jednak według niektórych naukowców, takich jak choćby Ali Salanti z Københavns Universitet, malaria zabija rocznie ponad 3 mln ludzi.

Naukowcom School of Biology na University of Nottingham, działającym we współpracy z Wellcome Trust Sanger Institute (Wielka Brytania), udało się zidentyfikować regulatory, kontrolujące przebieg trzech kluczowych stadiów w cyklu życiowym zarodźca malarycznego. Tymi regulatorami są enzymy - kinazy białkowe, katalizujące reakcję fosforylacji. Celem jest zahamowanie rozprzestrzeniania się pasożyta poprzez zablokowanie kinaz.

Badania były prowadzone nad zarodźcem malarycznym z gatunku Plasmodium berghei, infekującym gryzonie. Kinazy białkowe u wszystkich gatunków z rodzaju Plasmodium są bardzo podobne, a to oznacza, że kinazy w dużym stopniu zbliżone do tych występujących u zarodźca infekującego gryzonie można znaleźć u gatunków zarodźców będących przyczyną malarii u ludzi. Naukowcom udało się ustalić, że ponad jedna trzecia genów kodujących u zarodźca białka kinaz staje się zbyteczna w tym stadium cyklu życiowego pasożytów, w którym wnikają one do czerwonych ciałek krwi i w nich bytują. To z kolei oznacza, że można się bezpośrednio skupić na pozostałych 2/3 kinaz białkowych, które mogą być celem działania leków na tym stadium cyklu życiowego pasożyta. Naukowcy podkreślili, że wiele genów, w które aktualnie wycelowany jest rozwój leków antymalarycznych nie należy do grupy tych nadmiarowych genów.

Doniosłym wyzwaniem będzie z pewnością zablokowanie wielu najważniejszych kinaz białkowych pasożyta w taki sposób, by z jednej strony uniknąć szybkiego rozwoju lekooporności, z drugiej - nie zaburzyć funkcjonowania ludzkich kinaz białkowych. Byłoby to możliwe do osiągnięcia między innymi poprzez blokowanie w wielu miejscach kinaz białkowych zależnych od wapnia (CDPKs, Calcium-Dependent Protein Kinases), należących do unikalnej dla zarodźców podgrupy kinaz białkowych. Kinazy białkowe zależne od wapnia posiadają tryb regulacji i domeny architektury jedynie w przypadku roślin.

We wrześniu naukowcy z University of Nottingham opublikowali wyniki badań, które wskazywały, że białko PF16 jest niezbędne do budowy i prawidłowego funkcjonowania wici męskich komórek płciowych u zarodźca, a zaburzenia w obrębie tego genu skutkują obniżoną płodnością i nieprawidłowym ruchem wici. Również w tym przypadku naukowcy wykorzystali jako organizm modelowy zarodziec z gatunku Plasmodium berghei i wykazali, że pewne części białka PF16 są bardzo podobne u wszystkich eukariontów. Wyniki tych badań wskazują więc kolejną możliwą drogę rozwoju leków przeciw malarii.

Dysponujemy obecnie wieloma obiecującymi wynikami badań nad malarią, które mogą prowadzić do powstania jeszcze lepszych leków i skuteczniejszych szczepionek. Jednakże minie jeszcze co najmniej kilka lat, zanim uda się to osiągnąć. Dla znacznego ograniczenia liczy zakażeń malarią i zmniejszenia liczby zgonów spowodowanych chorobą konieczne będzie także opracowanie odpowiednich strategii dystrybucji i dotacji.

[Tłum. C. O. Reless]

Źródło:
A breakthrough in the struggle against the increasingly resistant malaria parasite

Neuronauki
Jak mózg reaguje na widok ptasznika (02-12-2010)

Psychologowie i psychiatrzy zorientowani ewolucyjnie skłonni są tłumaczyć stosunkowo wysoką częstość występowania niektórych zaburzeń lękowych (zwłaszcza prostych fobii, takich jak arachnofobia i inne zoofobie) warunkami, w jakich musiał bytować człowiek w ciągu tysięcy lat rozwoju gatunku. Nawet Homo sapiens sapiens dopiero od niedawna może się cieszyć życiem w środowisku, które można uznać za bezpieczne, wolne od takich zagrożeń, jak ataki drapieżców czy ukąszenia jadowitych zwierząt. Wcześniej na człowieka i jego mniej lub bardziej zwierzęcych przodków niewątpliwie musiała działać presja ewolucyjna, prowadząca do rozwijania różnorodnych mechanizmów obronnych - prawdopodobieństwo przetrwania i przekazania własnych genów następnemu pokoleniu było wyższe w przypadku osobników zdolnych do szybszego reagowania na różnorodne niebezpieczeństwa. Tak w każdym razie może wyglądać zarys rozumowania, które uzasadnia poszukiwanie mechanizmów neuronalnych odpowiedzialnych za występowanie silnego lęku w reakcji na takie bodźce, jak choćby jadowite pająki - ptaszniki.

Wyniki badań prowadzonych nad przebiegiem odpowiedzi mózgu na ten specyficzny rodzaj bodźca zostały opublikowane w Proceedings of National Academy of Sciences z dnia 23 października 2010 (www.pnas.org/cgi/doi/10.1073/pnas.1009076107).

Kontakt z pająkami u wielu ludzi wywołuje niemal pierwotne, negatywne reakcje emocjonalne o bardzo wysokim nasileniu. W związku z tym, autorzy badań zakładali, że właśnie kontakt z pająkami może aktywować mechanizmy mózgowe utrwalone w toku procesu ewolucji i przetrwałe u człowieka do czasów współczesnych, wśród nich system monitorowania zagrożenia i system odpowiedzialny za wyzwalanie reakcji obronnych, zwiększający szanse przeżycia w kontakcie z niebezpieczeństwem.

W procedurze badawczej znalazły zastosowanie metody neuroobrazowania, tj. funkcjonalny magnetyczny rezonans jądrowy (fMRI). Badania przeprowadzono na grupie 20 ochotników, 10 kobiet i 10 mężczyzn, niecierpiących z powodu fobii. Przeciętne nasilenie lęku-cechy (czyli charakterystycznego dla danej osoby poziomu lęku) w grupie osób badanych było zbliżone do średniej i rozkładu cechy w populacji.

W roli bodźca lękotwórczego wystąpił materiał filmowy, na którym zarejestrowano ruchy ptasznika olbrzymiego (Lasiodora parahybana). Wymyślny sposób prezentacji bodźca osobom badanym omówiony jest w ''Supproting Information'' do artykułu źródłowego. Procedura badawcza pozwalała, by jako zmienną niezależną uwzględnić zarówno odległość ptasznika od stopy osoby badanej, jak i przewidywany kierunek jego dalszego poruszania się.

W wyniku przeprowadzonych obserwacji udało się ustalić, że gdy obraz pająka był umieszczany coraz bliżej stopy osoby badanej, podwyższonemu subiektywnemu poziomowi lęku towarzyszyła wzmożona i przebiegająca kaskadowo aktywność układów związanych z reakcjami lękowymi na poziomie mózgowym. Układy te obejmują głównie istotę szarą okołowodociągową, ciało migdałowate i jądro łożyskowe prążka krańcowego.

Rejestrowany poziom aktywności ciała migdałowatego był pozytywnie skorelowany z niespodziewaną wielkością zagrożenia. Jest to zgodne z wcześniejszymi doniesieniami, które podkreślają rolę ciała migdałowatego w koordynowaniu odpowiedzi właśnie na nagłe, niespodziewane bodźce zagrażające. Aktywność ciała migdałowatego i jądra łożyskowego prążka krańcowego pozostawała związana z poziomem zagrożenia ze strony pająka, za którego wskaźnik przyjęto obserwowany kierunek poruszania się zwierzęcia.

Z kolei aktywność kory mózgowej w okolicy czołowo-oczodołowej związana była z oddalaniem się ptasznika, co sugeruje, że obszar ten generuje sygnały hamujące, związane z poczuciem bezpieczeństwa, redukujące napięcie i lęk.

We wnioskach z badań autorzy zwracają uwagę, że odpowiedź mózgu na bodźce lękotwórcze utrwalona w toku ontogenezy (na przykład w następstwie urazu) jest bardzo podobna do odpowiedzi na zagrożenia uwarunkowanej filogenetycznie.

[Oprac. C. O. Reless]

Źródło:
Neural activity associated with monitoring the oscillating threat value of a tarantula
Supporting Information

Zdrowie
Zaangażowanie społeczności lokalnej kluczem do sukcesu profilaktyki alkoholowej (28-11-2010)

Szkodliwe używanie alkoholu przez młodzież jest poważnym problemem w wielu krajach wysoko rozwiniętych, w tym również w Stanach Zjednoczonych, gdzie wśród młodzieży uczęszczającej do college'ów rozwinęła się swoista kultura picia alkoholu, określana jako ''college drinking''. Niepokojące rozmiary zjawiska skłoniły tamtejsze uniwersytety, by we współpracy z publicznymi instytucjami naukowymi i badawczymi podjąć wysiłek w kierunku opracowania bardziej skutecznych programów profilaktyki alkoholowej wśród studentów.

''College drinking'' lub ''binge drinking'' polega na przyjmowaniu przez młodych ludzi wysokich dawek alkoholu w celu szybkiego osiągnięcia stanu upojenia alkoholowego lub też na intensywnym piciu alkoholu przez kilka dni. Przy takim stylu picia stężenie alkoholu we krwi szybko wzrasta nawet do kilku promili, co niejednokrotnie stwarza zagrożenie dla zdrowia lub życia. W ostatnich latach w Stanach Zjednoczonych notuje się rocznie średnio około 1800 przypadków zgonów związanych z nadużywaniem alkoholu przez studentów college'ów (czyli osoby w grupie wiekowej 18-24 lata). Do wyobraźni przemawia również skala innych, wtórnych do intensywnego picia problemów. Do prowadzenia samochodu pod wpływem alkoholu przyznaje się rocznie ponad 2,7 mln amerykańskich studentów; z używaniem alkoholu związanych jest rocznie ponad 600 tys. przypadkowych obrażeń ciała, 700 tys. aktów przemocy (pobić, napadów itp.), a także blisko 100 tys. przypadków przemocy na tle seksualnym. Liczby te pokazują, że problemy związane ze szkodliwym używaniem alkoholu przez młodzież mogą dotyczyć kampusu praktycznie każdej amerykańskiej uczelni.

Prowadzono stosunkowo wiele prac badawczych związanych z rozwijaniem i wdrażaniem programów profilaktycznych i interwencyjnych, których odbiorcami byli studenci amerykańskich college'ów, ale niewiele z nich brało pod uwagę kontekst szerszy niż wąsko rozumiane środowisko uniwersyteckiego kampusu. Tymczasem wyniki najnowszych badań, opublikowanych w grudniowym wydaniu ''American Journal of Preventive Medicine'', sugerują, że bardziej skuteczne są takie strategie działań związanych z profilaktyką alkoholową wśród studentów, które w większym stopniu angażują środowisko lokalne niezwiązane bezpośrednio z uczelnianym kampusem. Badania przeprowadzone zostały przez zespół naukowców pod kierownictwem dr Roberta Saltza z Pacific Institute for Research and Evaluation w Berkeley (Kalifornia) i objęły 14 dużych kalifornijskich uczelni publicznych. W finansowaniu badań partycypował amerykański National Institute on Alcohol Abuse and Alcoholism (NIAAA).

Połowa uczelni została wytypowana do udziału w dwuletnim programie profilaktycznym, ukierunkowanym na prowadzenie działań w społeczności lokalnej. Pozostałe siedem uczelni występowało w roli grupy kontrolnej, stanowiąc punkt odniesienia dla dalszych porównań. Oddziaływania profilaktyczne i interwencyjne polegały między innymi na nasileniu kontroli trzeźwości kierowców, a także na zdecydowanym reagowaniu policji wobec zakłócania spokoju. Szkoły w sposób bardziej energiczny domagały się przestrzegania lokalnych przepisów, przewidujących kary finansowe za przypadki łamania prawa związane z alkoholem dla gospodarzy imprez. Przepisy zakazujące sprzedaży alkoholu osobom niepełnoletnim również były bezwzględnie egzekwowane. Program został nagłośniony za pośrednictwem miejscowych mediów, w trakcie imprez rozrywkowych i innych wydarzeń.

W ciągu czterech kolejnych semestrów zimowych (w tym również w ciągu dwóch ostatnich lat, kiedy programy profilaktyczne były wprowadzane w życie) studenci wypełnili online około 20 tysięcy ankiet. W ankietach pytano studentów o to, w jakich miejscach najczęściej spożywają alkohol, czy upijają się, a także o to, czy zdarzało im się pić intensywnie.

Wyniki badań przedstawiane na łamach grudniowego wydania ''American Journal of Preventive Medicine'' wskazują, że studenci z uczelni biorących udział w programie  istotnie rzadziej byli skłonni spożywać alkohol z intencją osiągnięcia stanu upojenia alkoholowego na imprezach odbywających się poza terenem kampusu - w domach prywatnych, barach i restauracjach. W okresie wdrażania programu, w semestrach zimowych odnotowano w stosunku do uczelni niebiorących udziału w programie około 6 tysięcy mniejszą liczbę przypadków upijania się przez studentów na imprezach odbywających się poza terenem kampusu uniwersyteckiego i około 4 tysięcy mniej przypadków upijania się przez studentów w barach i restauracjach.

Uczelnie, które wdrażały założenia programu bardziej energicznie, uzyskiwały na tym polu lepsze rezultaty. Polegało to między innymi na dużym nagłośnieniu akcji i ewidentnym egzekwowaniu jej założeń.

"Wyniki tych badań pozwalają zarządom uczelni i ich lokalnemu otoczeniu na pewną dozę optymizmu w kwestii podatności zjawiska ''college drinking'' na oddziaływanie dobrze dobranych, opartych na dowodach i uniwersalnych strategii profilaktycznych'' - mówi dr Robert Saltz. "W tym przypadku jeden zestaw strategii ukierunkowanych na kontrolę używania alkoholu okazał się skuteczny, ale ich inne kombinacje mogą działać równie dobrze, a nawet lepiej".

[Tłum./oprac. C. O. Reless]

Źródło:
Campus and Community Can Reduce College Drinking
What Colleges Need to Know Now - An Update on College Drinking Research

Ekologia
Nanocząsteczki TiO2 na ulicach naszych miast (26-11-2010)

Materiały o właściwościach eliminujących brud i zanieczyszczenia są używane, między innymi, do pokrywania nawierzchni dróg i chodników. Tego rodzaju materiały zawierają nanocząsteczki ditlenku tytanu (TiO2). Czy te nanocząsteczki mogą zostać uwolnione do środowiska, a jeśli tak, to czy mogą mieć na nie niekorzystny wpływ?

Dr Anne Beeldens wraz ze swoimi współpracownikami z Belgian Road Research Centre przeprowadziła badania efektywności oczyszczania powietrza przez kostkę brukową zawierającą nanocząsteczki TiO2, używaną na pasach parkingowych w Antwerpii. Peter Van Mierloo - piastujący stanowisko ''continuous improvement officer'' w CRH Landscaping Europe pracuje z surowcem wykorzystywanym przez wspomniany wcześniej ośrodek badawczy. ''Ditlenek tytanu, którego używamy jako dodatku do naszego betonu, pierwotnie ma wielkość 15 nanometrów. Aby zwiększyć efekt fotokatalityczny wytwarzamy zawiesinę, w której TiO2  zlepia się w większe aglomeraty o rozmiarach 1,5 mikrometra. Ten proces jest bardzo ważny z punktu widzenia efektywności naszego fotokatalitycznego produktu. Dzięki aglomeratom staje się on rodzajem gąbki z wieloma wewnętrznymi porami. Pozwalają one stworzyć olbrzymią powierzchnię TiO2 - 225 metrów kwadratowych na 1 gram produktu - na której dochodzi do rozkładu zanieczyszczeń powietrza. Gdyby cząstki pozostały w rozmiarze ''nano'', nie udałoby się uzyskać pożądanego efektu.''
Mimo to, problem nadal istnieje, nawet jeżeli nanocząsteczki TiO2 formują aglomeraty, zwłaszcza biorąc pod uwagę, że Günter Oberdörster, pracujący wraz ze swoim zespołem na University of Rochester (Stany Zjednoczone), ustalił, że aglomeraty nanocząsteczek TiO2 o wielkości 700 nm ulegały w płucach rozpadowi na mniejsze części. Jednakże, zgodnie z cytowaną wypowiedzią Petera Van Mierloo,  aglomeraty używane w produkcji betonu są ponad dwa razy większe i pozostają wewnątrz kostek brukowych. "TiO2 jest, między innymi, wykorzystywany w przebiegu procesów przemysłowych do oczyszczania wody. Nasz produkt ma przede wszystkim służyć rozkładowi zanieczyszczeń unoszących się w powietrzu, a nanocząsteczki TiO2 pozostają związane za pomocą spoiwa w strukturze cementu, skąd nie zostaną uwolnione. TiO2 występuje tu w roli katalizatora i pozostaje wewnątrz kostki brukowej."

A jeśli w procesie wietrzenia materiałów zawierających nanocząsteczki TiO2 doszłoby do uwolnienia nanocząsteczek do środowiska, mogłyby wyrządzić w nim jakieś szkody?

Ocena toksyczności TiO2 nie jest prostym zadaniem. Dr Anil Kumar Suresh wraz ze swoim zespołem badawczym z Biological and Nanoscale Systems Group, Oak Ridge National Laboratory (Stany Zjednoczone), zajmował się oceną toksyczności różnych nanocząsteczek, takich jak: Ag, ZnO, CeO2 i TiO2. ''To, jak naprawdę toksyczne są nanocząsteczki, zależy od wielu czynników; na przykład od tego, jak przebiega proces ich produkcji, jakich związków chemicznych używa się w procesie produkcji, co znajduje się na ich powierzchni - każda nanocząsteczka może być inna. Istnieje wiele sposobów wytwarzania nanocząsteczek. Nanocząsteczki, nad którymi prowadzę badania, mogą się różnić od tych wytwarzanych przez innego producenta. Większość nanocząsteczek TiO2, które były obiektem badań, cechuje się pewną toksycznością, z wyjątkiem tych wytwarzanych z udziałem bakterii lub grzybów, które są nieaktywne, co można wiązać z obecnością białkowego lub peptydowego płaszcza na ich powierzchni, a także defektami struktury krystalicznej. Obecnie nanocząsteczki wytwarza się w przebiegu procesów chemicznych. Istnieje wiele doniesień, że promieniowanie może prowadzić do wzrostu toksycznych właściwości  nanocząsteczek TiO2 od 20 do 40 razy. Wytwórcy często nie przedstawiają informacji na temat poziomu toksyczności i specyfiki nanocząsteczek, które wykorzystują w swoich produktach. Nie wiadomo zbyt wiele o ich dalszym losie, rozproszeniu i przemianach, jakim ulegają w środowisku. Problem nie jest wystarczająco rozpoznany i nie jesteśmy w stanie przewidzieć, co się stanie, gdy koncentracja nanocząsteczek w atmosferze będzie rosła. Musimy zachować dużą ostrożność. Ludzie, którzy pracują dla producentów przemysłowych, wytwarzających całe tony nanocząsteczek TiO2 i uwalniających je do środowiska, powinni najpierw dwa razy się zastanowić" - mówi dr Anil Kumar Suresh.

Materiały zawierające TiO2 wykorzystywane są nie tylko do produkcji kostek brukowych i płytek chodnikowych, ale można je również znaleźć na zewnętrznych i wewnętrznych ścianach budynków, w wykładzinach podłogowych, w samochodach, autobusach i pojazdach szynowych.

Chociaż nanocząsteczki TiO2 prawdopodobnie pozostaną związane w betonie lub w postaci aglomeratów, nie jest do końca jasne, co stanie się w przebiegu wieloletniego wietrzenia zawierających je materiałów, wykorzystywanych do różnych celów i w różnorodnych warunkach. Ponieważ prowadzono niewiele badań na temat wpływu materiałów zawierających nonocząsteczki TiO2 na środowisko, trudno również ocenić długoterminowe konsekwencje szerokiego rozpowszechniania tych materiałów dla środowiska naszych miast.

[Tłum. C. O. Reless]

Źródło:
Nanoparticles in our cities: are there any risks for our health?

Neuronauki
Czytanie korzystnie wpływa na mózg (26-11-2010)

Od najmłodszych lat jesteśmy zachęcani do czytania i często słyszymy, że to z korzyścią dla naszego mózgu. Ale jak dokładnie czytanie wpływa na mózg? Międzynarodowy zespół neuronaukowców postanowił udzielić odpowiedzi na to pytanie i odkrył, że ludzie umiejący czytać, niezależnie od tego czy nabyli tę umiejętność w dzieciństwie, czy jako osoby dorosłe, wykazują bardziej zdecydowane reakcje na słowa pisane w różnych częściach mózgu. Wyniki badań zostały niedawno opublikowane w magazynie Science.

Naukowcy z Belgii, Brazylii, Francji i Portugalii, pracujący pod kierunkiem neuronaukowca kognitywnego Stanislasa Dehaene'a z Institut National de la Santé et de la Recherche Médicale (INSERM) w Gif-sur-Yvette we Francji, postanowili sprawdzić, czy umiejętność czytania i pisania usprawnia funkcjonowanie mózgu i czy również pociąga za sobą straty. Za pomocą funkcjonalnego MRI (rezonansu magnetycznego) zmierzyli reakcje mózgu 63 Portugalczyków i Brazylijczyków na język mówiony i pisany, wizerunki twarzy, domy i rozmaite narzędzia. W grupie 10 ochotników było analfabetami, 22 nauczyło się czytać i pisać jako osoby dorosłe, a 31 posiadło te umiejętności w dzieciństwie.

Wyniki pokazały, że wszyscy wykazywali bardziej zdecydowane reakcje na słowa pisane w kilku obszarach mózgu, które przetwarzają to, co widzimy. Ponadto w przypadku osób umiejących czytać i pisać - ale nie w przypadku analfabetów - słowa napisane wywoływały aktywność mózgową w częściach lewego płata skroniowego, które reagują na język mówiony. Zdaniem zespołu to sugeruje, że czytanie wykorzystuje obwody w mózgu, które ewoluowały, aby wspomagać język mówiony - znacznie starszą innowację w komunikacji ludzi. Czytanie to stosunkowo świeży wynalazek w historii ludzkości. Czytamy i piszemy dopiero od około 5000 lat.

"Umiejętność czytania i pisania, niezależnie od tego czy nabyta w dzieciństwie czy wyuczona na lekcjach dla dorosłych, poprawia reakcje mózgu na co najmniej trzy odrębne sposoby" - czytamy w artykule. Naukowcy wyjaśniają, że "pobudza ona organizację kory wzrokowej" - części mózgu, która odbiera i przetwarza impulsy z nerwów wzrokowych. Umiejętność czytania i pisania wywiera taki wpływ "w szczególności poprzez wywoływanie zwiększonej reakcji na znane pismo w obszarze VWFA [obszar wzrokowej formy słów] w lewej bruździe potyliczno-skroniowej oraz poprzez wzmacnianie wczesnych reakcji wizualnych w korze potylicznej, w sposób częściowo retinotopiczny" - podkreślają.

Po drugie, zdaniem zespołu, "umiejętność czytania i pisania umożliwia aktywowanie za pomocą napisanych zdań praktycznie całej sieci języka mówionego w lewej półkuli. W ten sposób czytanie, późny wynalazek kulturowy, staje się porównywalne w swej efektywności do najbardziej zaawansowanego kanału komunikacyjnego człowieka, a mianowicie mowy."

Wreszcie naukowcy zwracają uwagę, że ich badania dowiodły, iż "umiejętność czytania i pisania doskonali przetwarzanie języka mówionego poprzez poszerzenie regionu fonologicznego - równiny skroniowej oraz udostępnianie kodu ortograficznego w układzie od ogółu do szczegółu".

Niemniej dodatkowa aktywność mózgu może mieć także minusy. Naukowcy odkryli, że w przypadku osób, które nauczyły się czytać we wczesnym okresie życia, mniejszy region lewej bruzdy potyliczno-skroniowej reagował na wizerunki twarzy niż w przypadku ochotników-analfabetów.

"Te w znakomitej mierze pozytywne zmiany nie powinny przysłaniać faktu, że umiejętność czytania i pisania, podobnie jak inne formy kompetencji, prowadzą również do efektu rywalizacji korowej" - zauważają autorzy. "W obszarze VWFA stwierdzono znacząco obniżoną aktywację w reakcji na szachownice i twarze." Jednakże zdaniem naukowców potrzebne będą dalsze badania, aby stwierdzić, czy rzeczywiście wpływa to negatywnie na naszą zdolność rozpoznawania twarzy.

Znaczenie czytania dla mózgu zostało podkreślone nie po raz pierwszy. W ubiegłym roku, Manuel Carreiras z Baskijskiego Centrum Poznania, Mózgu i Języka w San Sebastián w Hiszpanii odkrył, że mózgi osób dorosłych, które nauczyły się czytać po osiągnięciu wieku dorosłego są inaczej ustrukturyzowane niż w przypadku osób, które nie potrafią czytać.

© Unia Europejska 2005-2010

Źródło:
CORDIS

Ekologia
Wpływ nanocząsteczek na środowisko (25-11-2010)

Dostęp do produktów zawierających różne nanocząsteczki staje się coraz powszechniejszy. Zarówno w procesie produkcji, jak podczas używania i rozkładu zawarte w tych produktach nanocząsteczki wpływają na stan środowiska, w którym  żyjemy, a także - w konsekwencji - na nas samych. W niektórych przypadkach wpływ ten jest znaczący.
Na polu stosunkowo młodej dziedziny badań, za jaką należy uznać nanotoksykologię, badacze tacy jak dr Irina Blinova oraz jej współpracownicy z estońskiego Narodowego Instytutu Fizyki Chemicznej i Biofizyki (Keemilise ja Bioloogilise Füüsika Instituut, KBFI) zajmują się oceną wzajemnych interakcji nanocząsteczek i środowiska.

Nanocząsteczki tlenku cynku (ZnO) można znaleźć między innymi w farbach i kosmetykach, a nanocząsteczki tlenku miedzi (CuO) obecne są w ogniwach fotowoltaicznych, czujnikach gazu i innych powszechnie dostępnych produktach. Zachodzi więc coraz poważniejsze ryzyko, że nanocząsteczki tych związków chemicznych mogą doprowadzić na przykład do skażenia wód.

Estońskim naukowcom udało się ustalić, że wody naturalne cechuje zaskakujący potencjał ograniczania toksycznego wpływu nanocząsteczek CuO na żyjące w nich skorupiaki (nie dotyczy to jednak nanocząsteczek ZnO), zależny przede wszystkim od stężenia w wodzie rozpuszczonego węgla organicznego. Toksyczność związana była głównie z obecnością w wodzie jonów metali, a odnotowany spadek toksyczności był nawet ponad 140-krotny.

Priyanka Gajjar wraz ze współpracownikami z Utah State University również prowadzili badania nad nanocząsteczkami CuO i ZnO, ale zajmowali się tym razem poszukiwaniem odpowiedzi na pytanie, czy nanocząsteczki wspomnianych związków metali i nanocząsteczki srebra (Ag) mogą być niebezpieczne dla pożytecznych mikroorganizmów glebowych. Wiele z tych mikroorganizmów jest istotnych dla prawidłowego wzrostu roślin, a także bierze udział w biodegradacji zanieczyszczeń. Zarówno nanocząsteczki CuO, jak i  Ag okazały się zabójcze dla glebowych mikroorganizmów, podczas gdy nanocząsteczki ZnO powodowały zatrzymanie ich wzrostu i obniżenie zdolności reprodukcyjnych. Materiał sypki nie wykazywał właściwości toksycznych dla mikroorganizmów, co pozwoliło naukowcom wysnuć wniosek, że można by obniżyć toksyczność nanocząsteczek poprzez ich agregację, co sprawia, że cząstki stają się po prostu większe.

Nanocząsteczki srebra znalazły się w centrum zainteresowania, gdy dr Enda Cummis z irlandzkiego UCD Instutute of Food and Health uporządkował nanomateriały według stopnia związanego z nimi ryzyka dla środowiska i zdrowia ludzkiego. Dr Cummis utrzymuje, że stopień ryzyka ekotoksykologicznego związanego z wprowadzaniem nanocząsteczek Ag i TiO2 do wód powierzchniowych można oceniać jako umiarkowany do wysokiego. "Wykorzystaliśmy podejście oparte na szacowaniu poziomu ryzyka, by umożliwić porównanie pod tym względem różnych nonomateriałów. W związku z tym, że aktualnie dostępne wyniki badań nadal wzbudzają wiele wątpliwości, nie jest możliwe precyzyjne przewidywanie jakie stężenie nanoczasteczek w środowisku należy uznać za niebezpieczne, ale jesteśmy w stanie dokonać względnych porównań między ich poszczególnymi rodzajami. To ułatwia ustalanie priorytetów na podstawie analizy toksykologicznych i ekotoksykologicznych właściwości nanomateriałów i rozpoznawanie kluczowych luk w wynikach badań. Sądziliśmy dotychczas, że największe ryzyko wiąże się z ekspozycją na ewentualne nanocząsteczki rozpylone w powietrzu, ale udało się ustalić, że najwyższe ryzyko jest związane z wodami powierzchniowymi. Następnym krokiem jest uzupełnienie luk w wynikach badań."

Dr Anne Kahru z KBFI i dr Henri-Charles Dubourguier z francuskiego Institut Supérieur d'Agriculture w 2009 roku zidentyfikowali najbardziej niebezpieczne nanocząsteczki i grupy organizmów najbardziej wrażliwe na ich działanie. Dokonali tego na drodze przeglądu dostępnych doniesień naukowych pod kątem toksyczności nanocząsteczek dla poszczególnych gatunków, w tym bakterii, glonów, skorupiaków, nicieni, drożdży, orzęsków i ryb. Organizmy te stanowią najczęściej pierwsze ogniwa łańcucha pokarmowego. Do grupy ocenianych nanocząsteczek należały TiO2, CuO, MWCN, SWCNT (nanorurki), fullereny C60, ZnO i Ag. Dwie ostatnie nanocząsteczki zostały określone jako skrajnie toksyczne (L(E)C50<0.1mg/l), fullereny C60 i CuO jako w wysokim stopniu toksyczne (L(E)C50 0.1-1mg/l), SWCNT and MWCNT jako toksyczne (L(E)C50 1-10mg/l). Najniższą toksycznością, określaną jako szkodliwą, cechowały się nanocząsteczki TiO2 (L(E)C50 10-100mg/l). Naukowcy wnioskują w związku z tym, że ilościowe dane nanoekotoksykologiczne stanowią podstawę do niepokoju. Na odpowiedź czeka jeszcze wiele pytań związanych z konsekwencjami wprowadzania nanocząsteczek do środowiska, a mimo to kontynuujemy używanie wielu zawierających je  produktów.

[Tłum. C. O. Reless]

Źródło:
How do nanoparticles impact our environment and us?


Archiwum (starsze -> nowsze) [1] [2] [3] [4] [5] [6] [7] [8] [9] [10]
[11] [12] [13] [14] [15] [16] [17] [18] [19] [20]
[21] [22] [23] [24] [25] [26] [27] [28] [29] [30]
[31] [32] [33] [34] [35] [36] [37] [38] [39] [40]
[41] [42] [43] [44] [45] [46] [47] [48] [49] [50]
[51] [52] [53] [54] [55] [56] [57] [58] [59] [60]
[61] [62] [63] [64] [65] [66] [67] [68] [69] [70]
[71] [72] [73] [74] [75] [76] [77] [78] [79] [80]
[81] [82] [83] [84] [85] [86] [87] [88] [89] [90]
[91] [92] [93] [94] [95] [96] [97] [98] [99] [100]
:
 
 :
 
  OpenID
 Załóż sobie konto..
Wyszukaj

Wprowadzenie
Indeks artykułów
Książka: Racjonalista
Napisz do nas
Newsletter
Promocja Racjonalisty

Racjonalista w Facebooku
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365