Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
200.441.491 wizyt
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 331 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:

Złota myśl Racjonalisty:
Aby pokonać śmierć, homo sapiens zamyka oczy. Nie waży się rozwiązać problemu, woli go zamieść pod dywan. Śmierć dotyczy przecież śmiertelników, a wyznawca wierzy przecież naiwnie i uporczywie w swoją nieśmiertelność.
Nowinki i ciekawostki naukowe
Rok 2010
 Lipiec (23)
 Sierpień (23)
 Wrzesień (34)
 Październik (20)
 Listopad (24)
 Grudzień (17)
Rok 2011
 Styczeń (34)
 Luty (39)
 Marzec (43)
 Kwiecień (19)
 Maj (18)
 Czerwiec (17)
 Lipiec (19)
 Sierpień (30)
 Wrzesień (29)
 Październik (45)
 Listopad (35)
 Grudzień (24)
Rok 2012
 Styczeń (18)
 Luty (31)
 Marzec (34)
 Kwiecień (12)
 Maj (10)
 Czerwiec (11)
 Lipiec (12)
 Sierpień (9)
 Wrzesień (8)
 Październik (3)
 Listopad (11)
 Grudzień (4)
Rok 2013
 Styczeń (4)
 Luty (4)
 Marzec (0)
 Kwiecień (0)
 Maj (6)
 Czerwiec (0)
 Lipiec (5)
 Sierpień (4)
 Wrzesień (3)
 Październik (3)
 Listopad (3)
 Grudzień (20)
Rok 2014
 Styczeń (32)
 Luty (53)
 Marzec (38)
 Kwiecień (23)
 Maj (45)
 Czerwiec (46)
 Lipiec (36)
 Sierpień (26)
 Wrzesień (20)
 Październik (24)
 Listopad (32)
 Grudzień (13)
Rok 2015
 Styczeń (16)
 Luty (13)
 Marzec (8)
 Kwiecień (13)
 Maj (18)
 Czerwiec (11)
 Lipiec (16)
 Sierpień (13)
 Wrzesień (10)
 Październik (9)
 Listopad (12)
 Grudzień (13)
Rok 2016
 Styczeń (20)
 Luty (11)
 Marzec (3)
 Kwiecień (3)
 Maj (5)
 Czerwiec (2)
 Lipiec (1)
 Sierpień (7)
 Wrzesień (6)
 Październik (3)
 Listopad (5)
 Grudzień (8)
Rok 2017
 Styczeń (5)
 Luty (2)
 Marzec (10)
 Kwiecień (11)
 Maj (11)
 Czerwiec (1)
 Lipiec (8)
 Sierpień (5)
 Wrzesień (8)
 Październik (3)
 Listopad (3)
 Grudzień (3)
Rok 2018
 Styczeń (2)
 Luty (1)
 Marzec (7)
 Kwiecień (9)
 Maj (6)
 Czerwiec (5)
 Lipiec (4)
 Sierpień (0)
 Wrzesień (3)
 Październik (0)
 Listopad (0)
 Grudzień (11)
Rok 2019
 Styczeń (3)
 Luty (0)
 Marzec (1)
 Kwiecień (1)
 Maj (0)
 Czerwiec (0)
 Lipiec (2)
 Sierpień (8)
 Wrzesień (1)
 Październik (5)
 Listopad (3)
 Grudzień (5)
Rok 2020
 Styczeń (7)
 Luty (1)
 Marzec (1)
 Kwiecień (3)
 Maj (4)
 Czerwiec (1)
 Lipiec (3)
 Sierpień (1)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (3)
Rok 2021
 Styczeń (3)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (3)
 Październik (2)
 Listopad (0)
 Grudzień (0)
Rok 2022
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2023
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2024
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
Archiwum nowinek naukowych
Różności
Naukowe doskonalenie chleba (30-01-2012)

sxc.huZ całą pewnością można powiedzieć, że Europejczycy przepadają za chlebem. Niezależnie od tego, czy jest to ciemny, niemiecki pumpernikiel czy francuska bagietka, mieszkańcy Europy z apetytem spożywają tę bogatą w skrobię żywność. Zespół naukowców z Politechniki w Kownie na Litwie jest przekonany, że Europejczycy obecnie samodzielnie wypiekają chleb lub kupują go w pobliskich piekarniach. Wyniki stanowią dorobek projektu FERMFOOD (Produkty sfermentowane przez bakterie kwasu mlekowego, aktywne przeciwdrobnoustrojowo, w produkcji chleba), który uzyskał wsparcie z europejskiej platformy badań naukowych i rozwoju (B+R) EUREKA.

Profesor Grazina Juodeikiene z Politechniki w Kownie sugeruje, że ludzie poszukują teraz smaku i konsystencji, których brakuje w produktach większości piekarni przemysłowych. Według profesor Juodeikiene wyniki badań mogą dostarczyć sposobów na utrzymanie smaku chleba, którego pragną konsumenci przy bezpiecznym wydłużeniu okresu przechowywania.

W czasie wizyty na Litwie przedstawicieli zagranicznego przedsiębiorstwa, którzy mieli nauczyć lokalnych piekarzy jak wypiekać różne rodzaje chleba, profesor Juodeikiene postanowiła sprawdzić, w jaki sposób można zapewnić zarówno wspaniały smak chleba, jak i jego trwałość. "Smakował doskonale, ale na następny dzień nadawał się do gry w baseball" - stwierdziła. "Moim zamiarem było opracować chleb spełniający to, co nazywam wielką piątką: dłuższy okres przechowywania, lepszy smak, lepsza konsystencja, więcej błonnika i mniej dodatków."

W toku badań uzyskano interesujące wyniki, w tym sposoby na sprostanie wymaganiom dzisiejszych konsumentów, czerpiąc ze starych technik wypieku chleba. Litwini, obok Estończyków i Łotyszy, jadają chleb na zakwasie, zaczyniany naturalną metodą, datującą się wedle niektórych ekspertów na czasy starożytnego Egiptu.

Większość nacji zastąpiła technikę zaczyniania przetworzonymi przemysłowo drożdżami i dodatkami. Chleb na zakwasie nadal stanowi jednak podstawowe pożywienie w krajach bałtyckich i innych częściach świata. Podstawowym składnikiem zaczynu jest zakwas mleczarski z mąki i wody, który fermentuje po dodaniu kultury bakterii kwasu mlekowego - lactobacillus. Zaczyn jest tym, co nadaje ciastu lekkości. Piekarze karmią i utrzymują tę żywą kulturę, aby wykorzystać ją do wypieku kolejnych bochenków.

Litewscy piekarze korzystają z zaczynów produkowanych za granicą. Profesor Juodeikiene stwierdziła, że czas najwyższy, aby Litwini wypracowali swój własny zaczyn. Na potrzeby badań zespół FERMFOOD zebrał próbki kultur lactobacillus z piekarni z całej Litwy.

Naukowcy z Estonii, Litwy i Łotwy przeanalizowali różne postaci tych kultur. Zbadali, które czynniki wpływają na chleb na zakwasie i moment, kiedy zaczyna pleśnieć. Konsystencja chleba była testowana za pomocą zaawansowanego sprzętu. Dzięki falom akustycznym zespół był w stanie powtórzyć testy na tej samej kromce chleba, ponieważ nie rozpadała się na drobne kawałki.

Zespół opracował wydajniejsze kultury do produkcji lepiej przechowującego się chleba, którego niektóre bochenki przetrwały przez trzy tygodnie, pozostając wolne od pleśni.

Przedstawiciele zagranicznych rządów już wyrazili swoje zainteresowanie wynikami projektu FERMFOOD. Ambasada Japonii w Wilnie wystąpiła z prośbą o informacje dotyczące rezultatów tej techniki produkcji chleba.

"Kolejne wielkie wyzwanie to wyżywienie rosnącej populacji na świecie" - zauważa profesor Juodeikiene. "Nie mamy innego wyjścia jak intensyfikacja produkcji roślin uprawnych. Interesujące w projekcie FRMFOOD były jego strona praktyczna i fakt, że widzę przyszłość dla tych badań."

Źródło: Cordis, UE

Medycyna
Biochemiczna sygnatura może posłużyć do przewidywania postępu Alzheimera (29-01-2012)

sc.huNaukowcy z Finlandii odkryli, że biochemiczna sygnatura może potencjalnie posłużyć do przewidywania postępu choroby Alzheimera. Badania zostały dofinansowane z projektu PREDICTAD (Od danych pacjenta po zindywidualizowaną opiekę zdrowotną w chorobie Alzheimera), który otrzymał niemal 2,9 mln EUR z tematu "Technologie informacyjne i komunikacyjne" (TIK) Siódmego Programu Ramowego (7PR). Wyniki sugerują, że zaburzenie neurologiczne, o którym mowa, jest poprzedzane sygnaturą molekularną wskazującą na niedotlenienie narządów i tkanek oraz na upregulację szlaku pentozofosforanowego. Wyniki badań opublikowane w czasopiśmie Translational Psychiatry mogą pomóc w opracowaniu metod wczesnego wykrywania choroby.

Naukowcy, pracujący pod kierunkiem profesora Mateja Oresica z Centrum Badań Technicznych VTT, twierdzą, że można poddać próbkę serum prostemu testowi biochemicznemu miesiące a nawet lata przed pojawieniem się pierwszych objawów choroby Alzheimera, aby przeanalizować ten wskaźnik. Tego typu test w kontekście medycznym pomaga lekarzom w neurokognitywnej analizie i może również służyć do identyfikacji pacjentów o podwyższonym ryzyku zapadnięcia na tę chorobę, którzy potrzebują dalszej, kompleksowej obserwacji.

Systemy opieki zdrowotnej krajów zachodnich podejmują wiele działań, aby pokonać chorobę Alzheimera, która stanowi coraz większy problem dla milionów pacjentów, u których zdiagnozowano tę chorobę. Eksperci twierdzą, że rok rocznie pojawia się coraz więcej nowych przypadków wraz ze starzeniem się populacji.

Należy zauważyć, że choroba Alzheimera rozwija się stopniowo, wraz ze stadium przedklinicznym, które może rozciągać się na wiele dekad. Eksperci twierdzą, że stadium poprzedzające demencję, nazywane również "łagodnymi zaburzeniami funkcji poznawczych" (MCI) charakteryzuje się subtelnymi objawami, które mogą potencjalnie wpłynąć na złożone zajęcia dnia codziennego. Uważa się, że MCI stanowi fazę przejściową miedzy normalnym starzeniem się a chorobą Alzheimera. Zdaniem naukowców, istnieje wyższe zagrożenie zapadnięciem na chorobę Alzheimera w przypadku obecności MCI. Niemniej ten heterogeniczny stan ma wiele następstw, w tym powrót normalnych funkcji poznawczych.

Analiza zmian i procesów molekularnych definiujących pacjentów z MCI zagrożonych zapadnięciem na chorobę Alzheimera znajdowała się pośród priorytetów badawczych. Naukowcy wykorzystali metabolomikę, wysokowydajną metodę wykrywania małych metabolitów, aby wygenerować profile metabolitów serum powiązanych z postępem choroby Alzheimera. Zidentyfikowali, u których pacjentów ze stwierdzonym MCI, jako punktem odniesienia, rozwinęła się choroba Alzheimera. Określili również z maksymalną dokładnością sygnaturę molekularną, która umożliwia identyfikację takich pacjentów w początkowej fazie.

Chociaż obecnie nie ma terapii profilaktycznej chroniącej przed chorobą Alzheimera, wczesne wykrycie ma istotne znaczenie zarówno dla opóźnienia jej początku - dzięki leczeniu farmakologicznemu i/lub zmianom w trybie życia pacjenta - jak i dla oceny skuteczności potencjalnych czynników terapeutycznych w chorobie Alzheimera.

Referencje dokumentu: Oresic, M., et al., 'Metabolome in progression to Alzheimer's disease', Translational Psychiatry, 2011. Publikacja internetowa z dnia 13 grudnia. DOI: 10.1038/tp.2011.55

Źródło: Cordis, UE

Technika
Jak utrzymać konkurencyjność Europy w dziedzinie łączności bezprzewodowej? (28-01-2012)

Od czasów opracowania standardu GSM Europa jest liderem w dziedzinie telefonii komórkowej i łączności bezprzewodowej. Jednak europejskie środowiska akademickie i przemysłowe nie mogą sobie pozwolić na spoczęcie na laurach. W celu utrzymania europejskiej przewagi rynkowej, finansowani przez UE badacze opracowują technologie sięgające znacznie dalej niż przyszła generacja telefonii komórkowej oraz łączności bezprzewodowej...

"W dziedzinie łączności komórkowej i bezprzewodowej europejski przemysł ma do czynienia z sytuacją w rodzaju kury i jajka", twierdzi Marco Luise, profesor telekomunikacji na Uniwersytecie w Pizie, we Włoszech. "Przedsiębiorstwa zainwestowały dużo czasu, pieniędzy i wysiłku w stworzenie oprogramowania i technologii, które można szybko wdrożyć na rynek, w celu czerpania korzyści ekonomicznych. Jednak powyższe, krótkoterminowe działania realizowano zamiast fundamentalnych, długoterminowych badań naukowych: w efekcie nastąpił zahamowanie innowacji."

Mniej innowacyjne produkty i technologie - począwszy od smartfonów i innych urządzeń przenośnych, aż po protokoły transmisji bezprzewodowej oraz systemy transmisji danych - oznaczają, że Europa staje przed widmem utraty przewagi konkurencyjnej, wraz z pojawianiem się nowych produktów i technologii, opracowywanych zwłaszcza w Azji.

"To równia pochyła, z której trudno się wydostać, gdy się już na niej znajdzie", tłumaczy prof. Luise.

Jednak ostatnio europejscy naukowcy podjęli działania mające na celu zahamowanie powyższego procesu. Przez ponad trzy lata 18 uniwersytetów i instytutów badawczych w 14 krajach współpracowało w zakresie fundamentalnych badań naukowych, w ramach "Sieci doskonałości ds. łączności bezprzewodowej" ('Network of excellence in wireless communications' - http://www.newcom-project.eu/ (Newcom++)).

Przełomowe technologie, sięgające dalej niż 4G

Wśród licznych, przełomowych rozwiązań technologicznych, które pojawią się dzięki sieci doskonałości, jest nowa klasa kodów transmisyjnych, służących do niezawodnego przesyłania danych za pośrednictwem sieci bezprzewodowych. Uważa się, że kody te, zwane "kodami polarnymi" ('Polar Codes'), pozwolą znacznie zwiększyć przepustowość łaczy, umożliwiając urządzeniom przenośnym radykalne podwyższenie prędkość transmisji danych i że są to pierwsze bardzo wydajne kody, które można skutecznie dekodować. Opracowane przez Erdala Arıkana, z Uniwersytetu Bilkent w Turcji (będącego jednym z partnerów projektu Newcom++), kody polarne zapewniły ich twórcy nagrodę dla najlepszego artykułu naukowego, przyznawaną przez Stowarzyszenie ds. Teorii Informacji ('Information Theory Society').

"Kluczowym elementem jest przepustowość: jeśli obecnie posiadasz łącze internetowe o przepustowości jeden megabit (Mb), jutro będziesz pragnął posiadać łącze 10Mb, a następnego dnia łącze 100Mb", tłumaczy prof. Luise. "W związku z powyższym bardzo ważne są technologie, które pozwalają lepiej wykorzystywać dostępną przepustowość i dostępne kanały transmisyjne".

Uczestnicy projektu pracowali nad szeregiem technologii, które są znacznie bardziej zaawansowane niż dostępne obecnie rozwiązania z zakresu łączności bezprzewodowej i telefonii komórkowej. Przykładowo, naukowcy uczestniczący w projekcie Newcom++, pracujący na co dzień na Politechnice w Turynie (Włochy), pracowali nad zaawansowanymi algorytmami dekodującymi, przeznaczonymi dla technologii wielu wejść i wielu wyjść ('multiple-input'/'multiple-output' - MIMO), w której zarówno urządzenia nadawcze, jak i odbiorcze wyposażone są w kilka anten, co pozwala usprawnić komunikację.

Nowe smartfony, wspierające standard 4G LTE, wykorzystują już technologię MIMO, jednak naukowcy uczestniczący w projekcie Newcom++ opracowali techniki pozwalające w niedrogi sposób zwiększyć wydajność systemów, w których stosowanych jest wiele anten. Pozostałe prace projektowe skupiono wokół tak zwanej komunikacji kooperacyjnej, w ramach której możliwa jest bezpośrednia kooperacja pomiędzy urządzeniami przenośnymi, mająca na celu uzyskanie połączenia ze stacją bazową - takie rozwiązanie pozwala nie tylko zwiększyć zasięg, ale także podnieść prędkość transmisji.

Newcom++, będąca zakrojoną na szeroką skalę, wspólną inicjatywą wspartą przez Komisję Europejską kwotą prawie 5 milionów euro, stanowi kontynuację wcześniejszego projektu o nazwie Newcom, w ramach którego zasiano ziarno współpracy w dziedzinie łączności bezprzewodowej oraz telefonii komórkowej pomiędzy europejskimi naukowcami.

Uczestnicy projektu pomagali także szkolić młodych naukowców zainteresowanych powyższą dziedziną, stworzyli internetową platformę współpracy oraz bazę danych, umożliwiające współdzielenie wiedzy, a także opracowali szereg książek i publikacji, w których zamieszczono dogłębną analizę przyszłych potrzeb, wyzwań i potencjalnych rozwiązań. Szacuje się, że w najbliższych latach powyższe prace odegrają kluczową rolę w oferowaniu tańszego, szybszego oraz bardziej bezpiecznego, bezprzewodowego dostępu do internetu, zwiększając jednocześnie pojemność, zasięg oraz funkcjonalność sieci komórkowych.

"Technologie, które opracowaliśmy sięgają dalej niż standard 4G LTE ("długoterminowa ewolucja" - 'Long Term Evolution'), który obecnie wdrażany jest przez operatorów telefonii komórkowej... nie są to technologie przyszłej generacji, ale raczej technologie "po-przyszłej-generacji", tłumaczy prof. Luise, kierownik techniczny projektu Newcom++. "Mamy nadzieję, że prace nad powyższymi technologiami pozwolą Europie odzyskać pozycję lidera w dziedzinie łączności bezprzewodowej i komórkowej". "Znaczna część prowadzonych badań - dotycząca na przykład pojemności, przepustowości, lokalizacji oraz bezpieczeństwa - może być przydatna w kontekście smartfonów nowej generacji (po 4G), jednak część badań sięga znacznie dalej, dotykając nawet abstrakcyjnych zagadnień, takich jak teoria informacji", zauważa prof. Luise.

Kształcenie nowego pokolenia naukowców

Długoterminowe podejście zespołu uczestniczącego w projekcie Newcom++ było szczególnie widoczne w przypadku innego, kluczowego aspektu prac: szkolenia młodych naukowców w dziedzinie łączności komórkowej i bezprzewodowej. W ramach sieci współpracy, formalnie istniejącej przez trzy i pół roku, zorganizowano szereg szkół letnich i zimowych w różnych europejskich miastach. W ramach każdej z tych szkół około 40-50 studentów miało możliwość czerpania wiedzy bezpośrednio od wiodących naukowców z branży.

"Jeżeli chcemy, by Europa pozostała w dłuższej perspektywie liderem w dziedzinie technologii łączności, musimy zagwarantować dopływ nowych naukowców i nowych pomysłów, dzięki którym rozwija się innowacja", mówi prof. Luise.

Wielu naukowców, zaangażowanych w sieć doskonałości, nadal wykorzystuje internetową platformę współpracy, zwaną "Wirtualnym centrum doskonałości w dziedzinie łączności bezprzewodowej" ('Virtual center of excellence on wireless communications' - ViCE-WiCom), którą stworzyli uczestnicy projektu, w celu usprawnienia wymiany informacji oraz współpracy pomiędzy uniwersytetami i instytutami badawczymi. Powyższą platformę wykorzystano także do nauczania na odległość w ramach studiów doktoranckich.

Inne namacalne wyniki kooperacyjnego podejścia do badań naukowych, obranego przez uczestników projektu Newcom++, to dwie książki, zatytułowane 'The NEWCOM++ Vision Book: Perspectives of Research on Wireless Communications in Europe' oraz 'Satellite and Terrestrial Radio Positioning Techniques,' które zostały opracowane przez zespoły uczestniczące w projekcie.

Uczestnicy projektu stworzyli ponadto organizację non-profit, której centrala znajduje się w Belgii, zwaną Europejskim Stowarzyszeniem ds. Łączności oraz Sieci ('European Association for Communications and Networking' - Euracon), skupiającą się głównie na zagadnieniach związanych z kształceniem, szkoleniem oraz organizowaniem wydarzeń w dziedzinie łączności komórkowej i bezprzewodowej.

Planowane jest także rozpoczęcie projektu, będącego kontynuacją prac zrealizowanych w ramach inicjatywy Newcom++, którego głównym elementem będzie stworzenie sieci europejskich laboratoriów, w których rozwijane będą technologie bezprzewodowe.

Projekt Newcom++ uzyskał wsparcie finansowe w ramach Siódmego Programu Ramowego UE (7PR).

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Genetyka
Obiecujący sposób na zwiększenie światowej produkcji żywności (28-01-2012)

Finansowani ze środków unijnych brytyjscy i francuscy naukowcy zidentyfikowali "odżywczy gen" odpowiedzialny za transport substancji odżywczych z rośliny do nasion. Nowe odkrycie, zaprezentowane w czasopiśmie Current Biology, może pomóc w zwiększeniu światowej produkcji żywności i nie pozostaje bez znaczenia również dla bezpieczeństwa żywności.

Po raz pierwszy naukowcom udało się zidentyfikować gen o nazwie Meg1, który reguluje optymalną ilość substancji odżywczych przechodzących z rośliny macierzystej kukurydzy do potomnych.

Badania zostały dofinansowane przez Komisję Europejską z budżetu działania "Wykorzystanie reprodukcji w celu doskonalenia roślin uprawnych" domeny Żywność i Rolnictwo w ramach Europejskiego Programu Współpracy w Dziedzinie Badań Naukowo-Technicznych (COST). Program COST, którego zadanie polega na koordynacji krajowych programów badawczych na szczeblu europejskim, korzysta ze wsparcia Dyrekcji Generalnej ds. Badań Naukowych i Innowacji. Głównym celem jest redukcja rozdrobnienia inwestycji w europejskie badania naukowe oraz otwarcie Europejskiej Przestrzeni Badawczej (ERA) na światową współpracę.

Ekspresja genu Meg1, w odróżnieniu od większości genów, których ekspresja ma miejsce zarówno na chromosomach matczynych, jak i ojcowskich, zachodzi wyłącznie na chromosomach matczynych. Ta niezwykła forma ekspresji genów jednego rodzica, zwana imprintingiem, nie ogranicza się do roślin. Dotyczy również niektórych genów człowieka, o których wiadomo, że regulują kształtowanie się łożyska w celu sterowania zaopatrzeniem rozwijającego się płodu w matczyne substancje odżywcze.

Chociaż naukowcy wiedzą od pewnego czasu o istnieniu takich genów z rodzicielskim piętnem genomowym u ludzi i innych ssaków, po raz pierwszy zidentyfikowano w królestwie roślin gen równoległy, który reguluje zaopatrzenie rozwijających się nasion w substancje odżywcze.

Wyniki tych nowych badań oznaczają, że naukowcy mogą skupić się teraz na wykorzystaniu tego genu i poznawaniu mechanizmu jego ekspresji, aby uzyskać większe nasiona i podnieść wydajność ważnych roślin uprawnych.

Jeden z autorów raportu z badań, dr Jose Gutierrez-Marcos z Uniwersytetu w Warwick, powiedział: "Odkrycia mają istotne znaczenie dla światowego rolnictwa i bezpieczeństwa żywności, bowiem naukowcy dysponują obecnie specjalistyczną wiedzą molekularną, by manipulować tym genem w tradycyjnej uprawie roślin lub z wykorzystaniem innych metod w celu poprawy cech nasion, np. zwiększenie uzysku biomasy nasion. Poznanie rozwoju nasion kukurydzy i innych zbóż - na przykład ryżu czy pszenicy - ma istotne znaczenie, gdyż stanowią one podstawowe pożywienie ludzi na całym świecie. Aby zaspokoić zapotrzebowanie rosnącej populacji na świecie w nadchodzących latach, naukowcy i hodowcy muszą połączyć swe siły w celu zabezpieczenia i zwiększenia produkcji rolnej."

Kolejny autor raportu, profesor Hugh Dickinson z Uniwersytetu Oksfordzkiego zauważa: "Podczas gdy identyfikacja MEG1 sama w sobie jest ważnym odkryciem, stanowi również prawdziwy przełom w odkrywaniu złożonych ścieżek genów, które regulują zaopatrzenie nasion w substancje odżywcze i ich zawartość w nasionach."

Chociaż najbardziej pożądane cechy roślin uprawnych są poligeniczne, nie ma żadnego narzędzia hodowlanego, które umożliwiłoby skuteczne utrwalenie cech wielogenowych w kolejnych pokoleniach. Pośród kilku reprodukcyjnych strategii utrwalania pożądanych systemowych cech agronomicznych, jednym z najlepszych wyborów jest produkcja nasion klonowanych. Umożliwia ona natychmiastowe utrwalenie całego genomu najlepszych roślin.

Nadrzędnym celem programu COST jest umożliwienie synergii wzajemnie powiązanej, europejskiej i międzynarodowej, wiedzy eksperckiej, aby lepiej poznać mechanizmy płciowej/apomiktycznej reprodukcji roślin i ułatwić wykorzystanie tej pogłębionej wiedzy w opracowywaniu nowych podejść w rolnictwie i przemyśle spożywczym w celu podniesienia wydajności roślin uprawnych.

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Costa, L. M. et al., 'Maternal Control of Nutrient Allocation in Plant Seeds by Genomic Imprinting', Current Biology, 2012. DOI: 10.1016/j.cub.2011.11.059

Fizyka
Schładzanie laserowe membran półprzewodnikowych otwiera drogę do informatyki kwantowej (28-01-2012)

Dzięki innowacyjnemu połączeniu dwóch dziedzin badawczych - fizyki kwantowej i nanofizyki - finansowani ze środków unijnych duńscy naukowcy odkryli nową metodę laserowego schładzania membran półprzewodnikowych. Półprzewodniki są podstawowymi komponentami wielu urządzeń elektronicznych, takich jak ogniwa słoneczne i diody elektroluminescencyjne (LED), dlatego możliwości ich schładzania mają istotne znaczenie dla przyszłego rozwoju komputerów kwantowych i ultraczułych czujników.

Choć nazwano ją metodą schładzania, technika wykorzystywana przez fizyków działa na dokładnie odwrotnej zasadzie - ogrzewania materiału. W artykule opublikowanym w czasopiśmie Nature Physics, zespół z Instytutu Nielsa Bohra przy Uniwersytecie w Kopenhadze w Danii, objaśnia, jak opracował lasery zdolne do schłodzenia wahań membran do minus 269 stopni Celsjusza.

Badania otrzymały wsparcie w kwocie 4.700.000 EUR w ramach projektu Q-ESSENCE (Interfejsy, czujniki i komunikacja kwantowa oparte na splątaniu), dofinansowanego z tematu TIK (Technologie informacyjne i komunikacyjne) Siódmego Programu Ramowego (7PR) UE.

Autor naczelny raportu z badań, Koji Usami, wyjaśnia: "W toku doświadczeń udało nam się wypracować nowy i skuteczny sposób chłodzenia materiału stałego za pomocą laserów. Wyprodukowaliśmy membranę półprzewodnikową o grubości 160 nanometrów i bezprecedensowej powierzchni 1 na 1 milimetr. W czasie doświadczeń pozwoliliśmy membranie wchodzić w interakcje ze światłem lasera, tak aby jej ruchy mechaniczne wpływały na skierowane na nią światło. Skrupulatnie przeanalizowaliśmy parametry fizyczne i odkryliśmy, że pewien tryb oscylacji membrany uległ schłodzeniu z temperatury pokojowej do minus 269 stopni Celsjusza, co było wynikiem złożonej i fascynującej wzajemnej zależności między ruchem membrany, właściwościami półprzewodnika i rezonansami optycznymi."

Duński zespół od dawna doskonali chłodzenie laserowe w technice atomowej i schłodził już wcześniej chmury gazowe atomów cezu niemal do zera bezwzględnego, czyli minus 273 stopnie Celsjusza, za pomocą laserów zogniskowanych. Naukowcom udało się wygenerować splątanie między dwoma systemami atomowymi. Dzieje się tak, kiedy spin atomu zostaje splątany, a dwie chmury gazowe formują wiązanie oparte na mechanice kwantowej. Za pomocą optycznych technik kwantowych naukowcy zmierzyli wahania kwantowe spinu atomu. "Od pewnego czasu chcieliśmy sprawdzić, na ile można poszerzyć granice mechaniki kwantowej - czy dotyczy ona również materiałów makroskopowych? To oznaczałoby całkowicie nowe możliwości w tak zwanej optomechanice, czyli interakcji między promieniowaniem optycznym, tj. światłem, a ruchem mechanicznym" - wyjaśnia kolejny autor raportu, profesor Eugene Polzik.

Niemniej zanim naukowcy mogli przekonać się, czy ich teorie sprawdzają się w praktyce, musieli sprawdzić, czy dysponują odpowiednimi materiałami do tego zadania.

Wszystko zaczęło się w 2009 r., kiedy jeden z członków zespołu badawczego, Peter Lodahl, wygłosił wykład w Instytucie Nielsa Bohra: zaprezentował specjalną, fotoniczną membranę krystaliczną, wykonaną z półprzewodnikowego materiału - arsenku galu (GaAs). Po wysłuchaniu wykładu, profesor Polzik od razu pomyślał, że ta nanomembrana może posiadać wiele korzystnych właściwości elektronicznych i optycznych. Zasugerował wykorzystanie tego typu membrany w doświadczeniach optomechanicznych i po roku eksperymentowania z różnymi rozmiarami zespołowi udało się znaleźć ten odpowiedni.

Naukowcy stworzyli nanomembranę o grubości zaledwie 160 nanometrów i powierzchni powyżej 1 milimetra kwadratowego.

W ramach doświadczenia skierowali światło lasera na nanomembranę w komorze próżniowej. Kiedy światło lasera dotarło do membrany półprzewodnikowej, część światła została odbita, by następnie odbić się ponownie od zwierciadła, przez co światło poruszało się w tej przestrzeni tam i z powrotem, tworząc rezonator optyczny. Część światła została pochłonięta przez membranę i uwolniła wolne elektrony. Elektrony rozpadły się, ogrzewając tym samym membranę, co wywołało rozszerzanie termiczne. W ten sposób odległość między membraną a zwierciadłem stale się zmieniała w postaci wahań.

Jak wyjaśnia dalej Koji Usami: "Zmiana odległości między membraną a zwierciadłem prowadzi do złożonej i fascynującej wzajemnej zależności między ruchem membrany, właściwościami półprzewodnika i rezonansami optycznymi, dając możliwość kontrolowania systemu, aby obniżać temperaturę wahań membrany. To nowy mechanizm optomechaniczny, który ma kluczowe znaczenie dla nowego odkrycia. Paradoks polega na tym, że mimo nieznacznego ocieplania się membrany jako całości, ulega ona schłodzeniu przy pewnym wahaniu, a schładzanie to może być kontrolowane za pomocą światła lasera. A zatem mamy do czynienia ze schładzaniem się przez ocieplanie! Udało nam się schłodzić wahania membrany do minus 269 stopni Celsjusza."

Odkrycia mogą doprowadzić do opracowania komponentów schładzających do komputerów kwantowych. Komputer kwantowy to urządzenie obliczeniowe, które bezpośrednio wykorzystuje zjawiska mechaniki kwantowej, takie jak superpozycja i splątanie, do wykonywania operacji na danych.

Główne cele projektu Q-ESSENCE to opracowanie interfejsów kwantowych umożliwiających wysokiej wierności mapowanie informacji kwantowych między różnymi systemami kwantowymi, wygenerowanie splątania kwantowego w nowych skalach i na nowe odległości jako sposób na przenoszenie zadań informacji kwantowych oraz inżynieria wieloczęściowego splątania w specyficznych topologiach systemów podstawowych.

Projekt wspiera również naukowców z Australii, Austrii, Hiszpanii, Holandii, Niemiec, Polski, Słowacji, Szwajcarii, Wlk. Brytanii i Włoch. Jego realizację przewidziano do 2013 r. i ma on stworzyć nowe możliwości w kwantowych technologiach informacyjnych, które będzie można przekształcić w realistyczne i kompletne systemy do wykonywania zadań TIK.

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Usami, K. et al., 'Optical cavity cooling of mechanical modes of a semiconductor nanomembrane', Nature Physics, 2012. doi:10.1038/nphys2196

Antropologia
Wpływ europejskiego podboju na rdzennych Amerykanów (24-01-2012)

Naukowcy z Niemiec i USA sugerują, że europejski podbój doprowadził do utraty ponad połowy populacji rdzennych Amerykanów. Wyniki badań rzucają nowe światło na schyłek autochtonicznej ludności. Eksperci przyznają, że kiedy Europejczycy po raz pierwszy pojawili się w Amerykach, rdzenni Amerykanie umierali na skutek toczonych walk lub z powodu chorób. Pytanie, jakiemu poświęcone były badania, dotyczy oddziaływania podboju na całą populację. Szeroko zakrojona analiza genetyczna wykazała przejściowe skurczenie się populacji o około 50%, które miało miejsce mniej więcej 500 lat temu. Odkrycia te potwierdzają dane historyczne, które wskazują, że europejscy osadnicy wywarli wpływ na ludność Ameryki Północnej i Południowej: choroby, wojny, głód i niewolnictwo odegrały tu swoją rolę. Wyniki badań zostały zaprezentowane w czasopiśmie Proceedings of the National Academy of Sciences (PNAS).

Na podstawie kwasu dezoksyrybonukleinowego (DNA) rdzennych Amerykanek z Ameryki Północnej i Południowej, tandem z Uniwersytetu w Getyndze w Niemczech i Uniwersytetu Waszyngtońskiego w USA sporządził drzewo genealogiczne współczesnych i dawnych ludów autochtonicznych.

W sumie przeanalizowano 137 genomów mitochondrialnych i 63 stare subsekwencje tego genomu. Naukowcy podkreślają, że genom mitochondrialny jest dziedziczony po matce. Zaawansowane metody bioinformatyczne wykazały, że rdzenna populacja amerykańska osiągnęła szczyt około 5.000 lat temu i utrzymywała się na stałym poziome przez tysiąclecia. Około 500 lat temu populacja skurczyła się o połowę.

"Straty nie ograniczały się do konkretnych regionów i były raczej rozproszone na obydwu amerykańskich kontynentach, a najpoważniejszy wpływ odczuły najgęściej zaludnione regiony" - stwierdza dr Lars Fehren-Schmitz z Uniwersytetu w Getyndze. Spadek nie trwał bardzo długo, bowiem autochtoniczna populacja zaczęła ponownie dosyć szybko rosnąć. "Wzrost nowej populacji sugeruje, że przyczynę spadku można przypisać jedynie szybko i krótko oddziałującym czynnikom, na przykład chorobom zawleczonym przez Europejczyków, w połączeniu ze starciami i głodem, a nie stuletnim procesom, jak zwykło się powszechnie zakładać" - dodał.

Zdaniem Brendana O'Fallona z Uniwersytetu Waszyngtońskiego: "Stwierdziliśmy rzeczywiście ogromny i gwałtowny spadek populacji wśród rdzennych Amerykanów około 500 lat temu. Czyli, rzecz jasna, dokładnie wtedy, kiedy po raz pierwszy pojawili się Europejczycy. To rodzaj nowej linii dowodów, które rzeczywiście, jak sądzę, potwierdzają to, co wiele osób wcześniej podejrzewało, a co być może nie zostało w tym zakresie udokumentowane."

"Zasadniczo rzecz w tym, że kiedy rozmiar populacji jest stosunkowo niewielki, wiele osób ma zwykle tych samych przodków mniej więcej w tym samym czasie. Im większe rozmiary populacji tym każdy musi dalej się cofnąć, by znaleźć wspólnego przodka. A zatem drzewo jest po prostu większe."

Tandem dokonał również przestrzennej rekonstrukcji historycznych trendów populacyjnych w Ameryce Północnej i Południowej, mapując szybkie rozprzestrzenianie się pierwszych ludzi osiedlających się na amerykańskiej ziemi wzdłuż wybrzeży i kontynentów. Od około 15.000 do 17.000 lat temu ludzie ci migrowali z Azji przez Cieśninę Beringa, która znajduje się obecnie poniżej poziomu morza. Niemniej zdaniem tandemu, populacja zaczęła znacząco się powiększać dopiero później, po zaaklimatyzowaniu się poszczególnych grup w nowym środowisku.

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: O'Fallon, B. D. and Fehren-Schmitz, L., 'Native Americans experienced a strong population bottleneck coincident with European contact', PNAS, 2011. DOI: 10.10373/pnas.1112563108

Ekologia
Przystosowywanie się do zmian klimatu przychodzi europejskim ptakom z trudem (24-01-2012)

Ptakom coraz trudniej jest przystosowywać się do ocieplającego się klimatu w Europie. To ostrzeżenie paneuropejskiej grupy naukowców wynikające z zakrojonych na szeroką skalę badań, których rezultaty zostały opublikowane w czasopiśmie Nature Climate Change.

Prace badawcze, które uzyskały wsparcie z czterech różnych projektów dofinansowywanych ze środków unijnych, zgromadziły naukowców z Czech, Finlandii, Francji, Hiszpanii, Holandii, Niemiec, Szwecji i Wlk. Brytanii.

Przez ostatnie dwie dekady klimat Europy stale się ocieplał, a zakresy temperatury przesunęły się na północ o 250 km, znacznie utrudniając życie ptaków i motyli, które dobrze się rozwijają w niskich temperaturach. Mimo to, jak pokazują wyniki badań, zbiorowiska ptaków i motyli nie przemieszczały się w takim samym tempie jak temperatury.

Na potrzeby badań ptaki podzielono na dwie grupy, w zależności od tego, czy dobrze się rozwijają w nieco "chłodniejszym" czy "cieplejszym" klimacie. Na przykład zięby zwyczajne i potrzosy są gatunkami "chłodniejszymi", a pokrzewki czarnołbiste i szczygły "cieplejszymi".

Badania zostały dofinansowane z unijnego projektu STEP (Status i trendy wśród europejskich owadów zapylających), który otrzymał grant w wysokości 3,5 mln EUR z tematu "Środowisko" Siódmego Programu Ramowego (7PR). Dofinansowanie pochodziło również z projektu CLIMIT (Oddziaływanie zmian klimatu na owady i ich łagodzenie), części sieci BiodivERsA2 ERA-Net, dofinansowanej na kwotę 2 mln EUR z tematu "Koordynacja" 7PR.

Prace badawcze otrzymały również wsparcie z dwóch projektów realizowanych w ramach Szóstego Programu Ramowego (6PR): ALARM (Ocena globalnych zagrożeń środowiska za pomocą sprawdzonych metod), który otrzymał 13 mln EUR z tematu "Zrównoważony rozwój, zmiany globalne i ekosystemy" oraz MACIS (Minimalizacja zmian klimatu i przystosowywanie się do nich - oddziaływanie na różnorodność biologiczną), który został dofinansowany na kwotę 900.000 EUR z tematu "Badania wspierające strategię".

Na podstawie analizy danych z 20 lat na temat ptaków, motyli i temperatur letnich zespół wywnioskował, że niektóre ptaki i motyle mają trudności z przystosowywaniem się w wystarczająco szybkim tempie do cieplejszego klimatu. W przypadku wielu z tych gatunków próby przeniesienia się dalej na północy zakończyły się w większości niepowodzeniem.

Jeden z autorów raportu z badań, profesor Åke Lindström z Uniwersytetu w Lund, Szwecja, zauważył: "Zarówno motyle, jak i ptaki reagują na zmiany klimatu, ale niewystarczająco szybko, aby nadążyć za postępującym ocieplaniem się. Nie wiemy, jakie mogą być długofalowe skutki ekologiczne takiego stanu rzeczy."

Motyle przystosowują się szybciej do zmieniających się temperatur, gdyż przemieściły się średnio 114 km na północ, podczas gdy ptaki jedynie 37 km. Naukowcy podejrzewają, że tę różnicę można przypisać krótszemu cyklowi życiowemu motyli, co ułatwia im szybsze przystosowywanie się do zmian klimatu. Ptaki lubią powracać z roku na rok na te same tereny lęgowe i są bardziej oporne w zmienianiu schematów swoich zachowań.

Jednakże ten dwupoziomowy proces adaptacji może przysporzyć ptakom problemów, bowiem jak wyjaśnia profesor Lindström: "Niepokojącym aspektem jest ewentualne niedotrzymanie kroku motylom przez ptaki, ponieważ gąsienice i owady stanowią na ogół ważne źródło pożywienia dla wielu ptaków."

Zespół był w stanie zmierzyć, dokąd przemieszczają się poszczególne ptaki, obserwując miejsca pojawiania się "chłodniejszych" i "cieplejszych" ptaków. Naukowcy określili ilościowo roczną zmianę w składzie zbiorowisk w odpowiedzi na zmiany klimatu w przypadku 9.490 zbiorowisk ptaków i 2.130 zbiorowisk motyli występujących w całej Europie.

"W ciągu ostatnich 50 lat głównymi czynnikami wypływającymi na liczbę i rozmieszczenie ptaków i motyli były rolnictwo, leśnictwo i urbanizacja. Obecnie zmiany klimatu jawią się jako coraz ważniejszy czynnik w rozwoju bioróżnorodności" - stwierdza profesor Lindström.

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Devictor, V. et al., 'Differences in the climatic debts of birds and butterflies at a continental scale', Nature Climate Change, 2012. DOI: 10.1038/nclimate1347

Chemia
Słoneczna alchemia: Fotokatalizatory oczyszczą wodę, pomogą odzyskać surowce (22-01-2012)

Brudną wodę można łatwo oczyścić i wydzielić z niej wartościowe substancje chemiczne, np. stosowane przy produkcji leków. Nie potrzeba w tym celu fabryk ani zakładów, wystarczy słońce i "magiczny" proszek. Sprawiająca wrażenie niemal alchemicznej, przemiana zachodzi dzięki fotokatalizatorom, nad którymi pracują naukowcy z Instytutu Chemii Fizycznej PAN w Warszawie.

Dr inż. Juan Carlos Colmenares z Instytutu Chemii Fizycznej PAN w
Warszawie przy aparaturze używanej w badaniach nad fotokatalizatorami. (Źródło: IChF PAN, Grzegorz Krzyżewski)
1. Dr inż. Juan Carlos Colmenares z Instytutu Chemii Fizycznej PAN w Warszawie przy aparaturze używanej w badaniach nad fotokatalizatorami. (Źródło: IChF PAN, Grzegorz Krzyżewski)

W wielu miejscach świata woda jest silnie zanieczyszczona związkami organicznymi z odpadów przemysłowych. Doświadczenia przeprowadzone w Instytucie Chemii Fizycznej PAN w Warszawie udowadniają, że biomasę tę można z powodzeniem przekształcać w użyteczne związki chemiczne i paliwo. Dzięki zastosowaniu odpowiednio dobranych fotokatalizatorów transformacja brudnej wody w czystą i wartościowe surowce chemiczne nie wymaga specjalistycznych instalacji i zachodzi w warunkach powszechnie występujących w przyrodzie.

Katalizator to substancja, które uczestnicząc w reakcji przyspiesza jej przebieg i całkowicie odtwarza się po jej zakończeniu. W typowych procesach katalizy aktywacja katalizatorów zachodzi w wysokich temperaturach, rzędu kilkuset stopni, często przy znacznie podwyższonym ciśnieniu.

"Fotokatalizatory, którymi się zajmujemy, są pod wieloma względami odmienne od tradycyjnych katalizatorów. Ich aktywacja następuje pod wpływem światła, sama temperatura nie ma tu większego wpływu", mówi dr inż. Juan Carlos Colmenares z IChF PAN. Reakcje z udziałem fotokatalizatorów zachodzą przy dobrym nasłonecznieniu, w temperaturze ok. 30 stopni Celsjusza i w zwykłym ciśnieniu atmosferycznym - a więc w warunkach występujących naturalnie przez cały rok w wielu krajach równikowych.

Badane w IChF PAN fotokatalizatory to substancje stałe, których podstawą jest dwutlenek tytanu TiO2. Katalizowana reakcja zachodzi w cieczy zawierającej zanieczyszczenia organiczne. Po zakończeniu reakcji katalizator można odseparować niemal bez strat i użyć ponownie.

"Moja praca przypomina trochę alchemię", żartuje Colmenares. "Biorę 'magiczny' proszek, wsypuję do brudnej wody, mieszam i wystawiam na słońce. Po paru godzinach mam czystą wodę plus substancje, z których można robić użyteczne rzeczy, na przykład leki".

Badania nad fotochemiczną degradacją zanieczyszczeń były prowadzone na świecie już w końcu lat 60. ubiegłego wieku. W wyniku intensywnego naświetlania promieniowaniem ultrafioletowym otrzymywano wtedy substancje chemiczne o prostej budowie.

W pracach prowadzonych w IChF PAN chodzi o taki dobór fotokatalizatorów i warunków reakcji, aby ta mogła przebiegać bez użycia specjalistycznej aparatury, a proces degradacji biomasy zatrzymywał się na precyzyjnie ustalonym etapie. Za pomocą fotokatalizy z udziałem dwutlenku tytanu badaczom udało się już wyprodukować kwasy karboksylowe, stosowane m.in. w farmacji i przemyśle spożywczym. Możliwe jest również spreparowanie fotokatalizatora w taki sposób, aby reakcja dobiegała do końca i powstawały substancje o najprostszej budowie, jak wodór czy dwutlenek węgla. Ostatni związek nie jest pożądany i wymagałyby zagospodarowania, wodór ma jednak doskonałe perspektywy jako paliwo przyszłości.

"W warunkach laboratoryjnych reakcje biomasy z udziałem fotokatalizatorów już teraz wyglądają obiecująco. W tym roku przystąpimy do pierwszych testów w pilotażowych fotoreaktorach biochemicznych Uniwersytetu w Kordobie w Hiszpanii. Reakcje będą tam przebiegały w cieczach o objętościach liczonych w dziesiątkach litrów", mówi Colmenares i zastrzega, że zanim nowa technologia będzie mogła się upowszechnić, trzeba przeprowadzić jeszcze wiele testów i badań.

Współautorkami pracy opublikowanej w czasopiśmie "Bioresource Technology", opisującej wykorzystanie fotokatalizatorów do degradacji glukozy i otrzymywania wartościowych związków chemicznych, są Agnieszka Magdziarz i zmarła pod koniec ubiegłego roku dr Anna Bielejewska. Badania były finansowane z międzynarodowego grantu reintegracyjnego Marii Skłodowskiej-Curie w ramach 7. Programu Ramowego Unii Europejskiej.

Medycyna
Cynk nie pokona malarii (20-01-2012)

Naukowcy z Holandii i Wlk. Brytanii odkryli niedawno, że suplementacja małych tanzańskich dzieci cynkiem, niezależnie od zastosowania samego cynku czy połączenia go ze zróżnicowanymi składnikami odżywczymi, nie zapewnia ochrony przed malarią. Wyniki badań zostały opublikowane w czasopiśmie PLoS Medicine.

Cynk odgrywa kluczową rolę w organizmie człowieka, gdyż pomaga utrzymać układ immunologiczny w dobrej kondycji i sprawności. Wcześniejsze badania sugerowały również, że cynk pomaga w łagodzeniu biegunki. Naukowcy z Gambii, Holandii, Tanzanii i Wlk. Brytanii postanowili zbadać, czy suplementacja cynkiem może pomóc w walce z malarią, zwłaszcza że niedobór cynku dotyka większość afrykańskich dzieci. Jeżeli suplementacja cynkiem byłaby wykonalna, to pomogłaby w obniżeniu liczby zgonów z powodu malarii w Afryce, na którą według danych Światowej Organizacji Zdrowia (WHO) przypada 91% takich przypadków.

WHO podaje również, iż w 2010 r. wedle szacunków z powodu malarii zmarło 655.000 osób, z których 86% to dzieci poniżej 5 roku życia.

Aczkolwiek dr Hans Verhoef z Uniwersytetu w Wageningen w Holandii i London School of Hygiene and Tropical Medicine w Wlk. Brytanii, we współpracy z kolegami, odkrył, że cynk nie ma wpływu na ochronę małych dzieci w Afryce przed malarią. W toku badań przeprowadzono cztery próby - w Burkinie Faso, Gambii, Papui Nowej Gwinei i w Peru - aby ustalić, czy cynk przynosi efekty.

Dzieci przypisano losowo do jednej z czterech grup: 1) cynk; 2) cynk i zróżnicowane składniki odżywcze; 3) zróżnicowane składniki odżywcze bez cynku; oraz 4) placebo. Spośród 1.029 dzieci zwerbowanych do badań, 612 w wieku od 6 miesięcy do 5 lat spełniło kryteria uczestnictwa. Codziennie podawano im doustnie suplementy zgodnie z przypisaniem do jednej z czterech grup.

Wyniki nie przyniosły dowodu na znaczący wpływ cynku ani samych składników odżywczych na zachorowalność na malarię w porównaniu do placebo, mimo obniżenia niedoboru cynku dzięki suplementacji cynkiem w czasie próby. W toku badań odkryto również, że suplementacja zróżnicowanymi składnikami odżywczymi mogła mieć niepożądany wpływ, zwiększając zagrożenie malarią dzieci cierpiących na niedobór żelaza. Zdaniem naukowców wskaźnik zachorowalności na malarię we wszystkich czterech grupach interwencyjnych był bardzo podobny i wyniósł mniej więcej trzy epizody rocznie.

"Mimo wysokiej prewalencji niedoboru cynku, doskonałego zdyscyplinowania i niewielkiej liczby osób, które odpadły w toku prac, próba nie przyniosła dowodów na to, że profilaktyczna suplementacja samym cynkiem albo w połączeniu ze zróżnicowanymi składnikami odżywczymi obniża wskaźnik malarycznych ataków gorączki" - czytamy w raporcie z badań. "Przedstawiliśmy dowody na to, że suplementacja zróżnicowanymi składnikami odżywczymi może zwiększać zagrożenie malarią w przypadku dzieci z niedoborem żelaza, wzmagając wcześniejsze obawy o bezpieczeństwo takiej suplementacji na obszarach endemicznego występowania malarii, nawet w kontekście dobrego dostępu do opieki zdrowotnej i odpowiedniego leczenia. Uwzględniając wyniki wszystkich prób nie ma dowodu na to, że podawanie cynku może zmniejszyć brzemię malarii ciążące na afrykańskich dzieciach."

Malarię wywołuje pasożyt o nazwie Plasmodium, który jest rozpowszechniany przez ukąszenia zakażonych komarów. W organizmie człowieka pasożyty rozmnażają się w wątrobie, a następnie zakażają erytrocyty. Pośród objawów malarii należy wymienić gorączkę, bóle głowy i wymioty, które zwykle pojawiają się po upływie od 10 do 15 dni od ukąszenia komara. Nieleczona malaria może szybko zagrozić życiu i zakłócić dopływ krwi do ważnych organów. W wielu częściach świata pasożyty uodporniły się na wiele leków antymalarycznych.

Strategie stosowane w kontrolowaniu malarii obejmują szybkie i skuteczne leczenie za pomocą połączenia terapii opartych na artemisininie, stosowanie siatek nasączonych środkami owadobójczymi na obszarach wysokiego zagrożenia oraz opryski rezydualne wewnątrz budynków w celu kontrolowania komarów wektorowych.

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Veenemans, J,. et al. (2011) 'Effect of Supplementation with Zinc and Other Micronutrients on Malaria in Tanzanian Children: A Randomised Trial'. PLoS Med 8(11): e1001125. doi:10.1371/journal.pmed.1001125

Zdrowie
Jedz ryby i buduj potencjał mózgu (17-01-2012)

sxc.huCzy kobiety ciężarne mogą zwiększyć potencjał mózgu swoich dzieci dzięki spożywaniu ryb? Badania, których wyniki zostały zaprezentowane w czasopiśmie American Journal of Clinical Nutrition, pokazują, że dzieci urodzone przez kobiety, które spożywały więcej ryb w okresie ciąży, osiągają lepsze wyniki na testach z inteligencji werbalnej, zdolności motorycznych i zachowań prospołecznych. Wyniki stanowią dorobek projektu NUTRIMENTHE (Wpływ diety na sprawność umysłową dzieci), który otrzymał wsparcie w kwocie 5,9 mln EUR z tematu "Żywność, rolnictwo, rybołówstwo i biotechnologia" (KBBE) Siódmego Programu Ramowego (7PR).

Tłuste ryby są bogatym źródłem długołańcuchowych kwasów tłuszczowych omega-3, takich jak kwas dokozaheksaenowy (DHA) - kluczowy budulec komórek, a w szczególności błon komórkowych mózgu. Komisja Europejska popiera oświadczenia zdrowotne, według których DHA "przyczynia się do prawidłowego rozwoju mózgu płodów i dzieci karmionych piersią oraz do prawidłowego rozwoju oczu płodów i dzieci karmionych piersią". (EFSA Journal 2011;9(4):2078)

W toku prac nad projektem NUTRIMENTHE naukowcy zbadali, w jaki sposób ryby oddziałują na zmienność genetyczną w kontekście potencjału mózgu. Partnerzy projektu skupili się głównie na polimorfizmach klastru genów desaturazy kwasów tłuszczowych (FADS), który koduje desaturazę enzymów delta-5 i delta-6, biorących udział w syntezie kwasów tłuszczowych omega-3 i omega-6.

Na podstawie próbek krwi pobranych od ponad 2.000 kobiet w 20. tygodniu ciąży oraz z pępowiny przy porodzie, naukowcy zanalizowali kwasy tłuszczowe omega-3 i omega-6 oraz przeprowadzili genotypowanie polimorfizmów pojedynczego nukleotydu 18 FADS. Zespół podawał kwasy tłuszczowe omega-3 i omega-6 rozwijającym się dzieciom przez pępowinę za pomocą przepływu przez łożysko. Do tej pory brak było badań nad wpływem genotypów FADS matki i dziecka na poziom tych kwasów tłuszczowych.

Dr Eva Lattka z Helmholtz Zentrum München, niemieckiego Centrum Badań Środowiskowo-Zdrowotnych, wraz z zespołem odkryła, że polimorfizmy w klastrze genów FADS wpływają na kwasy tłuszczowe kobiet w okresie ciąży. Według naukowców skład kwasów tłuszczowych w krwi pępowinowej wymaga genotypów matki i dziecka, w taki sposób, że genotypy matki są głównie łączone z prekursorami omega-6, a genotypy dziecka wiążą się przede wszystkim z produktami omega-6. Odkryli również, że DHA łączy się równo z genotypami matki, jak i dziecka.

"Wkład płodu w syntezę kwasów tłuszczowych omega-6 jest większy niż dotychczas przypuszczano. Poziom DHA zależy zarówno od metabolizmu matki, jak i dziecka" - stwierdza dr Lattka. "DHA dostarczany przez matkę może mieć ogromne znaczenie."

W ramach wcześniejszych badań naukowcy odkryli, że spożywanie ryb w czasie ciąży wiąże się ilorazem inteligencji werbalnej (IQ) w wieku 8 lat, ale co takiego jest w rybach, co wywołuje taki efekt? Podczas gdy ustalono w toku badań, że spożywanie ryb wiąże się z poziomem DHA, nie pozyskano żadnych danych wskazujących na bezpośrednie powiązanie poziomu DHA matki z osiągnięciami dzieci. Projekt NUTRIMENTHE, którego koniec zaplanowano na 2013 r., ma przynieść rozwiązanie tej kwestii.

Partnerzy NUTRIMENTHE zorganizowali w drugiej połowie października w Madrycie sympozjum pt. "Żywienie a funkcja kognitywna" w czasie Europejskiej Konferencji nt. Żywienia. W skład konsorcjum NUTRIMENTHE wchodzą naukowcy z Belgii, Hiszpanii, Niemiec, Polski, USA, Węgier, Wlk. Brytanii i Włoch. (EFSA Journal 2011;9(4):2078)

Źródło: CORDIS

Zob. też:
Oleje rybie - zaskakujące wyniki badań (12-10-2010)
Śledzika prosto z Bałtyku? Tylko na własne ryzyko (16-12-2011)

Różności
Nowy portret Hooke'a zapewnia należne mu miejsce na łamach książek historycznych (16-01-2012)

Podczas gdy książki historyczne obeszły się łaskawie z Izaakiem Newtonem, przypisując mu zasługi za prowadzone przez niego prace nad prawem powszechnego ciążenia, współczesny mu Robert Hooke był przez wiele lat przedstawiany jako zazdrosny naukowiec, który kwestionował teorie Newtona.

Była to jednak tylko część prawdy i w ostatnich latach społeczność naukowa zdała sobie sprawę z faktu, że Hooke był w istocie jednym z największych naukowców okresu oświecenia. Aby skorygować spaczoną wersję historii, która tak długo była rozpowszechniana i docenić Hooke'a wedle jego zasług, Instytut Fizyki (IOP) w Wlk. Brytanii wywiesił nowy portret zapomnianego naukowca w swojej londyńskiej siedzibie.

Portret jest dziełem artystki-historyka Rity Greer, która rozpoczęła swój "projekt Robert Hooke" w 2003 r. Jej celem jest uporządkowanie zapisów na temat naukowca poprzez spisanie kroniki jego życia.

"Robert Hooke, błyskotliwy siedemnastowieczny naukowiec, został zamieciony pod dywan historii przez Sir Izaaka Newtona i jego popleczników. W jego trzechsetlecie nie było żadnego obrazu upamiętniającego go. Pomyślałam, że to haniebne, bowiem Hooke zrobił wiele wspaniałych rzeczy dla nauki" - zauważa Rita Greer. "Pracuję nad projektem, który ma przywrócić mu należne miejsce w historii - pośród tych największych. Projekt trwa już osiem lat, a portret dla IOP jest nr 8 w serii, podczas gdy inne obrazy zostały już wyeksponowane w wielu prestiżowych lokalizacjach zarówno w Oksfordzie, jak i w Londynie."

Niemniej namalowanie Hooke'a nie było łatwym zadaniem, bowiem nie przetrwały żadne materiały wizualne przedstawiające wizerunek naukowca. Powszechnie uważa się, że po śmierci Hooke'a w 1703 r. Newton w przypływie zazdrości kazał spalić jedyny jego portret. Greer oparła się na źródłach pisanych, aby stworzyć podobiznę Hooke'a z uwzględnieniem szczegółów właściwych jego pozycji w historii nauki.

Spór Hooke'a z Izaakiem Newtonem o uznanie jego osiągnięć w ramach prac Newtona nad prawem powszechnego ciążenia odcisnął ponad dwustuletnie piętno na historycznych zapiskach dotyczących Hooke'a. Uważa się, że Hooke domagał się większego podkreślenia swoich zasług, niż Newton skłonny był przyznać, za przewodnie zasady, które później zostały opisane w dziele Newtona "Principia".

Aczkolwiek niezależnie od tego, jaka była prawda czy przyczynek tych naukowych sprzeczek, nie ma wątpliwości, że Hooke wywarł ogromny wpływ na historię fizyki. Kiedy w 1660 r. był asystentem Roberta Boyle'a, opracował prawo sprężystości, nazywane obecnie prawem Hooke'a.

Wedle prawa Hooke'a rozciągnięcie sprężyny jest wprost proporcjonalne do przyłożonej do niej siły - prawu temu podlega wiele materiałów, co doprowadziło do opracowania sprężyny włosowej. Sprężyny włosowe umożliwiły następnie zbudowanie pierwszych zegarów.

Nowy portret wywieszony w IOP przedstawia Hooke'a trzymającego w prawej ręce pióro i książkę, a w lewej sprężynę nawiązującą do prawa sprężystości Hooke'a.

Hooke zyskał również uznanie za budowę pomp próżniowych wykorzystywanych przez Boyle'a do eksperymentów z prawami gazowymi, za budowę jednych z pierwszych teleskopów Gregory'ego i obserwację ruchu Marsa i Jupitera oraz za wydedukowanie teorii fal świetlnych i za wysunięcie jako pierwszy tezy, że materia rozszerza się pod wpływem ciepła, a powietrze składa się z małych cząstek. Jako człowiek wszechstronny Hooke był prawdopodobnie za życia najlepiej znany z publikacji pt. "Micrographia", która zawiera jego szkice z obserwacji prowadzonych za pomocą mikroskopu, z których najbardziej znany jest rysunek pchły.

Były przewodniczący IOP Sir Arnold Wolfendale FRS wypowiedział się na temat znaczenia nowego portretu: "Robert Hooke był wybitnym człowiekiem w wielu dziedzinach, z których jedną była fizyka. Wyróżniał się także ze względu na wiele osiągnięć i odkryć, które nie spotkały się z odpowiednim uznaniem. Dzięki znakomitym portretom Hooke'a Rita Greer przyczynia się do przywrócenia równowagi i zaprezentowania Hooke'a szerszej publiczności. Sądzę, że Hooke byłby zbudowany jej wytrwałością".

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Na podstawie informacji uzyskanych z Instytutu Fizyki (IOP)

Ekologia
Nowe rdzenie z lodowca w Alpach Wschodnich mogą pomóc w rekonstrukcji przeszłości środowiska (15-01-2012)

Międzynarodowy zespół naukowców właśnie rozpoczął analizę rdzeni lodowych, które mogą być pierwszymi udanymi odwiertami z lodowca w Alpach Wschodnich.

Rdzenie pochodzą z lodowca w wysokich partiach góry Ortler, szczytu o wysokości 3.905 metrów w północno-wschodnich Włoszech. Długość 3 z 4 rdzeni wynosi 75 metrów, a czwarty liczy sobie 60 metrów.

Zespół, złożony z naukowców z Austrii, Rosji, USA i Włoch, ma nadzieję, że ich prace zaowocują zapisem zmian klimatu i środowiska, jakie zachodziły w tym regionie na przestrzeni kilku minionych stuleci. Jeżeli naukowcom się poszczęści, to rdzenie mogą kryć sekrety datujące się nawet na 1.000 lat wstecz. Zespół ma nadzieję, że rdzenie zawierają pozostałości wczesnej aktywności człowieka w regionie, takie jak uboczne produkty atmosferyczne wytapiania metali.

Analizowane przez zespół rdzenie lodowe mają istotne znaczenie. Naukowcy byli wcześniej przekonani, że lodowiec znajdował się zbyt nisko, by zawierać wystarczającą ilość lodu do zachowania wyraźnego zapisu klimatu. Podczas gdy jedna trzecia górnej części rdzeni wykazuje przesiąki wody z roztopów w dół, co mogło mieć wpływ na zapis, pozostałe dwie trzecie rdzeni zawierają lód w niezmienionej postaci, z których zespół badawczy powinien być w stanie wydobyć historię klimatu.

W ramach projektu po raz pierwszy badane są rdzenie lodowe pobrane ze wschodniej części Alp, dzięki czemu powstanie znacznie pełniejszy obraz zmian klimatu w tym zakątku Europy.

Wcześniejsze prace badawcze wykazały, że w regionie nastąpił wzrost temperatur letnich na dużych wysokościach o 2 stopnie Celsjusza w ciągu ostatnich 3 dekad. Mimo oznak topnienia w górnych częściach rdzeni, naukowcy mają nadzieję odkryć zapis rozpoczynający się od lat 80. XX w. i ciągnący się w tył kilkaset, a nawet więcej lat.

"Lodowiec już się zmienia z góry na dół w nieodwracalny sposób" - wyjaśnia kierownik ekspedycji Paolo Gabrielli z Uniwersytetu Ohio w USA. "Zmienia się z 'zimnego' lodowca, w którym lód jest stały w 'umiarkowany" lodowiec, w którym lód może rozpadać się. Cały lodowiec może przejść do stanu umiarkowanego w ciągu mniej więcej kolejnej dekady."

Tak nieuchronne zmiany w temperaturach lodowca oznaczają, że pozyskanie tych rdzeni szybciej niż później ma ogromne znaczenie, bowiem wraz z ich zniknięciem utracony zostanie cenny zapis przeszłości, jaki jest w nich zawarty.

Opierając się na schematach klimatycznych, lód w rdzeniach powstały w ciągu wcześniejszych okresów letnich odmaluje prawdopodobnie obraz klimatu z przeszłości na obszarze przylegającym do góry, ale prawdopodobnie tylko w promieniu 10 do 100 kilometrów. Natomiast lód powstały podczas wcześniejszych zim powinien dostarczyć wskazówek pozwalających odmalować obraz znacznie większego obszaru.

Analiza lodu może również przynieść odpowiedzi na pewne istotne pytania dotyczące regionu, takie jak te dotyczące zmian klimatu w czasie przejścia od średniowiecznego okresu ocieplenia do małej epoki lodowcowej.

Źródło: CORDIS

Technika
Mikrofluidyka: Krzemowe zawory pracują przy dużych ciśnieniach (12-01-2012)

Elementy krzemowe wysokociśnieniowego mikrozaworu krzemowego opracowanego w Instytucie Technologii Elektronowej w Warszawie. (Źródło: ITE)
1. Elementy krzemowe wysokociśnieniowego mikrozaworu krzemowego opracowanego w Instytucie Technologii Elektronowej w Warszawie. (Źródło: ITE)

W Instytucie Technologii Elektronowej w Warszawie skonstruowano dwa rodzaje zaworów przeznaczonych do stosowania w urządzeniach mikrohydraulicznych. Elementy czynne zaworów wykonano z krzemu z użyciem zaawansowanych technologii używanych w produkcji układów półprzewodnikowych. Nowe mikrozawory mogą pracować z cieczami i gazami znajdującymi się pod bardzo dużym ciśnieniem.

Zawory dostępne w sprzedaży, przeznaczone do instalacji mikrohydraulicznych, są konstrukcjami czysto mechanicznymi i nie gwarantują szczelności pozwalającej na efektywną pracę z płynami pod ciśnieniem wielu atmosfer. W Instytucie Technologii Elektronowej w Warszawie skonstruowano zawory mikromechaniczne wykonane w krzemie za pomocą technologii stosowanych w obróbce materiałów półprzewodnikowych. "Nasze mikrozawory krzemowe gwarantują szczelność sięgającą mikrolitrów na minutę przy ciśnieniach rzędu kilkudziesięciu atmosfer. Sądzimy, że można ją jeszcze poprawić", mówi jeden z konstruktorów, inż. Paweł Kowalski (ITE).

W Instytucie Technologii Elektronowej zbudowano dwa mikrozawory krzemowe: zwrotny, niewymagający sterowania, oraz przepływowy, kontrolowany elektronicznie za pomocą stosu piezoelektrycznego. Urządzenia należą do kategorii układów mikromechanicznych znanych jako MEMS (Micro Electro-Mechanical Systems). W obu kluczową rolę odgrywają krzemowe membrany oraz specjalnie wyprofilowane gniazda wykonane z dokładnością do pojedynczych mikrometrów.

W zaworze zwrotnym krzemowa membrana pod wpływem ciśnienia działającego w kierunku przepływu odkształca się i ciecz lub gaz mogą swobodnie przepływać. Jeśli kierunek ciśnienia zmieni się na przeciwny, membrana zostaje dociśnięta do otworu wlotowego i go blokuje. O czułości zaworu i zakresie ciśnień, przy których może pracować, decyduje grubość krzemowych wsporników przytrzymujących membranę nad otworem. "Podstawową zaletą zaworu jest jego banalnie prosta konstrukcja", podkreśla inż. Kowalski.

W zaworze kontrolowanym elektronicznie krzemowa membrana opiera się o stos piezoelektryczny. W zależności od przyłożonego napięcia, stos rozszerza się lub kurczy i odkształca membranę, zamykając lub otwierając przepływ płynu. Jeśli stos jest zasilany napięciem 24 V, zawór będzie pracował przy ciśnieniach do 50 atmosfer. Przy napięciu 150 V ciśnienia mogą osiągnąć wartość 200 atmosfer. Zakres ciśnień można także rozszerzyć bez podnoszenia napięcia, zwiększając rozmiary zastosowanego stosu piezoelektrycznego.

Krzemowe elementy obu zaworów powstają w kolejnych procesach trawienia plazmowego, fotolitografii oraz osadzania tlenków krzemu i aluminium. Zaawansowane technologie produkcji elementów roboczych zaworów, typowe dla procesów produkcyjnych układów elektronicznych, nie są tanie. Jednak w pojedynczym cyklu produkcyjnym na pojedynczej krzemowej płytce można wytworzyć do kilkadziesięciu elementów roboczych, co znacząco obniża cenę jednostkową. Gotowe elementy krzemowe zaworów są następnie montowane w metalowych obudowach.

Prace nad krzemowymi zaworami mikrofluidycznymi zostały sfinansowane ze środków statutowych Instytutu Technologii Elektronowej.

Instytut Technologii Elektronowej (ITE) w Warszawie prowadzi badania w dziedzinie elektroniki i fizyki ciała stałego oraz opracowuje, wdraża i upowszechnia nowoczesne mikro- i nanotechnologie w fotonice oraz mikro- i nanoelektronice. Instytut zajmuje się optoelektronicznymi detektorami i źródłami promieniowania, nowoczesnymi laserami półprzewodnikowymi, mikro- i nanosondami pomiarowymi, detektorami promieniowania jądrowego, mikrosystemami oraz czujnikami do zastosowań interdyscyplinarnych, a także specjalizowanymi układami i systemami scalonymi typu ASIC. W celu ułatwienia przemysłowi i jednostkom naukowo-badawczym dostępu do potencjału technologicznego, konstrukcyjnego i pomiarowego, w Instytucie utworzono Centrum Nanofotoniki, Centrum Nanosystemów i Technologii Mikroelektroniczych oraz Laboratorium Technologii Wielowarstwowych i Ceramicznych.

Fizyka
Wspomóż odpychanie, a zobaczysz przyciąganie. Wiemy, dlaczego (11-01-2012)

Doktorantka Faezeh Pousaneh z Instytutu Chemii Fizycznej PAN w
Warszawie z "kuchenną" wersją badanej przez siebie mieszaniny. Owoce
symbolizują drobiny koloidu, białe ziarna - wodę, ciemne - lutydynę,
czerwone - jony preferujące wodę. (Źródło: IChF PAN, Grzegorz
Krzyżewski)
1. Doktorantka Faezeh Pousaneh z Instytutu Chemii Fizycznej PAN w Warszawie z "kuchenną" wersją badanej przez siebie mieszaniny. Owoce symbolizują drobiny koloidu, białe ziarna - wodę, ciemne - lutydynę, czerwone - jony preferujące wodę. (Źródło: IChF PAN, Grzegorz Krzyżewski)

Gdy dwa obiekty odpychają się pod wpływem jednej siły, zwykle oczekujemy, że dołożenie kolejnej, również odpychającej, przyspieszy separację. Okazuje się, że ta intuicja nie zawsze jest prawdziwa. W Instytucie Chemii Fizycznej Polskiej Akademii Nauk w Warszawie udało się wyjaśnić zaskakujące wyniki eksperymentów z mieszaninami, w których dwa oddziaływania odpychające prowadziły do silnego przyciągania.

Wyniki zeszłorocznych eksperymentów z mieszaninami, przeprowadzonych na Uniwersytecie w Stuttgarcie, były zaskoczeniem dla wielu naukowców. W jednym z badanych układów działała siła odpychająca. Gdy wprowadzono drugą siłę odpychającą, pojawił się efekt odwrotny od oczekiwanego: mocne przyciąganie. Niecodziennym rezultatem zainteresowały się teoretyczki z Instytutu Chemii Fizycznej PAN (IChF PAN) w Warszawie. "Zbudowałyśmy od podstaw model teoretyczny badanego w Niemczech układu i z powodzeniem zweryfikowałyśmy jego przewidywania z wynikami eksperymentów. Dzięki temu potrafimy wyjaśnić, jak złożenie dwóch odpychań przekształca się w przyciąganie", mówi prof. dr hab. Alina Ciach z IChF PAN.

Układem modelowanym w IChF PAN była mieszanina wody i oleistej cieczy organicznej - lutydyny. W mieszaninie znajdowały się także jony soli. Sam płyn był umieszczony między dwiema naładowanymi elektrycznie ściankami, jedną hydrofilową, drugą hydrofobową.

Woda z lutydyną mieszają się tylko w pewnym zakresie temperatur. Ciekawa sytuacja pojawia się w pobliżu temperatury krytycznej, gdy układ nie może się "zdecydować", czy ma być wymieszany, czy rozmieszany. "W tych warunkach warstwa wody przy ściance hydrofilowej robi się stosunkowo gruba, podobnie jak warstwa oleju przy ściance hydrofobowej. A ponieważ woda z olejem się 'nie lubią', pojawia się siła rozpychająca ścianki", wyjaśnia Faezeh Pousaneh z Iranu, doktorantka pracująca w IChF PAN w ramach Międzynarodowych Projektów Doktoranckich Fundacji na rzecz Nauki Polskiej.

Niecodzienne zachowanie modelowanego układu ujawniało się po przyłożeniu do obu ścianek ładunku elektrycznego tego samego znaku. Między ściankami działało wtedy drugie odpychanie, elektrostatyczne, a mimo to ścianki zaczynały się przyciągać! "W ruch poszły kartki i ołówki. Razem z Faezeh, za pomocą obliczeń czysto analitycznych, wyprowadziłyśmy konkretne wzory opisujące przebieg zjawiska", mówi prof. Ciach.

Kluczowym elementem modelu okazało się założenie, że jony w roztworze poruszają się wyłącznie w wodzie, unikają zaś lutydyny. Ścianki badanego układu miały ładunek elektryczny, zatem przyciągały ku sobie jony. "Ale przy ściance hydrofobowej jest przecież warstwa lutydyny!", zauważa Pousaneh. "Zatem jon staje przed dylematem: chce dostać się do ścianki, lecz dostępu do niej broni lutydyna. Tę przeszkodę jon może pokonać tylko w jeden sposób: ciągnąc ze sobą wodę". W wyniku opisanego procesu powierzchnia ścianki, wcześniej hydrofobowa, zaczyna zachowywać się jak hydrofilowa, upodabniając się pod tym względem do drugiej ścianki. A dwie ścianki hydrofilowe się przyciągają.

Zespół z IChF PAN zamierza kontynuować badania nad wariantami modelowanych układów. "Oddziaływania podobne do opisanych przez nas pojawiają się między naładowanymi cząstkami koloidalnymi o selektywnych powierzchniach. W zależności od temperatury, oddziaływania te raz są odpychające, raz przyciągające", mówi prof. Ciach. Okazuje się, że w wąskim zakresie temperatur potencjał przyjmuje minimum dla pewnej odległości między cząstkami, czyli jest podobny do potencjału odpowiedzialnego za ustawianie się atomów w węzłach sieci krystalicznej. "Zatem sterując temperaturą będziemy mogli zmusić koloid do wytworzenia określonej struktury. Potem wystarczy ją utrwalić i użyć, na przykład w inżynierii materiałowej", podkreśla prof. Ciach.

Badania zrealizowano w ramach Międzynarodowych Projektów Doktoranckich Fundacji na rzecz Nauki Polskiej przy współfinansowaniu z programu Innowacyjna Gospodarka Unii Europejskiej.

Antropologia
Bez tajemnic - naukowcy odkryli, jak naprawdę rozwijała się czaszka człowieka (10-01-2012)

Antropologowie od dawna są przekonani, że zmiany w kształcie czaszki człowieka na przestrzeni czasu zachodziły niezależnie od siebie, ale nowe wyniki badań przeprowadzonych przez międzynarodowy zespół naukowców pokazują, że jednak mogło być inaczej.

Po przeanalizowaniu unikalnej kolekcji 390 czaszek przechowywanych w słynnej kostnicy kościoła katolickiego w Hallstatt w Austrii, zespół złożony z naukowców z Hiszpanii, Szwecji, USA i Wlk. Brytanii, odkrył, że zmiany uznawane dotąd za powstałe w wyniku odrębnych zdarzeń ewolucyjnych mogą być w rzeczywistości powiązane ze sobą. To oznacza, że czaszka jest faktycznie wysoce zintegrowanym elementem, a zmiana w jednej części jest powiązana ze zmianą w kilku innych.

"Odkryliśmy, że zmiany genetyczne czaszki są wysoce zintegrowane, a zatem jeżeli w toku selekcji nastąpi zmiana w jednej części, to spowoduje ona wystąpienie reakcji, polegającej na zmianach w pozostałych częściach czaszki" - stwierdza dr Chris Klingenberg, jeden z autorów raportu z badań z Uniwersytetu w Manchesterze, Wlk. Brytania.

Czaszki, które zostały udekorowane zgodnie z miejscową tradycją, stanowią część kolekcji ponad 700 egzemplarzy szczątków kostnych. Szczątki zostały pomalowane w kwiatki, liście i krzyże, a na większości czaszek na czole namalowano nazwisko zmarłego. Naukowcy powiązali krzyżowo nazwiska widniejące na czaszkach z lokalnymi księgami urodzin, zgonów i ślubów, aby zrekonstruować powiązania genealogiczne populacji Hallstatt aż od XVII w. Dzięki temu mogli szacunkowo ocenić wpływ genów na kształt czaszki.

W artykule opublikowanym w czasopiśmie Evolution zespół wyjaśnia, jak determinowana genetycznie morfologiczna integracja ukierunkowuje ewolucję kształtu czaszki człowieka.

"W tym scenariuszu ewolucyjnym czym innym byłaby zmiana jednego elementu bez jednoczesnej zmiany pozostałych" - wyjaśnia jeden z autorów raportu z badań, Miguel Hernández z Uniwersytetu w Barcelonie, Hiszpania. Dodaje: "Tradycyjnie eksperci badają, w jaki sposób selekcja wpływa na konkretną cechę. W praktyce jednak różne cechy są ze sobą wzajemnie powiązane. Kluczową koncepcją jest integracja morfologiczna: jeżeli zmieniamy jeden z elementów kształtu czaszki, cała struktura również ulega zmianie, a preferowane są jedynie te zmiany, które są zgodne ze wzorcem morfologicznym."

Zespół przeanalizował kształt czaszki człowieka za pomocą geometrycznych, morfometrycznych i ilościowych metod genetycznych, wykorzystując trójwymiarowe współrzędne 29 anatomicznych "punktów orientacyjnych", aby stworzyć morfologiczne mapy i przeprowadzić symulację różnych scenariuszy, w których wybierane są rozmaite, kluczowe cechy w toku procesu ewolucyjnego współczesnego człowieka. Współautorka raportu z badań, Neus Martínez-Abadías, również z Uniwersytet w Barcelonie, zauważa: "Jednym z najbardziej innowacyjnych aspektów badań jest wykorzystanie metodologii, która umożliwia nam analizowanie budowy czaszki jako całości i ilościowe określenie wpływu integracji morfologicznej. To oznacza, że nie musimy badać każdej cechy oddzielnie, tak jakby ewolucja była procesem rozproszonym".

Autorka raportu, Mireia Esparza, również z Uniwersytetu w Barcelonie, wskazuje, że przeprowadzone badania stanowią wsparcie dla argumentów za zmianą myślenia o scenariuszach ewolucyjnych współczesnego człowieka: "Ewolucja funkcjonuje jak zintegrowany proces, a poszczególne cechy nigdy nie ewoluują niezależnie. W przypadku czaszki zmiany ewolucyjne zbiegły się w taki właśnie wzorzec morfologiczny. A zatem nie wolno nam stosować uproszczeń i badać w izolacji reakcji pojedynczej cechy na selekcję, bowiem istnieje prawdopodobieństwo, że prócz pozostawania pod wpływem danego czynnika selekcyjnego jest ona również ograniczana przez czynniki wpływające na inne części czaszki".

© Unia Europejska 2005 - 2012

Źródło: CORDIS

Referencje dokumentu: Martaínez-Abadías, N. et al. (2011) Pervasive genetic integration directs the evolution of human skull shape. Evolution DOI: 10.1111/j.1558-5646.2011.01496.x

Dalsze informacje: Uniwersytet w Manchesterze


Archiwum (starsze -> nowsze) [1] [2] [3] [4] [5] [6] [7] [8] [9] [10]
[11] [12] [13] [14] [15] [16] [17] [18] [19] [20]
[21] [22] [23] [24] [25] [26] [27] [28] [29] [30]
[31] [32] [33] [34] [35] [36] [37] [38] [39] [40]
[41] [42] [43] [44] [45] [46] [47] [48] [49] [50]
[51] [52] [53] [54] [55] [56] [57] [58] [59] [60]
[61] [62] [63] [64] [65] [66] [67] [68] [69] [70]
[71] [72] [73] [74] [75] [76] [77] [78] [79] [80]
[81] [82] [83] [84] [85] [86] [87] [88] [89] [90]
[91] [92] [93] [94] [95] [96] [97] [98] [99] [100]
:
 
 :
 
  OpenID
 Załóż sobie konto..
Wyszukaj

Wprowadzenie
Indeks artykułów
Książka: Racjonalista
Napisz do nas
Newsletter
Promocja Racjonalisty

Racjonalista w Facebooku
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365