Racjonalista - Strona głównaDo treści


Fundusz Racjonalisty

Wesprzyj nas..
Zarejestrowaliśmy
199.553.516 wizyt
Ponad 1065 autorów napisało dla nas 7364 tekstów. Zajęłyby one 29017 stron A4

Najnowsze strony..
Archiwum streszczeń..

 Czy konflikt w Gazie skończy się w 2024?
Raczej tak
Chyba tak
Nie wiem
Chyba nie
Raczej nie
  

Oddano 246 głosów.
Chcesz wiedzieć więcej?
Zamów dobrą książkę.
Propozycje Racjonalisty:

Złota myśl Racjonalisty:
Wprawdzie nie istnieje zatem wiedza pewna na temat świata, ale też najwyraźniej człowiek wiedzy takiej nie potrzebuje. Dobrze potwierdzone hipotezy wystarczają do działania.
Nowinki i ciekawostki naukowe
Rok 2010
 Lipiec (23)
 Sierpień (23)
 Wrzesień (34)
 Październik (20)
 Listopad (24)
 Grudzień (17)
Rok 2011
 Styczeń (34)
 Luty (39)
 Marzec (43)
 Kwiecień (19)
 Maj (18)
 Czerwiec (17)
 Lipiec (19)
 Sierpień (30)
 Wrzesień (29)
 Październik (45)
 Listopad (35)
 Grudzień (24)
Rok 2012
 Styczeń (18)
 Luty (31)
 Marzec (34)
 Kwiecień (12)
 Maj (10)
 Czerwiec (11)
 Lipiec (12)
 Sierpień (9)
 Wrzesień (8)
 Październik (3)
 Listopad (11)
 Grudzień (4)
Rok 2013
 Styczeń (4)
 Luty (4)
 Marzec (0)
 Kwiecień (0)
 Maj (6)
 Czerwiec (0)
 Lipiec (5)
 Sierpień (4)
 Wrzesień (3)
 Październik (3)
 Listopad (3)
 Grudzień (20)
Rok 2014
 Styczeń (32)
 Luty (53)
 Marzec (38)
 Kwiecień (23)
 Maj (45)
 Czerwiec (46)
 Lipiec (36)
 Sierpień (26)
 Wrzesień (20)
 Październik (24)
 Listopad (32)
 Grudzień (13)
Rok 2015
 Styczeń (16)
 Luty (13)
 Marzec (8)
 Kwiecień (13)
 Maj (18)
 Czerwiec (11)
 Lipiec (16)
 Sierpień (13)
 Wrzesień (10)
 Październik (9)
 Listopad (12)
 Grudzień (13)
Rok 2016
 Styczeń (20)
 Luty (11)
 Marzec (3)
 Kwiecień (3)
 Maj (5)
 Czerwiec (2)
 Lipiec (1)
 Sierpień (7)
 Wrzesień (6)
 Październik (3)
 Listopad (5)
 Grudzień (8)
Rok 2017
 Styczeń (5)
 Luty (2)
 Marzec (10)
 Kwiecień (11)
 Maj (11)
 Czerwiec (1)
 Lipiec (8)
 Sierpień (5)
 Wrzesień (8)
 Październik (3)
 Listopad (3)
 Grudzień (3)
Rok 2018
 Styczeń (2)
 Luty (1)
 Marzec (7)
 Kwiecień (9)
 Maj (6)
 Czerwiec (5)
 Lipiec (4)
 Sierpień (0)
 Wrzesień (3)
 Październik (0)
 Listopad (0)
 Grudzień (11)
Rok 2019
 Styczeń (3)
 Luty (0)
 Marzec (1)
 Kwiecień (1)
 Maj (0)
 Czerwiec (0)
 Lipiec (2)
 Sierpień (8)
 Wrzesień (1)
 Październik (5)
 Listopad (3)
 Grudzień (5)
Rok 2020
 Styczeń (7)
 Luty (1)
 Marzec (1)
 Kwiecień (3)
 Maj (4)
 Czerwiec (1)
 Lipiec (3)
 Sierpień (1)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (3)
Rok 2021
 Styczeń (3)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (3)
 Październik (2)
 Listopad (0)
 Grudzień (0)
Rok 2022
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2023
 Styczeń (0)
 Luty (0)
 Marzec (0)
 Kwiecień (0)
 Maj (0)
 Czerwiec (0)
 Lipiec (0)
 Sierpień (0)
 Wrzesień (0)
 Październik (0)
 Listopad (0)
 Grudzień (0)
Rok 2024
 Styczeń (0)
 Luty (0)
 Marzec (0)
Archiwum nowinek naukowych
Technika
Ultraszybkie fotodetektory grafenowe (01-06-2014)

freedigitalphotos.net
1. freedigitalphotos.net

Nowej generacji ultraszybkie detektory podczerwieni oparte na grafenie opracowują Politechniki Warszawska i Łódzka wraz z firmą Vigo System S.A. W zależności od uzyskanych parametrów będą one mogły znaleźć zastosowanie w różnych dziedzinach technologii militarnej, kosmicznej czy typowo komercyjnej, wszędzie tam, gdzie wymagana jest szybkość i akceptowalna jest niezbyt duża czułość urządzenia.

Detektory będą działać poza obszarem światła widzialnego. Badacze chcą osiągnąć dla swoich urządzeń unikalne parametry, które przekraczają te oparte na konwencjonalnych technologiach. Chodzi przede wszystkim o niespotykaną dotąd szybkość działania. Skonstruowanie takiego fotodetektora będzie możliwe dzięki właściwościom grafenu.

"Grafen jest sercem całego układu, częścią aktywną, która odpowiada za kluczowy parametr detektora - szybkość. Poznane przez fizyków zjawiska polegające na tym, że +grafen widzi światło+, odbywają się niezwykle szybko, wiele razy szybciej niż w materiałach dotychczas znanych i używanych. Jeżeli sprytnie wykorzystamy tę własność fizyczną, to uda nam się zbudować ultraszybki detektor. Grafen bardzo dobrze przewodzi prąd, również to wpłynie na szybkość działania detektora" - tłumaczy kierownik projektu "Ultraszybkie fotodetektory grafenowe" dr inż. Mariusz Zdrojek z Wydziału Fizyki Politechniki Warszawskiej.

Obecnie standardowe detektory podczerwieni są stosowane np. w fotokomórkach, telefonach komórkowych czy noktowizorach. Zastosowanie nowej klasy detektorów z grafenem może zaowocować powstaniem nowych aplikacji - w zależności od tego, jakie parametry uda się osiągnąć w prototypie.

"Mogą to być LIDARy, tzn. odpowiednik standardowych radarów, ale działające na bazie lasera. Bardziej miękkie zastosowania to detektory odległości, pozwalające bardzo szybko namierzyć obiekt, który się porusza. To odpowiednik namierzania rakiet w wojskowości, ale do wykorzystania w aplikacjach cywilnych. Ważne są zastosowania badawcze: w specjalistycznej aparaturze naukowej do kalibracji różnego rodzaju urządzeń działających na bazie szybkich laserów" - wylicza dr inż. Zdrojek.

Kalibracja polega na takim ustawieniu parametrów aparatury używanej w badaniach naukowych, aby działała ona prawidłowo. Kolejne zastosowanie to przesył danych na duże odległości w terenie otwartym, np. w powietrzu między dwoma kontynentami.

"Urządzenia, nad jakimi pracujemy, mogłyby pomóc w przesyłaniu danych na duże odległości. To jest trudny temat w telekomunikacji, bo potrzebne są specjalne sygnały. Na przykład jeśli chcemy mieć Wi-Fi w całym budynku, to musimy mieć mnóstwo przekaźników na każdym piętrze, żeby przekaz dotarł do każdego odbiorcy, natomiast jeśli byśmy chcieli odebrać ten sygnał z budynku oddalonego o kilometr, to nie jest to możliwe z uwagi na ograniczenia technologiczne" - mówi dr inż. Zdrojek.

Projekt jest finansowany głównie z programu Graf-Tech Narodowego Centrum Badań (NCBR) i Rozwoju. Głównie, bo badacze używają technologii produkcji grafenu, której projekt nie obejmuje oraz wyspecjalizowanej aparatury, którą udało im się kupić z innych środków. Z NCBR otrzymali prawie 5 milionów zł. Bazą projektu jest technologia produkcji grafenu, doskonale opanowana przez polskich uczonych. Naukowcy tworzą grafen według standardowej metody, która jest również używana przez dr. Włodzimierza Strupińskiego z Instytutu Technologii Materiałów Elektronicznych. Ulepszanie parametrów wytwarzanego grafenu to istotna część nie tylko samego projektu, ale w ogóle wszelkich badań nad tym materiałem i jego zastosowaniami.

Jednym z warunków otrzymania pieniędzy w ramach Graf-Techu było pozyskanie partnera przemysłowego. Konsorcjanci z Politechniki Warszawskiej i Łódzkiej nawiązali współpracę z firmą VIGO System. Spółka ta nie zajmowała się nigdy wcześniej grafenem, natomiast od lat z powodzeniem zajmuje się detektorami podczerwieni. Dr Zdrojek nazywa tę spółkę "polską chlubą w dziedzinie innowacyjnych technologii" - ich detektory sprzedawane są na całym świecie i nawet latają w kosmos.

"Oni byli drugą stroną medalu dla tego projektu: my znaliśmy się na grafenie, oni znali się na detektorach. Połączenie naszej wiedzy zaowocowało tym projektem. Taka jest geneza projektu i powód wybrania tej firmy na naszego konsorcjanta" - mówi dr inż. Zdrojek.

Początkowe etapy polegały na ustaleniu koncepcji samego urządzenia - to robiła Politechnika Warszawska w konsultacjach z firmą VIGO System. Politechnika Łódzka miała głównie zadanie technologiczne, otrzymali wytyczne dla wykonania pewnej części urządzenia. Partner przemysłowy będzie charakteryzował pod kątem parametrów przemysłowych pierwsze urządzenia wykonane na uczelniach. Zaawansowanie prac kierownik ocenia na ok. 30 proc.

"Używamy grafenu jako budulca, jesteśmy na etapie budowy pierwszych urządzeń stanowiących serce układu i testujemy je - mówi dr inż. Zdrojek. - Nawet kiedy skończymy projekt Graf-Tech, to będziemy kontynuować te prace, bo projekty 3-letnie na tego typu zaawansowane technologie są niewystarczające - mam na myśli warunki akademickie - ale od czegoś trzeba zacząć".

Projekt ma zaowocować prototypem i demonstratorem parametrów. Dopiero wtedy konsorcjum zdecyduje, gdzie taki detektor będzie można zastosować i jak go poprawić, żeby zwiększyć liczbę zastosowań.

Zdaniem szefa projektu, niepowodzenie nie wchodzi w grę, mimo że konkurencja nie śpi i podobne badania prowadzi np. prężne laboratorium IBM w USA, dysponujące najlepszym zapleczem aparaturowym i budżetem przeszło stukrotnie większym niż polski projekt.

"Robimy swoje. Nawet jeśli im również uda się to zrobić, to jest ważne, żeby polska technologia też powstała. Będziemy wtedy w stanie konkurować z takimi potentatami jak oni, będziemy mieli dostęp do innowacyjnej technologii. Jeśli uda nam się zrealizować ten projekt, to będzie to sukces niezależnie do tego, czy będziemy pierwsi" - uważa dr inż. Zdrojek.

PAP - Nauka w Polsce, Karolina Olszewska

Technika
Maszynę "do badania czasu" zyskał Państwowy Instytut Geologiczny (31-05-2014)

Superczułą mikrosondę jonową do badania czasu geologicznego zyskał Państwowy Instytutu Geologiczny. To czwarte tego typu urządzenie na świecie, które podpowie gdzie szukać nowych złóż surowców i pomoże oszacować zmiany temperatury w dziejach Ziemi.

Mikrosonda SHRIMP IIe/MC jest nabytkiem najnowszego laboratorium PIG - Pracowni Mikrosondy Jonowej. "To prawdziwy rolls-royce geologii" - podkreślił rzecznik prasowy Państwowego Instytutu Geologicznego-Państwowego Instytutu Badawczego (PIG-PIB) Mirosław Rutkowski w przesłanym PAP komunikacie.


Mikrosonda jonowa SHRIMP IIe/MC (n/z) została zaprezentowana podczas oficjalnego otwarcia najnowszego laboratorium - Pracowni Mikrosondy Jonowej w Państwowym Instytucie Geologicznym w Warszawie, 27 bm. Mikrosonda nazywana "maszyną czasu" umożliwia precyzyjną analizę składu izotopowego próbek, co pozwala na określenie wieku nawet poszczególnych stref w obrębie badanej substancji. Wyprodukowana przez Australian Scientific Instruments sonda, jest jednym z czterech takich urządzeń na świecie. (tg/awol) PAP/Tomasz Gzell

Pracownia znajduje się na parterze zabytkowego budynku im. prof. Morozewicza, w kompleksie gmachów Państwowego Instytutu Geologicznego przy ul. Rakowieckiej w Warszawie. Oficjalne otwarcie laboratorium odbyło się we wtorek.

Mikrosonda nie służy jedynie do pomiaru czasu geologicznego. Jej niesamowita rozdzielczość i czułość pozwala na analizę zawartości izotopów siarki i tlenu w próbkach stałych. To otwiera ogromne pole badań. "Siarka to przecież siarczki metali, czyli kruszce miedzi, srebra, cynku, ołowiu - podstawa polskiego sezamu surowcowego. Mikrosonda podpowie gdzie szukać nowych złóż, zmniejszy tym samym ryzyko inwestycyjne w przemyśle surowcowym" - wyjaśnił Rutkowski.

Z kolei tlen to klimat. Proporcje pomiędzy ciężkim i lekkim izotopem tlenu są podstawowym wskaźnikiem temperatur sprzed milionów lat. Dzięki nowej mikrosondzie będzie można lepiej oszacować zmiany temperatury w dziejach Ziemi i określić wiele innych parametrów paleoklimatu, w tym zawartość dwutlenku węgla w atmosferze. Przybliży to naukowców do zrozumienia prawidłowości rządzących klimatem współczesnym.

Jak przypomniał rzecznik PIG-PIB, mikrosondy jonowe stosowano do analizowania materii kosmicznej - meteorytów, skał księżycowych, próbek z Marsa. Bada się nimi przebieg procesów w inżynierii materiałowej. Służą do analizy paliwa nuklearnego i skażeń geochemicznych. Wciąż pojawiają się nowe zastosowania, niektóre zaskakujące: we Francji poddano analizie szmaragd w najcenniejszej pamiątce narodowej - koronie św. Ludwika. "Naukowcy uzyskali dostęp do zabytku po udowodnieniu, że wiązka jonów z mikrosondy nie spowoduje żadnych widzialnych ubytków na powierzchni klejnotu. Odparuje tylko kilka - kilkanaście cząsteczek minerału, co wystarczy do identyfikacji kopalni, z której go przed setkami lat wydobyto" - opisał Rutkowski.

Mikrosondę jonową dla polskiej służby geologicznej wyprodukowała firma australijska firma Australian Scientific Instruments, współpracująca z Australian National University w Canberze. Zakup możliwy był dzięki dotacji Ministerstwa Nauki i Szkolnictwa Wyższego.

Jak opisuje Rutkowski, ważące 13 ton urządzenie najeżone jest czujnikami i kolorowymi kablami, uzbrojone w pompy próżniowe, tory magnetyczne, elektrostatyczne, zaawansowaną elektronikę. Dodaje, że trzy lata temu mikrosondę w tej konfiguracji zainstalowano na uniwersytecie w Granadzie. "Razem z mikrosondami starszych typów na świecie można się doliczyć zaledwie osiemnastu urządzeń systemu SHRIMP" - informuje rzecznik.

Od początków narodzin geologii czas odgrywał w niej fundamentalną rolę. Niestety - wyjaśnił Mirosław Rutkowski - bezpośrednie pomiary wieku skał do połowy XX wieku były niemożliwe. Naukowcy posiłkowali się względną skalą czasu opartą na kolejności pojawiania się w historii Ziemi charakterystycznych organizmów, znajdywanych w postaci skamieniałości w warstwach skalnych. Czas rzeczywisty określano tylko szacunkowo.

"Dopiero wynalezienie niezwykle czułych metod chemicznej analityki izotopowej pozwoliło na wykorzystanie zjawiska naturalnych przemian promieniotwórczych do bezpośredniego pomiaru czasu geologicznego" - czytamy w przesłanym PAP komunikacie.

Pierwiastki promieniotwórcze - wyjaśnił rzecznik PIG-PIB - występują powszechnie w skałach. Rozpadając się w stałym, niezmiennym tempie, przekształcają się w inne - potomne. Porównując proporcje składnika macierzystego do potomnego można określić wiek bezwzględny badanej próbki. Chodzi jednak o pomiary śladowych zawartości izotopów, różniących się od siebie niewyobrażalnie małymi wartościami masy.

"Dlatego żmudne analizy chemiczne zostały zastąpione znacznie wygodniejszymi i wydajniejszymi metodami fizycznymi. Pozwalają one nie tylko na skrócenie czasu testów, ale wymagają też mniej materiału do badań. Ale nie ma nic za darmo - urządzenia analityczne najnowszej generacji kosztują miliony dolarów, a unikatowe egzemplarze funkcjonują tylko w kilkunastu najlepszych ośrodkach badawczych na świecie" - zaznaczył Rutkowski.

PAP - Nauka w Polsce

Różności
Kredyt na urządzenie do wytwarzania grafenu (30-05-2014)

BGK udzielił kredytu spółce Nano Carbon, zajmującej się produkcją grafenu. Dzięki tym pieniądzom spółka zakupi urządzenie pozwalające na zwiększenie wytwarzania tego materiału i poprawę jego jakości. Wartość inwestycji to kilka milionów złotych.

Jak poinformował BGK, to kolejne przedsięwzięcie finansowane przez bank w ramach programu "Inwestycje Polskie".

"Sfinansowana przez BGK inwestycja Nano Carbon ma na celu komercjalizację technologii wytwarzania grafenu. Spółka będzie produkować unikatowe w skali światowej próbki grafenu o wymiarach 30 x 30 cm do wykorzystania w różnych ośrodkach badawczych branż m.in. elektronicznej, wojskowej i lotniczej na całym świecie" - czytamy w komunikacie BGK.

Wiceprezes Nano Carbon Krzysztof Czuba powiedział PAP, że wartość inwestycji to kilka milionów złotych. BGK nie ujawnił kwoty kredytu.

Grafen to nietypowy materiał, określany mianem 2D. Jest to pojedyncza warstwa atomów węgla, która wykazuje niespotykane właściwości mechanicznie i fizyczne. Charakteryzuje się niskim ciężarem właściwym, dużą elastycznością i wytrzymałością, wysokim przewodnictwem elektrycznym i cieplnym. Grafen został wynaleziony w 2004 roku przez rosyjsko-brytyjską grupę fizyków.

Technologię pozwalającą na produkowanie taniego grafenu i otrzymywanie materiału o najwyższej jakości opracował i opatentował zespół pod kierownictwem dr inż. Włodzimierza Strupińskiego z Instytutu Technologii Materiałów Elektronicznych w 2011 r. Produkcją grafenu zajmuje się firma utworzona przez Agencję Rozwoju Przemysłu, a także ITME. 51 proc. udziałów w Nano Carbon ma ARP, a 49 proc. fundusz inwestycyjny KGHM III FIZAN.

Celem programu "Inwestycje Polskie" jest zapewnienie finansowania długoterminowych i rentownych projektów infrastrukturalnych. Mają one przyczynić się do wzrostu PKB oraz tworzenia nowych miejsc pracy.

PAP - Nauka w Polsce

Medycyna
Pijawki bywają niezastąpione w medycynie (30-05-2014)

Komplikacje po replantacjach utraconych wcześniej kończyn, zapalenie stawów, chirurgia rekonstrukcyjna - to obszary medycyny, w których pijawki wciąż świadczą chorym nieocenione usługi. Mimo to te pasożyty nie są powszechnie stosowane w polskich szpitalach.

Od ponad 10 lat pijawki stosują lekarze w specjalizującym się w replantacjach kończyn i mikrochirurgii Szpitalu św. Jadwigi Śląskiej w Trzebnicy (Dolnośląskie). Rocznie placówka zużywa ok. 300 pijawek.


Pijawka lekarska, Wikimedia

"Oczywiście stosujemy je tylko u tych pacjentów, którzy wymagają takiej terapii. Po pijawki sięgamy przede wszystkim w przypadkach dynamicznie postępującej zakrzepicy naczyniowej i obrzęku tkanek po zabiegach replantacji, pomimo stosowania leków. Przy okazji odkryliśmy wiele innych schorzeń, które pomagają leczyć - jak zespoły algodystrofii czy zapalenia stanów towarzyszące osteoartrozie" - powiedział PAP chirurg i prezes Polskiego Towarzystwa Hirudologicznego, który dokonał m.in. pierwszej w Europie replantacji palców u 5-latka, dr Maciej Paruzel.

"Pijawki okazały się też niezastąpione również w chirurgii rekonstrukcyjnej, gdzie płaty skórne są zagrożone procesem niedokrwiennym i martwiczym z powodu zakrzepicy, a leki nie mogą dopłynąć z krwią do miejsc zagrożonych. Generalnie szpitalne wskazania do terapii pijawkami dotyczą chorych po zabiegach mikrochirurgicznych, w chirurgii ręki, chirurgii rekonstrukcyjnej i plastycznej czy onkologicznej" - dodał.

Jak zapewnia dr Paruzel, pacjenci rzadko mają obawy związane z przystawieniem pijawek i bardzo dobrze tolerują terapię. "Wystarczy porozmawiać i wytłumaczyć, po co to robimy i zawsze jest akceptacja. Zresztą stojąc przed dylematem: mieć lub nie mieć ręki lub palców, każdy by się zgodził" - zaznaczył.

Pijawki można też stosować w warunkach ambulatoryjnych. "Czasami efekty takiej terapii są szokujące. Obniżenie poziomu cholesterolu, normalizacja ciśnienia tętniczego, ograniczenie bólu migrenowego głowy czy szumu w uszach to tylko niektóre przykłady. Istnieje ogromna liczba chorób, w których pijawki lekarskie przyniosły pozytywny efekt. Nie można jednak stworzyć jednolitej listy wskazań, bo każda sytuacja wymaga uwzględnienia schorzeń towarzyszących, zażywanych leków, stanu chorego" - mówił dr Paruzel.

Najlepsze efekty terapeutyczne stosowania pijawek stwierdzono w chorobach o podłożu zapalnym, bólowym i zakrzepowym. Nie stosuje się ich natomiast u chorych ze skazą krwotoczną, niedoborami immunologicznymi, zażywających leki przeciwzakrzepowe, z ciężkimi uszkodzeniami narządów wewnętrznych lub ze stwierdzonymi zaburzeniami w gojeniu ran. Z zasady nie robi się też zabiegów kobietom w ciąży i małym dzieciom.

Zdaniem prezesa Polskiego Towarzystwa Hirudologicznego, stosowanie pijawek w polskich szpitalach to wciąż margines, chociaż w ostatnich latach coraz więcej oddziałów zajmujących się chirurgią rekonstrukcyjną, plastyczną, chirurgią ręki, mikrochirurgią czy chirurgią onkologiczną stosuje je jako formę terapii uzupełniającej klasyczne procedury lecznicze. Taka tendencja jest widoczna na całym świecie od lat 70. ubiegłego wieku.

Jak poinformował dr Paruzel, hirudoterapia należy do procedur medycznych wg Międzynarodowego Spisu Procedur ICD-9. Mimo to z rozliczaniem jej przez Narodowy Fundusz Zdrowia bywa różnie. "Są miejsca w Polsce, gdzie NFZ zapłacił za terapię pijawkami w szpitalach, w większości przypadków nie jest to jednak terapia refundowana. Może to się zmieni w przyszłości. W niektórych państwach płaci się za nią ze środków publicznych - tak jest np. w Wielkiej Brytanii, Stanach Zjednoczonych czy w Rosji" - wyliczał.

W Polsce terapię pijawkami prowadzi też wiele osób, które nie są lekarzami. Według dr. Paruzela standardem powinna być jednak ich współpraca z lekarzem. "W takim modelu hirudoterapia nie musi być elementem polskiego podziemia terapeutycznego, łączonego z wróżbiarstwem, szamanizmem i innymi metodami pseudoterapii" - zaznaczył.

Pijawki do terapii muszą pochodzić z legalnej hodowli laboratoryjnej, będącej pod kontrolą weterynaryjną, których źródło pochodzenia jest udokumentowane stosownym certyfikatem. Pijawki niewiadomego pochodzenia, zwykle pozyskane z natury, mogą przenosić groźne dla człowieka drobnoustroje.

Anna Gumułka (PAP)

Ekologia
Miejska wyspa ciepła - można z nią walczyć (29-05-2014)

Z roku na rok Warszawa traci coraz więcej zieleni na rzecz centrów handlowych i osiedli. W świecie asfaltu i betonu latem upał nie słabnie nawet nocą. Możne to złagodzić obecność drzew i właściwa zabudowa - mówili w środę w Warszawie klimatolodzy i urbaniści.

Dominujące w miastach - asfalt, żelbet i betonowe elewacje budynków - latem za dnia mocno się nagrzewają, a w nocy całe ciepło przekazują otoczeniu. W konsekwencji w centrach miast temperatura powietrza jest wyższa niż w niezabudowanej okolicy. Różnica wynosi średnio 1-2 st. C, ale może też sięgać nawet 10 st. C. Takie zjawisko nazywane miejską wyspą ciepła odczuwa się głównie nocą i wczesnym rankiem.

Wyspa ciepła jest tym większa, im mniej jest zieleni i wody (tzw. powierzchni biologicznie czynnych), i im większa jest gęstość zabudowy - tłumaczył prof. Krzysztof Błażejczyk z Instytutu Geografii i Przestrzennego Zagospodarowania PAN (IGiPZ) podczas seminarium pt. "Dlaczego w mieście jest cieplej niż poza nim? - czyli o miejskiej wyspie ciepła w Warszawie".


freedigitalphotos.net

Naukowcy ostrzegają, że stałe przebywanie w upale źle wpływa na organizm i bywa niebezpieczne, zwłaszcza dla osób starszych, małych dzieci, osób niepełnosprawnych i ludzi z problemami oddechowymi lub chorobami układu krążenia. Dlatego naukowcy sprawdzają, czy - i na ile - można ograniczać skalę nagrzewania się miast.

Zjawisko miejskiej wyspy ciepła jest bardzo wyraźne w Warszawie. "W ostatnich 20 latach obserwujemy bardzo intensywną zabudowę wszystkich wolnych przestrzeni w mieście i drastyczne zmniejszenie się powierzchni biologicznie czynnej. Nadgryzamy wszystkie parki, ogródki działkowe; zabudowujemy zielone tereny wzdłuż torów kolejowych. Warszawa się bardzo zmienia, i zmienia się jej klimat" - podkreślała dr Magdalena Kuchcik z IGiPZ. Naukowcy z tego instytutu od lat monitorują zmiany urbanistyczne, przyczyniające się do nasilania się zjawiska miejskiej wyspy ciepła w stolicy.

Zdaniem ekspertów z miejską wyspą ciepła można walczyć, można się starać ją minimalizować, np. dzięki odpowiedniemu planowaniu przestrzennemu. Jeszcze do lat 60. w Warszawie zabudowywano głównie centrum. Od końca lat 80. trwa zabudowa całej strefy podmiejskiej, a my - urbaniści, musimy sobie radzić z nowymi zjawiskami" - zauważyła Krystyna Solarek z Wydziału Architektury Politechniki Warszawskiej (WA PW). - Dziś miasto budują przede wszystkim prywatni deweloperzy - i trzeba na to pozwolić. Ale też trzeba stworzyć taką strukturę dla miasta, by nie zatracić walorów układu przestrzennego i myśleć także o innych aspektach, w tym - o aspekcie klimatycznym" - zaznaczyła.

Jak dodała Solarek obecnie na większości stołecznych terenów nie obowiązują miejscowe plany zagospodarowania przestrzennego. Wszelkie działania podejmuje się na podstawie przepisów prawa krajowego i tzw. decyzji o warunkach zabudowy. "Ale warto zauważyć, że plany zagospodarowania powinno się robić nie tylko po to, żeby umożliwić budowę, ale też, by chronić tereny zielone. Czasem trzeba wprowadzić plan tylko po to, by wprowadzić zakaz zabudowy. Trudno to jednak przeprowadzić w mieście, gdzie takie rozwiązania odbierane są jako system hamujący inwestycje" - mówiła urbanistka.

Jak dodała, w Warszawie przez wiele lat zabudowę planowano tak, by domy rozdzielały pasma zieleni, co widać np. na planach miasta z lat 50. Miasto się jednak stale rozbudowywało, tereny zielone natomiast się kurczyły. Te, które się zachowały, należy chronić i nie dopuścić do ich dalszej degradacji; zapewniają one bowiem dopływ powietrza do centrum miasta i ułatwiają jego chłodzenie - podkreślali uczestnicy konferencji.

Prof. Błażejczyk zauważył, że dobry efekt daje też stosowanie zielonych dachów, czyli dachów obsadzonych roślinnością, zwłaszcza w centrum. Najbardziej skuteczne są jednak "działania drastyczne", np. rezygnacja z gęstej zabudowy - mówił. Skuteczności takiego zabiegu naukowcy z IGiPZ dowiedli teoretycznie na komputerowym modelu warszawskiego Osiedla Włodarzewska. Wirtualnie "wyburzyli" tam dwa spośród ok. dwudziestu bloków - i zastąpili je zielenią. To wyraźnie zmniejszyło lokalny efekt miejskiej wyspy ciepła.

W ramach międzynarodowego projektu UHI (Urban Heat Islands), naukowcy z IGiPZ opracowują katalog działań łagodzących zjawisko miejskiej wyspy ciepła w polskich miastach. Wśród ich rekomendacji - podkreślił Błażejczyk - znajdzie się np., absolutna potrzeba zachowywania w miastach niezabudowanych przestrzeni, a tam, gdzie przewidziano zabudowę, zadbanie o obecność drzew i zieleni. Dotyczy to m.in. osiedli domów jednorodzinnych i tzw. szeregowców; osiedla te - zdaniem klimatologa - bardzo często "bywają pustyniami zieleni".

Naukowcy postulują też, by w centrach miast wprowadzać zielone dachy, a skwery, place zabaw i ulice zacieniać zielenią.

PAP - Nauka w Polsce

Medycyna
Polscy naukowcy szykują cukrową pułapkę na nowotwory (25-05-2014)

Komórki nowotworowe lubią cukier, dlatego polscy naukowcy opracowali maleńkie kapsułki otoczone cukrową powłoczką, które nowotwór chętnie "pożera". Wypełnione kilkoma lekami, po wniknięciu do guza, mogą stanowić skuteczną broń w walce z nowotworami.

"Komórki nowotworowe lubią cukier i mają bardzo duże zapotrzebowanie na glukozę. Potrzebują jej około 200 razy więcej niż zwykłe komórki. My ten fakt postanowiliśmy wykorzystać" - powiedział PAP dr hab. Tomasz Ciach z Laboratorium Inżynierii Biomedycznej Politechniki Warszawskiej.

Jego zespół opracowuje nanocząsteczki, czyli maleńkie kapsułki w rozmiarach sięgających jednej miliardowej metra, które mają transportować lek wprost do komórek nowotworowych. Naukowcy pokrywają je otoczką z polisacharydów, czyli cukrów występujących w organizmie ludzkim. Wykorzystują przede wszystkim dekstran - polisacharyd stosowany w medycynie już od lat, jako środek krwiozastępczy czy w kroplach do oczu. Jest on całkowicie nieszkodliwy dla organizmu, usuwany zarówno przez nerki, jak i metabolizowany przez wątrobę do cukrów prostych.

Właśnie ze względu na bardzo duże zapotrzebowanie nowotworu na glukozę jego komórki wyjątkowo chętnie wciągają takie cukrowe nanocząstki do wnętrza. Będąc już wewnątrz komórki nanocząsteczka zaczyna się rozpadać i wydziela lek bezpośrednio do guza. "Badania przeprowadzone na zwierzętach pozwoliły nam stwierdzić, że podając dawkę leku w nanocząstkach uzyskujemy pięciokrotnie większe jego stężenie w guzie, niż gdybyśmy podali go w inny sposób" - powiedział dr Ciach.

Wyjaśnił, że jeśli powstanie w naszym organizmie nowotwór i osiągnie rozmiar około pół milimetra, to dyfuzyjny transport tlenu i pożywienia mu nie wystarcza. Zaczyna wysyłać specjalne sygnały chemiczne, które powodują, że z najbliższego naczynia krwionośnego wyrasta nowe naczynie, by zapewnić nowotworowi pożywienie. "Takie nowe naczynie ma trochę chaotyczną strukturę i jest nieszczelne. I właśnie przez te nieszczelności wyciekają do guza nanocząstki. To kolejny mechanizm poprawiający transport leku do celu" - dodał naukowiec.

Dzięki temu, że lek gromadzi się w samym nowotworze, a nie rozprzestrzenia w organizmie, można go podać znacznie więcej. "Mniejsze są też efekty uboczne takiej terapii. Nie ma takiego spadku masy ciała pacjenta i zatrucia organizmu" - zaznaczył dr Ciach.

Kiedy już nanocząstki znajdą się w komórce nowotworowej, mogą w nim - jak to określił badacz - "siedzieć nawet przez kilka tygodni i męczyć nowotwór". Dzięki opracowanym nanocząsteczkom można podawać kilka leków jednocześnie, bo nowotwory bardzo szybko uodporniają się na jeden lek. Jeśli zaś poda się kilka leków jednocześnie, o różnych mechanizmach działania, to nie mają one szansy się na nie uodpornić.

Większość nanocząstek, które przedostają się do organizmu, jest dość szybko wykrywana przez układ odpornościowy, którego zadaniem jest szukanie wszelkich obcych elementów we krwi. "Nasze nanocząstki składają się w 95 proc. z wody zlepionej łańcuchami polisacharydu. To powoduje, że są niewykrywalne i niewidzialne dla układu immunologicznego. Inaczej byłyby natychmiast filtrowane w węzłach chłonnych i usuwane z organizmu" - tłumaczył dr Ciach.

Na razie naukowcy skupiają się na tym, aby docierać do komórek nowotworów stałych np. piersi, sutka, jelita. "Planujemy jednak uzbroić nasze nanocząstki w przeciwciała, aby można je było stosować w leczeniu np. białaczki. Dodatkowo możemy do nich wkładać nanokryształy fluorescencyjne, które po przyczepieniu do komórki nowotworowej zaczynają świecić. To ułatwia wykrycie nowotworu, np. przełyku czy jelita, oraz chirurgiczne usuwanie nowotworów" - wyjaśnił dr Ciach.

Jego grupa badawcza niedawno rozpoczęła badania na zwierzętach. "Jeżeli będziemy mieli szczęście i fundusze, to mamy nadzieję, że w końcu przyszłego roku uda się nam rozpocząć badania na ludziach. To są bardzo drogie prace i główny czynnik, który je hamuje to pieniądze. Potrzebujemy 30 mln dolarów, dlatego nie da się tego pokryć ze zwykłych grantów" - zaznaczył.

Na razie założył firmę i zaprosił do współpracy fundusz, który pomaga mu zdobyć pieniądze na badania. "Trzeba sobie zdawać sprawę, że 90 proc. pomysłów na nowe leki przeciwnowotworowe niestety odpada na którymś z etapów, główną przyczyną są własności toksyczne nowych leków. Jednak gdybym nie był dobrej myśli, że nam się uda, to nawet bym nie zaczynał" - podkreślił badacz.

PAP - Nauka w Polsce, Ewelina Krajczyńska

*





 

Biologia
Naukowcy: wielkość palców ma związek ze stanem zdrowia mężczyzn (24-05-2014)

Długość palców wskazującego i serdecznego mogą dużo powiedzieć o zdrowiu mężczyzny - twierdzą naukowcy z Collegium Medicum Uniwersytetu Jagiellońskiego i University of New Mexico w USA na łamach czasopisma "Annals of Human Biology".

Już ze wcześniejszych ustaleń naukowych wynikało, że w długości palców - zarówno kobiecych, jak i męskich - zawarta jest informacja o rozwoju płodowym. Nowe badania na ten temat, przeprowadzone przez polsko-amerykański zespół, opublikuje w nadchodzącym numerze "Annals of Human Biology".


freedigitalphotos.net

Jeżeli mężczyzna ma krótszy palec wskazujący od palca serdecznego oznacza to, że w życiu płodowym oddziaływało na niego wyższe stężenie testosteronu niż estrogenów. I odwrotnie - mężczyzna z dłuższym palcem wskazującym podlegał wyższemu stężeniu estrogenów w łonie matki. Stosunek długości palca drugiego do czwartego, nazywany indeksem 2D:4D (z ang. "the 2nd to 4th digit ratio"), nie zmienia się przez całe życie. Dlatego może być używany jako wyznacznik środowiska hormonalnego, w jakim rozwijał się płód.

Badacze z Zakładu Zdrowia i Środowiska UJ CM: doktorantka Magdalena Klimek, prof. Grażyna Jasieńska, dr Andrzej Galbarczyk, dr Ilona Nenko oraz Louis Calistro Alvarado z University of New Mexico przebadali blisko 700 mężczyzn w różnym wieku, zamieszkałych na terenie Beskidu Wyspowego.

Polscy i amerykańscy naukowcy odkryli, że chłopcy, którzy mają krótszy palec wskazujący w stosunku do serdecznego (co świadczy o wyższych poziomach testosteronu w życiu płodowym), rodzą się więksi oraz mają wyższą masę ciała w okresie dzieciństwa i dojrzewania. Co więcej, w wieku dorosłym tacy mężczyźni mają średnio również wyższe stężenia testosteronu oraz więcej dzieci.

Z tego nasuwa się wniosek, że indeks długości palców 2D:4D można uznać za wskaźnik kondycji zdrowotnej mężczyzny. Zaprezentowane przez naukowców wyniki wskazują, że wysokie stężenia testosteronu podczas rozwoju płodowego mogą mieć korzystny wpływ na całe późniejsze życie mężczyzn, gdyż ten hormon odgrywa kluczową rolę w prawidłowym rozwoju męskich płodów. Zatem - twierdzi polsko-amerykańska ekipa - patrząc na stosunek palca wskazującego do palca serdecznego możemy oszacować poziom testosteronu oraz potencjał rozrodczy danego mężczyzny.

"Z wysokim poziomem testosteronu łączą się jednak nie tylko korzyści - jego zbyt wysokie stężenie może powodować także problemy zdrowotne. Wcześniejsze badania wykazały, ze panowie mający dłuższy palec serdeczny częściej chorują na raka prostaty, autyzm czy choroby układu krążenia" - powiedziała PAP Magdalena Klimek. "Ten prosty w pomiarze wskaźnik może z powodzeniem stać się niebawem jednym z narzędzi oceny ryzyka wielu chorób, mogących mieć swoje korzenie jeszcze w łonie matki" - zaznaczyła doktorantka UJ CM.

Jak dodała prof. Jasieńska, "poszukiwanie wskaźników, które mówią nam, w jakich warunkach przebiegał rozwój płodowy, jest niezwykle ważne". "Wiele chorób cywilizacyjnych takich jak np. cukrzyca czy choroby układu krążenia częściej występuje u osób, które rozwijały się w niekorzystnych warunkach" - wyjaśniła PAP badaczka.

Czytaj więcej: Magdalena Klimek, Andrzej Galbarczyk, Ilona Nenko, Louis Calistro Alvarado, Grazyna Jasienska: Digit ratio (2D:4D) as an indicator of body size, testosterone concentration and number of children in human males, "Annals of Human Biology"

Materiałoznawstwo
Złom jak szczere złoto - co się da odzyskać z "rudy miejskiej" (23-05-2014)

W jednej tonie zużytych telefonów komórkowych znajduje się m.in. 130 kg miedzi, 3,5 kg srebra i 340 g złota. Taka "ruda miejska" ze złomowanych urządzeń może być więc cennym źródłem surowców. Nad efektywnym odzyskiwaniem tych zasobów pracują polscy naukowcy.

Jak w rozmowie z PAP wyjaśnia prof. Marcin Leonowicz z Wydziału Inżynierii Materiałowej Politechniki Warszawskiej, w produkcji urządzeń elektrycznych i elektronicznych wykorzystywane są w sporych ilościach cenne surowce. Np. z miedzi tworzone są w urządzeniach obwody i kable. Ze złota z kolei robi się styki.

"W Japonii największa ilość złota jest nie w skarbcach, nie w biżuterii, ale właśnie w elektronice" - zaznacza prof. Leonowicz. Badacz wyjaśnia, że z tego metalu szlachetnego tworzone są m.in. połączenia między akumulatorem a telefonem komórkowym. Bo złoto - w przeciwieństwie do metali nieszlachetnych - nie pokrywa się z czasem tlenkami i przewodzi prąd nawet po długim czasie użytkowania. Dawniej w urządzeniach zamiast złota w stykach stosowano inny metal szlachetny - srebro. Poza tym w lutowanych starszych urządzeniach często stosowano cynę, a nawet ołów (teraz go się już nie używa ze względu na toksyczność). Z kolei z zawierającej żelazo stali tworzone są elementy obudowy.


Fot. MikroLogika, Wikimedia

"W zakładach przeróbki odpadów metale te odzyskiwać można wrzucając do kotła zużytą elektronikę. Tworzywa sztuczne spalają się tam w odpowiednich warunkach, a pozostaje z nich sam stop metali" - opisuje prof. Leonowicz i żartobliwie nazywa tę mieszankę "rudą miejską". Wyjaśnia, że materiał taki sprzedawany jest zwykle zagranicę i dopiero tam metale te są rozdzielane. "Sprzedajemy więc surowiec, a moglibyśmy już tu, w kraju, odzyskiwać z niego czyste metale i sprzedawać je znacznie drożej" - uważa.

W ramach projektu "REMET - Opracowanie metod odzysku metali ze złomu elektronicznego" badacze z Akademii Górniczo-Hutniczej oraz Politechniki Warszawskiej, we współpracy z firmą P.P.H.U. POLBLUME Zbigniew Miazga, pracują nad tym, by z "rudy miejskiej" oddzielać poszczególne metale. Prof. Leonowicz wyjaśnia, że o ile złoto i srebro odzyskać jest z takiego materiału najłatwiej, to ciężej np. rozdzielić miedź i cynę. Takie metody oddzielania metali są już na świecie wykorzystywane, ale uczestnicy projektu z Akademii Górniczo-Hutniczej chcą zaadaptować istniejące rozwiązania do polskich warunków. "Nie trzeba tu wyważać otwartych drzwi, tylko opracować urządzenia, które spiszą się w przypadku typowego złomu" - zaznacza prof. Leonowicz.

Rozmówca PAP w ramach projektu zajmuje się także metodami recyklingu magnesów neodymowych. Magnesy takie również obecne są w złomie elektronicznym - m.in. w dyskach twardych komputerów czy niekiedy w zużytym sprzęcie medycznym. "To bardzo silne magnesy. Z kostką takiego magnesu o wymiarach 10x10x10 cm nie pozwoliłem nikomu wejść do mojego instytutu. Mówiono mi, że do takiego magnesu na składowisku złomu został przyciągnięty wózek widłowy i odrywano go dwoma innymi wózkami widłowymi" - śmieje się prof. Leonowicz.

Badacz z PW opowiada, że magnesy neodymowe bardzo ciężko przetwarzać. W produkcji spiekane są one z proszku, a jeśli znów się je na proszek rozbije, materiał właściwie bezpowrotnie traci swoje właściwości magnetyczne. Prof. Leonowicz uważa jednak, że magnes można poddać działaniu wodoru, a potem gaz odessać. Choć z magnesu neodymowego powstanie proszek, będzie on miał właściwości magnetyczne. "Niestety, nieco słabsze niż wcześniej" - komentuje naukowiec.

Proszek taki znów można jednak dowolnie formować i np. łączyć z tworzywami sztucznymi. W taki sposób tworzone "plastikowe" magnesy świetnie spisałyby się jako magnesy w drzwiczkach lodówek, magnesy do zabawek czy napędów. Naukowiec liczy na to, że tak przetworzony materiał będzie można z zyskiem sprzedawać. "Na razie taka metoda utylizacji magnesów nie jest jeszcze powszechnie stosowana, ale nad jej zastosowaniem pracują również badacze z Wielkiej Brytanii i Niemiec" - dodaje profesor.

Projekt jest realizowany w ramach projektu INNOTECH Narodowego Centrum Badań i Rozwoju.

Ludwika Tomala (PAP)

Wydarzenia
Uroczystość nadania nowej ulicy imienia Profesora Mariana Mięsowicza (22-05-2014)

Prezydent Miasta Krakowa prof. dr hab. Jacek Majchrowski oraz Dyrektor Instytutu Fizyki Jądrowej im. H. Niewodniczańskiego Polskiej Akademii Nauk prof. dr hab. Marek Jeżabek serdecznie zapraszają w dniu 23 maja 2014 r. o godz. 11:00 na uroczystość nadania imienia Profesora Mariana Mięsowicza nowej ulicy, łączącej ul. Sosnowiecką z Centrum Cyklotronowym Bronowice IFJ PAN.

Uroczystość ta jest częścią Festiwalu Nauki, który odbywa się w Krakowie w dn. 21-24 maja 2014 r.

Miasto wzbogaca się tym samym nie tylko o cenny i niezwykle potrzebny fragment infrastruktury drogowej, ale także o kolejną ulicę poświęconą wybitnemu mieszkańcowi Krakowa. Nadanie imienia prof. Mariana Mięsowicza ulicy przy Instytucie Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie ma szczególne znaczenie: był on jednym z najznakomitszych uczonych zatrudnionych w Instytucie. 

Prof. Marian Mięsowicz (ur.21.11. 1907 r. we Lwowie, zm.5.04.1992 r. w Krakowie) jest jednym z najwybitniejszych fizyków XX w. Studia z fizyki ukończył na Uniwersytecie Jagiellońskim w Krakowie, gdzie również uzyskał doktorat z fizyki. Od 1931 r. pracował w Akademii Górniczej w Krakowie (obecnie AGH). Światową sławę przyniosły mu badania anizotropii lepkości ciekłych kryształów przeprowadzone w latach 30. XX w. Były one przedmiotem Jego rozprawy habilitacyjnej. Zdefiniował i zmierzył współczynniki lepkości ciekłych kryształów. Współczynniki te w światowej literaturze naukowej są znane jako współczynniki Mięsowicza.

W czasie rocznego stażu naukowego w Holandii rozpoczął badania z fizyki jądrowej, które kontynuował po II wojnie światowej. Był twórcą krakowskiej szkoły fizyki cząstek elementarnych oraz pionierem zastosowań fizyki jądrowej w geofizyce. Badania oddziaływań promieniowania kosmicznego przyniosły Mu światową sławę także w tej dziedzinie.

Od 1959 r. był członkiem PAN, w latach 1969-1977 wiceprezesem. W 1989 został członkiem PAU. W latach 1972-1980 był posłem na sejm PRL. Laureat nagród państwowych I stopnia (1964) i specjalnej (1979), nagrody Alfreda Jurzykowskiego, doktor honoris causa UJ, AGH i UW.

Był uczonym pełnym ciepła i poczucia humoru. Wypromował 15 doktorów.

Profesor Marian Mięsowicz jest obok Profesora Henryka Niewodniczańskiego, współtwórcą Instytutu Fizyki Jądrowej. Stworzony przez Niego zespół fizyki wysokich energii i cząstek elementarnych dołączył w 1970 r. do IFJ.

Program uroczystośći:

11:00-11:30 Uroczystość nadania imienia profesora Mariana Mięsowicza nowej ulicy

11.45-13.00 Aula IFJ PAN - Wykłady popularno-naukowe
• Droga dla nauki - Prof. dr hab. Marek Jeżabek, Dyrektor IFJ PAN
• Fizyka i terapia protonowa w Centrum Cyklotronowym Bronowice - Prof. dr hab. Paweł Olko, Zastępca Dyrektora IFJ PAN ds. Naukowych
• W głąb kosmosu - Cherenkov Telescope Array - Dr hab. Jacek Niemiec, IFJ PAN

13:00-15:00 • Zwiedzanie Centrum Cyklotronowego Bronowice IFJ PAN, w tym cyklotronu Proteus C-235, stanowisk radioterapii protonowej

• Zwiedzanie prototypu teleskopu dla Cherenkov Telescope Array - największego na świecie obserwatorium badającego promieniowanie gamma wysokich i najwyższych energii

Źródło: Instytut Fizyki Jądrowej im. H. Niewodniczańskiego Polskiej Akademii Nauk

Materiałoznawstwo
Efektywna produkcja etanolu z tlenku węgla (22-05-2014)

Nowy typ nanokrystalicznej elektrody miedzianej, który katalizuje elektrochemiczną konwersję tlenku węgla m.in. w etanol (C2H5OH) został wykorzystany przez naukowców ze Stanford University w Stanach Zjednoczonych. Inżynierowie sugerują, że ich badania mogą w przyszłości zapewnić możliwość magazynowania energii pochodzącej ze źródeł odnawialnych oraz uczynić techniki przekształcania gazów zawierających atomy węgla bardziej opłacalnymi. Obiecujące odkrycie może stanowić alternatywą dla konwencjonalnych metod wytwarzania etanolu z roślin.

Etanol (alkohol etylowy) jest coraz częściej reklamowany jako bardziej ekologiczna opcja w porównaniu do paliw kopalnych. Niestety, produkcja biopaliw ma także swoje wady. Uprawy kukurydzy lub innych roślin stosowanych jako surowce zajmują duże powierzchnie, które mogłyby zostać wykorzystane jako tereny dla upraw roślin jadalnych. Ponadto, podobnie jak w przypadku innych roślin zielonych, wymagają one dużych ilości wody i nawozów (w niektórych częściach USA kukurydza do prawidłowego wzrostu potrzebuje nawet około 3028 litrów wody, a uzyskuje się z niej tylko około 11,3 litra etanolu).


Makro miedzi rodzimej rozmiar około 1 ½ cala (4 cm). Fot. Jonathan Zander (Digon3), Wikimedia

Tradycyjna produkcja etanolu przeprowadzana jest w urządzeniach fermentacyjnych z udziałem procesów wysokotemperaturowych. W wyniku reakcji chemicznych, biomasa (kukurydza, trzcina cukrowa i inne rośliny) przetwarzana jest na paliwo ciekłe. Nowa technika zaprezentowana przez Matthew Kanana oraz jego zespół nie wymaga stosowania fermentacji, a jeśli zostanie przeniesiona z laboratorium do skali przemysłowej, może pomóc rozwiązać wiele problemów związanych z konwencjonalnymi metodami fabrykacji etanolu. Szczegółowe wyniki badań dotyczące elektroredukcji tlenku węgla (z ang. carbon oxide, CO) do ciekłego paliwa z użyciem elektrody z nanokrystalicznej miedzi zostały opublikowane w 508 wydaniu czasopisma Nature.

CO2 jest produktem ubocznym wielu naturalnych procesów, jak i skutkiem przemysłowej działalności człowieka. Istnieje wiele katalizatorów, które wspomagają redukcję dwutlenku węgla do tlenku węgla. Niestety, CO także jest gazem, a niska gęstość energetyczna oraz toksyczność dyskwalifikuje tlenek węgla jako materiał opałowy. Dalsza redukcja CO w celu wytworzenia ciekłych paliw, takich jak alkohole jest jednak dużo trudniejsza. Opracowano wiele procesów katalitycznych, w których można wyrabicć alkohole przez połączenie tlenku węgla z wodorem pochodzącym z produkcji gazu ziemnego i gazów towarzyszących ropie naftowej. Niemniej jednak głównym celem naukowców zajmujących się biopaliwami jest użycie czystej wody, jako źródła wodoru. Tego typu reakcje katalizowane są przez miedź, lecz w praktyce większość wodoru z wody wydzielana jest w postaci gazu (H2), zamiast uwodorniania tlenku węgla do wyższych alkoholi.

Badacze ze Stanford University wyprodukowali nową elektrodę z tlenku miedzi (Cu2O). Zwykłe elektrody z powłoką miedzianą powstają na skutek osadzania pojedynczych nanocząsteczek miedzi. Innowacyjne narzędzia również posiadały pokrycie z Cu, ale wytworzone z nanokryształów Cu2O połączonych w ciągłą sieć z dobrze określonymi granicami ziaren. Do przeprowadzenia testów inżynierowie zbudowali komórkę elektrochemiczną - urządzenie składające się z dwóch elektrod umieszczonych w wodzie sztucznie nasyconej tlenkiem węgla. W przypadku standardowej miedzianej elektrody tylko 5% zawartego w wodzie wodoru zostało wykorzystane do redukcji tlenku węgla. Natomiast elektroda z pokryciem z tlenku miedzi była wielokrotnie bardziej efektywna, ponieważ ponad 50% produktu zostało zużyte do syntezy mieszaniny etanolu, octanu, etylenu i propanolu.

Naukowcy podejrzewają, że wyjaśnienie wzrostu efektywności leży w granicach ziaren pomiędzy nanokryształami. Zespół pracuje obecnie nad stworzeniem mapy granic z dokładnością w skali atomowej. Mają nadzieję, że dzięki temu chemicy teoretyczni będą w stanie dokładnie uzasadnić w jaki sposób, w takich miejscach następuje redukcja tlenku węgla.

Inżynierowie są przekonani, że ich tanie i wydajne rozwiązanie zainspiruje innych ludzi do rozwijania katalizatora, przekształcającego tlenek węgla w biopaliwo. Badacze zajmują się obecnie poprawą wydajności produkcji z uwzględnieniem propanolu (posiada on wyższą gęstość energetyczną niż etanol) przez dalsze dostrajanie struktury katalizatora.

MaterialyInzynierskie.pl

Fizyka
Prof. Jagielski: fuzja jądrowa to niewyczerpane źródło energii (22-05-2014)

Dostęp do fuzji termojądrowej umożliwiłby pozyskanie tysiące razy więcej energii, niż obecne zasoby energetyczne Ziemi - podkreśla prof. Jacek Jagielski z Narodowego Centrum Badań Jądrowych. We wtorek w niemieckim Greifswald otwarto urządzenie do badania fuzji.

Stellarator W7-X, czyli urządzenie, które służy do badania plazmy, niezbędnej do przeprowadzenia fuzji termojądrowej, otwarto z udziałem strony polskiej w Instytucie Fizyki Plazmy Max Planck w Greifswald.

"Chcemy mieć prąd, czerpiemy go z różnych źródeł. Energia odnawialna w najbliższej przyszłości będzie stanowić margines. Trzeba też pamiętać, że energie odnawialne będą dość nieprzewidywalne i nie będzie można się na nich bezpiecznie oprzeć, dopóki ktoś nie wynajdzie metody akumulowania gigantycznej ilości energii, np. zasobu energetycznego dla kraju na kilka tygodni. Na razie nikt nie ma na to pomysłu" - zauważył zaangażowany we współpracę nad budową W7-X prof. Jagielski, dyrektor Departamentu Fizyki Materiałów w Narodowym Centrum Badań Jądrowych w Świerku. Przypomniał, że na pewien czas wystarczą paliwa kopalne, a jednocześnie w niektórych krajach budowane są reaktory rozszczepieniowe IV generacji, które zaczną pracować za ok. 30-40 lat.

"Te kraje, które myślą także o pojutrze, starają się opanować fuzję jądrową. Oznaczałaby ona niesamowite powiększenie dostępnych dziś zasobów energetycznych i dałaby ilość energii trudną do wyobrażenia" - podkreślił.

Reakcja fuzji termojądrowej, jądra deuteru i trytu łączą się, powstaje jądro helu, neutron i wydzielana jest energia
1. Reakcja fuzji termojądrowej, jądra deuteru i trytu łączą się, powstaje jądro helu, neutron i wydzielana jest energia

Fuzja termojądrowa to proces połączenia dwóch atomów, np. deuteru z deuterem (D-D) albo deuteru i trytu (D-T), które tworzą inny atom - hel, przy okazji wydziela się energia. Ponieważ jądra atomów mają ładunek dodatni - odpychają się. Do zderzenia można je jednak zmusić, np. kompresując plazmę impulsem laserowym, albo rozpędzając atomy przez podgrzewanie gazu do bardzo wysokiej temperatury, sięgającej 80 albo 100 mln stopni. "Im większa temperatura, tym większa prędkość i szansa, że atomy zdążą się zderzyć" - tłumaczył prof. Jagielski.

Plazmę można podgrzewać mikrofalami, przepuszczając przez nią prąd, albo za pomocą iniektorów, wstrzeliwujących w obszar plazmy rozpędzoną wiązkę atomów deuteru. Po podgrzaniu, plazma zaczyna produkować energię. Podobnie jak w elektrowni węglowej czy atomowej, ciepło odbierane jest za pomocą wody, którą podgrzewa - albo zamienia w parę.

Fuzja odbywa się w zbiorniku w kształcie obwarzanka (torusa), gdzie panuje bardzo niskie ciśnienie. Całe urządzenie jest narażone na bardzo wysoką temperaturę. Plazma jest tak gorąca, że nie może mieć bezpośredniego kontaktu ze ściankami zbiornika - na właściwym miejscu utrzymuje ją pole magnetyczne. Plazma przyjmuje tam kształt sznura, a właściwie kilkakrotnie zwiniętej wstęgi o obwodzie 10 m i ok. metra szerokości.

Jak tłumaczył prof. Jagielski, fuzję można przeprowadzać w różnych urządzeniach - bardziej popularnych tokamakach, lub stellaratorach. "Na razie zakłada się, że planem A na fuzję jądrową jest tokamak. Stellarator jest drugim rozwiązaniem, które jest dopiero testowane" - mówił.

Wtorkowe otwarcie stellaratora W7-X w Niemczech jest jednym z wielu kroków do celu - podkreślił profesor. Zastrzegł, że choć mechanizm reakcji termojądrowej jest znany, to pracujący nad fuzją naukowcy muszą pokonać wiele problemów, np. ustabilizować plazmę w reaktorze, podgrzać ją, a potem odprowadzić energię z reakcji. "Wciąż potrzebna jest diagnostyka plazmy i nowe teorie opisujące zachowanie plazmy w źródłach ujemnie naładowanych jonów. Pewne jest jednak to, że każda kolejna generacja urządzeń jest coraz bardziej sprawna, coraz lepsza i bliższa urządzeniom, które będą produkowały energię" - powiedział.

Dodał, że choć docelowo chodzi o budowę reaktora (który wyprodukuje energię dopiero za kilkadziesiąt lat, a dominującym źródłem energii może się stać za wiek lub dwa), to prace z tym związane "już dziś generują postęp techniczny we wszystkich dziedzinach, które wykonują elementy takich reaktorów".

Na rozwoju badań korzystają też naukowcy, w tym z Polski. "Mogliśmy doczepić się jak zwykle dotychczas do eksperymentów, które wymyślił ktoś inny. Teraz wchodzimy do Komitetu Eksperymentalnego. Możemy proponować własne doświadczenia i mieć wpływ na kierunek badań" - podkreślił prof. Jagielski.

PAP - Nauka w Polsce

Wydarzenia
Efektywne ścieżki komercjalizacji wiedzy – podsumowanie konferencji (20-05-2014)

Jak najwydajniej przekształcać osiągnięcia naukowe w komercyjne produkty przydatne dla przemysłu i każdego człowieka? Nad rozwiązaniami umożliwiającymi efektywny transfer wiedzy dyskutowano w Instytucie Chemii Fizycznej PAN w Warszawie, gdzie właśnie zakończyła się konferencja "Platforma Komercjalizacji Wiedzy".

Konkretne przykłady rozwiązań sprzyjających efektywnemu transferowi osiągnięć naukowych do przemysłu zaprezentowano podczas konferencji "Platforma Komercjalizacji Wiedzy", która odbyła się w Instytucie Chemii Fizycznej Polskiej Akademii Nauki (IChF PAN) w Warszawie. Konferencję zrealizowano dzięki środkom europejskiego grantu NOBLESSE.

Uczestnicy konferencji "Platforma Komercjalizacji Wiedzy" dyskutowali w Instytucie Chemii Fizycznej PAN w Warszawie o problemach związanych z transferem osiągnięć naukowych do przemysłu. (Źródło: IChF PAN, Grzegorz Krzyżewski)
1. Uczestnicy konferencji "Platforma Komercjalizacji Wiedzy" dyskutowali w Instytucie Chemii Fizycznej PAN w Warszawie o problemach związanych z transferem osiągnięć naukowych do przemysłu. (Źródło: IChF PAN, Grzegorz Krzyżewski)

"Rolą instytutów naukowych nie jest zakładanie i prowadzenie spółek typu spin-off. Instytuty powinny być przede wszystkim odpowiedzialne za wytworzenie kreatywnej atmosfery, w której sami twórcy wiedzy będą chcieli zakładać spin-offy", podkreślił podczas otwarcia konferencji prof. dr hab. Robert Hołyst, dyrektor IChF PAN.

W trakcie konferencji omówiono m.in. funkcjonowanie Korpusu Innowacji - zespołu w IChF PAN zajmującego się oceną projektów aplikacyjnych przedstawianych przez naukowców i przetwarzaniem ich w wykonalny model biznesowy, sprofilowany adekwatnie do potrzeb konkretnego inwestora.

"Korpus Innowacji ma wspomóc zarówno naukowców naszego instytutu, jak i potencjalnych inwestorów. Tym ostatnim znacznie łatwiej przecież podejmować decyzje, gdy widzą gotowe koncepcje biznesowe", stwierdziła Agnieszka Tadrzak z IChF PAN.

Podczas konferencji omówiono m.in. działania i osiągnięcia spin-offów, które powstały w IChF PAN po nowelizacji ustawy w 2010 roku, umożliwiającej instytutom Polskiej Akademii Nauk udział w spółkach komercjalizujących wynalazki. Scope Fluidics, pierwszy spin-off w strukturach PAN po nowelizacji, zajmuje się budową analizatora przeznaczonego do analizy od kilku do kilkunastu parametrów biochemicznych krwi lub innego płynu ustrojowego pacjenta. Trwa wdrożenie aparatu do produkcji, w nieodległej przyszłości zostanie on wprowadzony do obrotu przez firmę Cormay. Niewielkie rozmiary, łatwość obsługi, krótki czas realizacji badania i niska cena powodują, że przyrząd będzie mógł trafić nie tylko do małych klinik, ale nawet do indywidualnych gabinetów lekarskich.

"W trakcie prac prowadzonych w Scope Fluidics opracowaliśmy innowacyjne metody matematyczne prowadzenia cyfrowych oznaczeń diagnostycznych. W celu dalszego rozwoju tych technik powstała nowa spółka", mówił dr hab. Piotr Garstecki, dyrektor zarządzający Curiosity Diagnostics. Ten nowy spin-off zatrudnia obecnie grupę inżynierów i biochemików, którzy koncentrują się na opracowaniu prototypowych urządzeń diagnostycznych i laboratoryjnych. Działaniom zespołu przyglądają się już kilka globalnych firm specjalizujących się w produkcji aparatury diagnostycznej.

W trakcie konferencji wielokrotnie podkreślano, jak wielką rolę w rozwoju spółek technologicznych odgrywa stymulujące środowisko i jak ważne dla budowania kultury przedsiębiorczości akademickiej są działania podobne do podejmowanych przez Instytut Chemii Fizycznej PAN na rzecz budowy parków naukowych w Warszawie.

Konferencję "Platforma Komercjalizacji Wiedzy" zakończyła sesja posterowa.

Źródło: Instytut Chemii Fizycznej Polskiej Akademii Nauk.

Informatyka
Umożliwianie nowatorskich badań nad Internetem przyszłości (20-05-2014)

Problem z wizjonerskimi badaniami polega na tym, że często nie wychodzą one na światło dzienne. Obiekty są nierzadko po prostu niedostępne lub nie można znaleźć ekspertów potrzebnych do przetestowania teorii naukowych. Tak się rzeczy mają w wielu dziedzinach naukowych, nie wyłączając awangardowych rozważań nad przyszłością Internetu.

Powyższe zagadnienia są przedmiotem dofinansowanego ze środków unijnych dwuletniego projektu SMARTFIRE. W ramach rozpoczętego w listopadzie 2013 r. przedsięwzięcia mają powstać obiekty eksperymentalne na wielką skalę, nadające się do przeprowadzania nowatorskich badań nad przyszłością Internetu i sprzyjające międzynarodowej współpracy między UE a Koreą Południową. W ten sposób Europa ma w tej dziedzinie utrzymać się w czołówce.

Europa nie może sobie pozwolić na pozostanie w tyle w badaniach nad Internetem. W końcu Internet jest w coraz szerszym wymiarze wykorzystywany do wykonywania wielu zadań, od bankowości internetowej po monitoring tsunami. Przyszłe sieci będą szybsze, bardziej elastyczne i coraz lepiej odpowiadające na potrzeby ludzi i maszyn. W niedalekiej przyszłości inteligentne urządzenia mogą być w stanie komunikować się ze sobą, ubrania - monitorować stan naszego zdrowia, a samochody mogą stać się odporne na wypadki. Utrzymanie się w czołówce ma zatem kluczowe znaczenie.

W projekt, który otrzymał niemal 0,5 mln EUR dofinansowania z UE, zaangażowało się dziesięciu partnerów z UE, Korei Południowej i międzynarodowy współpracownik z Australii. Pierwszy etap polegał na ocenie oczekiwań, jakie stawiane są obecnie Internetowi, by określić przyszły potencjał tej technologii i wyznaczyć kierunek nowych badań.

W trakcie budowy jest wspólny obiekt doświadczalny zlokalizowany w Europie i Korei Południowej, którego zadaniem będzie wspomaganie wspólnego eksperymentowania przez partnerów projektu. Idea polega na umożliwieniu wybitnym ekspertom z tej dziedziny obmyślania i implementacji innowacyjnych pomysłów przy wykorzystaniu najbardziej zaawansowanych spośród dostępnych obiektów. SMARTFIRE dąży do wypracowania wspólnego i zunifikowanego sposobu przeprowadzania doświadczeń z tak dużym obiektem eksperymentalnym. Dzielenie się zasobami i wiedzą ekspercką również odzwierciedla globalny zasięg i jednoczący potencjał Internetu.

Cała infrastruktura badawcza SMARTFIRE przejdzie walidację na podstawie dwóch rzeczywistych scenariuszy, mających wykazać pełny potencjał połączenia badan europejskich i południowo-koreańskich. Wybór scenariuszy podyktowany był bieżącymi trendami w doświadczeniach badawczych.

Pierwszy scenariusz polega na agregacji rozproszonych pomiarów Internetu rzeczy i ich przetwarzaniu. Pojęcie "Internet rzeczy" stosuje się do opisania zaawansowanej dołączalności urządzeń, systemów i usług, gdzie obiekty są wyposażone w identyfikatory i mogą być zarządzane przez komputery. Kluczowym aspektem tego scenariusza jest wykazanie, jak rozproszone pomiary zebrane z oddalonych lokalizacji będą przechowywane i przetwarzane w systemie chmury obliczeniowej, do którego użytkownik końcowy będzie mieć transparentny dostęp, bez jakiejkolwiek wiedzy o jego lokalizacji.

Drugi scenariusz polega na transmisji strumieniowej wideo w różnych technologiach. W tym scenariuszu zespół projektowy przeanalizuje, jak różne technologie i zatory na oddalonych łączach interkontynentalnych mogą osłabiać aplikacje transmisji strumieniowej wideo i jak można zaradzić temu problemowi.

Źródło: CORDIS, UE. Ilustracja: freedigitalphotos.net

Ekologia
Biomasa: problem ze zrównoważeniem (20-05-2014)

Biomasa stanowi niemal połowę całej, zużywanej przez nas energii odnawialnej i ma także pomóc w osiągnięciu celu UE w zakresie energii odnawialnej do 2020 r. Wraz z coraz wyższą temperaturą politycznej debaty nad bezpieczeństwem energetycznym, biomasa zaczyna być wskazywana jako główny zastępnik gazu ziemnego i ciepłownictwa. Ale na ile jest ona zrównoważona? Eksperci naukowi, decydenci oraz przedstawiciele NGO i podmiotów branżowych postawili to pytanie na konferencji Europejskiego Towarzystwa Biomasy (AEBIOM), która odbyła się niedawno w Brukseli.

Różnica między biomasą a paliwami kopalnymi wiąże się ze skalą czasu. Według ośrodka Biomass Energy Centre, pod warunkiem zrównoważonego zarządzania, biomasa jest zbierana jako część stale uzupełnianych upraw. W ten sposób utrzymywany jest zamknięty obieg węgla bez wzrostu netto poziomów atmosferycznych CO2.

Jednak wizja zamkniętego obiegu węgla w przypadku biomasy nie zawsze może być osiągalna. Ponadto pytanie o zrównoważenie wykracza poza same emisje CO2, gdyż obejmuje również inne problemy, takie jak bioróżnorodność i bezpieczeństwo żywnościowe.


Zrębka wierzby energetycznej - biomasa spalana w polskich elektrowniach

W czasie konferencji AEBIOM, przedstawiciele Komisji Europejskiej wielokrotnie przytaczali wniosek Komisji, że nie ma konieczności wprowadzania obowiązujących kryteriów zrównoważenia dla biomasy stałej i gazowej, by osiągnąć cele na rok 2020.

Giulio Volpi z DG ds. Energii zauważył: "Zagrożenia ze strony niezamierzonego oddziaływania [biomasy] na środowisko mogą być rozwiązywane i minimalizowane za pomocą istniejących lub nowych środków UE w innych dziedzinach, niekoniecznie z dziedziny energii... Biomasa ma ogromny potencjał, który należy wykorzystać i musimy zadbać, aby ramy polityki wspomagały biomasę".

Niemniej biomasa pozostaje wyraźnym wyzwaniem dla sektora. Peter Wilson reprezentujący branżową inicjatywę Sustainable Biomass Partnership (SBP), wskazał na niewystarczające stosowanie istniejących mechanizmów zapewniania zrównoważenia (FSC i PEFC) w ważnych obszarach pozyskiwania drewna. Przedstawił opracowywane przez SBP ramy dostarczania biomasy (ang. Biomass Assurance Framework) jako "rozwiązanie pomostowe", oferujące zbiór norm i procesów, które umożliwią przedsiębiorstwom z sektora wykazanie zgodności z wymogami w zakresie prawa, nadzoru i zrównoważenia za pomocą istniejących mechanizmów.

Uwe Fritsche z International Institute for Sustainability Analysis and Strategy (IINAS) podzieliła się perspektywą naukową, wymieniając szereg problemów, z jakimi przyjdzie nam się zmierzyć w trakcie próby przechodzenia na biogospodarkę, w której biomasa jest istotnym komponentem. Są to: emisje gazów cieplarnianych z powodu zmiany użytkowania gruntów i zmiany zasobów węgla; problemy z bioróżnorodnością związane z przekształcaniem użytków zielonych, terenów podmokłych i torfowisk; bezpieczeństwo żywnościowe oraz kwestie własności gruntów i zakwaszenia.

Uwe Fritsche wskazał także na "sprawę paliwa". "Im bardziej zwiększamy handel bioenergią i im wyżej cenimy produkty leśne, pojawia się ryzyko przyjęcia niewłaściwego spojrzenia na niektóre paliwa potrzebne do życia wielu ludziom na tej planecie".

Instytut IINAS pracuje obecnie wraz z unijnym Wspólnym Centrum Badawczym (JRC), Europejską Agencją Środowiska (EEA) i innymi podmiotami nad uwzględnieniem najnowszych osiągnięć naukowych dotyczących tych kwestii. Uwe Fritsche poinformował, że toczą się rozmowy nad ewentualnym opracowaniem matrycy do identyfikacji ryzyka związanego z następstwami gazów cieplarnianych, powstających przy użytkowaniu produktów leśnych.

IINAS bierze również udział w jednym z wielu dofinansowywanych ze środków unijnych projektów poświęconych analizie potencjału i zrównoważenia biomasy. Zadanie postawione przed S2BIOM to poprawa zrównoważenia łańcucha dostaw biomasy. Zespół S2BIOM, który powstał we wrześniu 2013 r., pracuje nad zaprojektowaniem i ewaluacją optymalnych łańcuchów dostaw biomasy oraz strategii wspomagających zrównoważoną dostawę surowca do produkcji biomasy na szczeblu lokalnym, regionalnym i paneuropejskim.

Źródło: CORDIS, UE

Fizyka
Soczewka kontaktowa pozwoli na ostre widzenie z każdej odległości (19-05-2014)

Soczewkę, która pozwala na wyraźne widzenie z każdej odległości, opracowali fizycy z Politechniki Warszawskiej. Soczewki o takich właściwościach pozwoliłyby - zwłaszcza osobom starszym - skuteczniej radzić sobie ze starczowzrocznością.

Transmitancja fazowa soczewki "miecz świetlny". Źródło: dr Krzysztof Petelczyc
1. Transmitancja fazowa soczewki "miecz świetlny". Źródło: dr Krzysztof Petelczyc

Kiedy oko patrzy na jeden punkt, obiekty w innych odległościach tracą ostrość. Tak być jednak nie musi. Pomóc może nowa soczewka, dzięki której wyraźne będzie w tym samym momencie dokładnie wszystko w zasięgu naszego wzroku. Naukowcy z Wydziału Fizyki PW chcą wykorzystać to rozwiązanie w implantach wewnątrzgałkowych, wszczepianych przy leczeniu katarakty, a także opracować soczewki kontaktowe dla osób starszych, których wzrok pogorszył się z wiekiem.

Zdrowe ludzkie oko pozwala widzieć wyraźnie i obiekty będące blisko, i te znajdujące się daleko. Jest to możliwe dzięki akomodacji, a więc zdolności soczewki oka do zmiany kształtu. Dzięki temu mechanizmowi zmienia się ogniskowa, a więc odległość, w jakiej skupiane jest światło przechodzące przez soczewkę. Z wiekiem jednak możliwości akomodacyjne oka spadają - zjawisko to nazywa się prezbiopią czy też starczowzorcznością - i narząd przestaje się dobrze spisywać, zwłaszcza przy widzeniu z bliska. Dlatego też z biegiem lat coraz więcej osób musi się w czasie czytania wspomagać okularami.


Porównanie obrazu widzianego przy starczowzroczności z obrazem widzianym przez soczewkę. Źródło: dr Krzysztof Petelczyc

W radzeniu sobie ze starczowzrocznością pomagają najczęściej okulary do bliży. Nie widać jednak przez nie obiektów bardziej odległych, więc korzysta się z nich tylko do czytania. Innym rozwiązaniem są szkła kilkuogniskowe. Zazwyczaj dolna część takiej soczewki jest przeznaczona do widzenia z bliska, a górna - do widzenia z daleka. W okularach progresywnych jest jeszcze dodatkowo środkowa część - do odległości pośrednich. Żadne z tych rozwiązań nie pozwala jednak na to, by osoba z prezbiopią wyraźnie widziała obiekty w całym zakresie odległości jednocześnie.


Schemat obrazowania za pomocą miecza świetlnego. Źródło: dr Krzysztof Petelczyc

Powierzchnie soczewki do widzenia z bliska są wycinkami sfer. Im bliżej jest do środka soczewki, tym jest ona grubsza. Tymczasem soczewki, nad którymi pracują warszawscy fizycy, mają dość osobliwy kształt. Jeśli porównalibyśmy soczewkę do tarczy zegara, to z każdą godziną soczewka płynnie zmienia swoją moc od zera do 3 dioptrii i staje się coraz bardziej zakrzywiona. Na godzinie dwunastej następuje jednak schodek i część bardziej płaska soczewki łączy się z częścią bardziej wypukłą.


Miecz świetlny - wizualizacja. Źródło: dr Krzysztof Petelczyc

Dzięki tej szczególnej budowie soczewka inaczej przepuszcza światło. O ile światło przechodzące przez soczewkę do bliży skupiane jest tylko w jednym punkcie - w tzw. ognisku, o tyle "ognisko" soczewki z PW ma postać nie jednego punktu, ale całego odcinka za soczewką. "My nazywamy to mieczem świetlnym" - opowiada w rozmowie z PAP kierownik jednego z projektów badawczych dotyczących nowatorskich soczewek, dr inż. Krzysztof Petelczyc z Wydziału Fizyki Politechniki Warszawskiej. Wyjaśnia, że dzięki temu można będzie widzieć z każdej odległości z taką samą ostrością, nawet jeśli oko utraci swą zdolność akomodacyjną.


Miecz świetlny - wizualizacja. Źródło: dr Krzysztof Petelczyc

Tak zbudowana soczewka sprawiłaby, że ostre byłyby nie tylko przedmioty, na których skupiamy w danym momencie wzrok, ale i te w każdej innej odległości. "Nie wiadomo dokładnie, jak reagować będzie na to mózg i jak człowiek będzie się czuł w takiej soczewce, dlatego zanim soczewka trafi na rynek, będzie musiała przejść dokładne badania z udziałem m.in. neurofizjologów i psychologów - opowiada Petelczyc. - Mózg jest jednak bardzo plastyczny. Mamy więc nadzieję, że łatwo się do takich soczewek zaadaptuje". Na razie testy z udziałem kamer wykazują, że taka soczewka spisywać się będzie bardzo dobrze.

Pierwszy prototyp miecza świetlnego. Źródło: dr Krzysztof Petelczyc
2. Pierwszy prototyp miecza świetlnego. Źródło: dr Krzysztof Petelczyc

"Z budową takiej soczewki związana jest niestety pewna niedogodność - obraz, który przez nią przechodzi, jest wyraźny, ale traci trochę ze swojego kontrastu" - przyznaje badacz z PW i wyjaśnia, że obraz jest jakby za delikatną mgłą. Jego zdaniem to nie powinno powodować u użytkownika dużego dyskomfortu.

Na razie fizycy z PW opracowali prototypową soczewkę okularową i zastanawiają się, jak wytworzyć działającą soczewkę kontaktową. Jest to trudne o tyle, że konieczne będą inne techniki niż te stosowane do produkcji zwykłych soczewek. Pewnym problemem jest też znajdujący się na soczewce schodek, który mógłby zmniejszać komfort jej użycia. Badacze przyznają jednak, że będzie on miał w soczewce kontaktowej grubość rzędu kilkudziesięciu mikronów, więc nie powinien znacznie wpływać na wygodę noszenia soczewki.

Typowy obraz tworzony przez miecz świetlny. Źródło: dr Krzysztof Petelczyc
3. Typowy obraz tworzony przez miecz świetlny. Źródło: dr Krzysztof Petelczyc

"Soczewki będzie można łączyć z dowolnymi innymi mocami optycznymi" - zaznacza Petelczyc. Dzięki temu z rozwiązania korzystać będą mogły również osoby, które szkieł potrzebują również do widzenia z daleka.

Ideę "miecza świetlnego" opracowali już ponad 25 lat temu polscy naukowcy - profesorowie Andrzej Kołodziejczyk, Zbigniew Jaroszewicz, Maciej Sypek, wspólnie z prof. Salvadorem Bará (Universidade de Santiago de Compostela, Hiszpania). Zespół dr. Petelczyca we współpracy z tymi badaczami postanowił sprawdzić, jak pomysł ten zastosować w praktyce. Badania finansowane są w ramach Programu Badań Stosowanych Narodowego Centrum Badań i Rozwoju, a także Juventus Plus Ministerstwa Nauki i Szkolnictwa Wyższego.

PAP - Nauka w Polsce, Ludwika Tomala


Archiwum (starsze -> nowsze) [1] [2] [3] [4] [5] [6] [7] [8] [9] [10]
[11] [12] [13] [14] [15] [16] [17] [18] [19] [20]
[21] [22] [23] [24] [25] [26] [27] [28] [29] [30]
[31] [32] [33] [34] [35] [36] [37] [38] [39] [40]
[41] [42] [43] [44] [45] [46] [47] [48] [49] [50]
[51] [52] [53] [54] [55] [56] [57] [58] [59] [60]
[61] [62] [63] [64] [65] [66] [67] [68] [69] [70]
[71] [72] [73] [74] [75] [76] [77] [78] [79] [80]
[81] [82] [83] [84] [85] [86] [87] [88] [89] [90]
[91] [92] [93] [94] [95] [96] [97] [98] [99] [100]
:
 
 :
 
  OpenID
 Załóż sobie konto..
Wyszukaj

Wprowadzenie
Indeks artykułów
Książka: Racjonalista
Napisz do nas
Newsletter
Promocja Racjonalisty

Racjonalista w Facebooku
[ Regulamin publikacji ] [ Bannery ] [ Mapa portalu ] [ Reklama ] [ Sklep ] [ Zarejestruj się ] [ Kontakt ]
Racjonalista © Copyright 2000-2018 (e-mail: redakcja | administrator)
Fundacja Wolnej Myśli, konto bankowe 101140 2017 0000 4002 1048 6365