BIULETYN Nr. 146 - MARZEC 2006

SPIS TREŚCI

POLACY STWORZYLI PIERWSZE WIRTUALNE LABORATORIUM

Poznańscy informatycy stworzyli pierwsze na świecie Wirtualne Laboratorium. Dzięki niemu naukowcy będą mogli wykonywać skomplikowane eksperymenty na specjalistycznym sprzęcie bez wychodzenia z domu, przez internet

Przypuśćmy, że doktorant z Akademii Rolniczej w Lublinie jest bliski sensacyjnego naukowego odkrycia z dziedziny chemii i musi jedynie potwierdzić swoje przypuszczenia eksperymentem na spektrometrze Bruker 600 MHz. Jedyne tak czułe urządzenie w naszym kraju znajduje się w Instytucie Chemii Bioorganicznej w Poznaniu. Doktorant musiałby więc umówić się, przyjechać, wykonać na miejscu badania, a potem ich wyniki wziąć ze sobą i opracować w Lublinie.

Wirtualne Laboratorium pozwala mu przeprowadzić cały eksperyment zdalnie - wystarczy, że naukowiec prześle do Poznania próbki materiałów do zbadania. Na dodatek, nie ruszając się z miejsca, może na swoim komputerze opracować wyniki i przesłać je do bazy danych - Naukowej Biblioteki Cyfrowej. Może też na bieżąco, sekunda po sekundzie, śledzić przebieg eksperymentu. Program Wirtualnego Laboratorium jest prosty w obsłudze. Nawet najbardziej skomplikowany eksperyment można w nim przeprowadzić za pomocą myszy komputerowej. Wystarczy tylko zalogować się do programu, wpisać hasło i podać scenariusz badania.

Pobudka, koniec eksperymentu

Możliwości laboratorium są olbrzymie. Specjalistyczne urządzenia, takie jak wspomniany spektrometr, połączono bowiem siecią światłowodową o przepustowości co najmniej 1 GB. Światłowody łączą ze sobą pięć centrów komputerów dużej mocy obliczeniowej znajdujących się w Warszawie, Gdańsku, Poznaniu, we Wrocławiu i w Krakowie. - To jest coś więcej niż tylko dostęp do samego urządzenia - podkreśla Marcin Lawenda z Poznańskiego Centrum Superkomputerowo-Sieciowego (PCSS), które opracowało projekt Wirtualnego Laboratorium.

A jeśli naukowiec nie ma czasu śledzić przebiegu eksperymentu? - Może się wylogować i iść spać. O zakończeniu badania zostanie powiadomiony e-mailem - zaznacza Norbert Meyer, który kieruje działem komputerów dużej mocy. Wyniki eksperymentu można uzyskać wielokrotnie szybciej niż dotychczas. Dane do autora wędrują w formie elektronicznej. - To kapitalny przykład e-nauki. Zyskaliśmy całkowicie nowe narzędzie badawcze. Dzięki temu wyrównujemy też szanse tych zespołów naukowych, które takimi urządzeniami nie dysponują - zapewnia dr Maciej Stroiński, koordynator projektu. Pracownicy PCSS są przekonani, że po dokonaniu kilku korekt program będzie mógł trafić do szkół i stać się cenną pomocą dydaktyczną.

Składka na tomograf

Obecnie do sieci światłowodowej Wirtualnego Laboratorium podłączone są cztery urządzenia: dwa spektrometry oraz dwa radioteleskopy (jeden 32-metrowy w Piwnicach pod Toruniem, drugi w Mexico City). Astronom może na odległość poruszać teleskopem, by zobaczyć interesujący go fragment nieba! W przyszłości podłączone zostaną również mikroskopy elektronowe, a także tomografy, co ułatwiłoby lekarzom stawianie diagnoz. Do miejscowości, gdzie jest tomograf, mógłby jechać tylko pacjent. Znający go dobrze lekarz z lokalnej przychodni badałby go na odległość.

Właśnie cena takich przyrządów jak tomograf czy mikroskop elektronowy (każdy z nich kosztuje kilka milionów złotych) powoduje, że są one w Polsce nieliczne i znajdują się tylko w największych placówkach naukowych i medycznych. Dzięki Wirtualnemu Laboratorium na zakup takiego urządzenia może się złożyć kilka instytucji, a potem wspólnie z niego korzystać. Do sieci można podłączyć dowolną liczbę urządzeń - pod tym względem system nie ma żadnych ograniczeń.

Wirtualne Laboratorium jest obsługiwane w języku angielskim. Zaprojektowano je tak, aby każdy, kto chce miećpark do niego dostęp, nie musiał instalować na swoim komputerze dodatkowych narzędzi. Program gwarantuje także bezpieczeństwo - jego użytkownik musi mieć certyfikat, jest wcześniej dokładnie sprawdzany. - To są bardzo drogie urządzenia, dlatego do systemu nie może wejść osoba z ulicy - mówi Stroiński. Podkreśla, że program to unikat w skali światowej. - Jest entuzjastycznie przyjmowany i doceniany na każdej konferencji, na której jest prezentowany. Nad takim oprogramowaniem pracują także za granicą, ale tylko nasze działa - podkreśla.

Adres Wirtualnego Laboratorium: http://vlab.psnc.pl/

Jacek Łuczak
Gazeta Wyborcza 2005-12-22

Początek strony

JAGIELLOŃSKI PARK

Spółka Jagiellońskie Centrum Innowacji (JCI) pozyskała 40 milionów złotych z Funduszy Strukturalnych (SPO-WKP) na realizację pierwszego etapu projektu Utworzenia Parku i Inkubatora Technologii. Inwestycja będzie realizowana w specjalnej strefie ekonomicznej w Krakowie w okolicach III kampusu w Pychowicach. Wartość całego projektu szacuje się na ponad 50 milionów złotych. Brakujące środki uzupełni dokapitalizowanie JCI przez jedynego udziałowca - Uniwersytet Jagielloński. Projekt JCI to pierwsze tego typu przedsięwzięcie w Europie Środkowej, skierowane na tworzenie i rozwój przedsiębiorstw hi-tech w sektorach biotechnologii i biomedycyny oraz na rozwój i komercyjne wdrożenia bio-produktów we współpracy z przemysłem. JCI, jak i koncepcja utworzenia Parku i inkubatora wyspecjalizowanego w dziedzinie nauk Przyrodniczych (Life-Science), wywodzi się z działań Centrum Innowacji Transferu Technologii i Rozwoju Uniwersytetu (CITTRU) - jednostki uniwersyteckiej powołanej do kreowania współpracy nauki i biznesu. Decyzja o realizacji tak specyficznego projektu została poprzedzona porównaniem go do bieżącej sytuacji na świecie oraz analizą rynku parków i inkubatorów technologii w Polsce.

Opracowanie przedstawił specjalistyczny zespół konsultantów polsko-brytyjskich. Dodatkowo na zamówienie sporządzony został przez firmę Colliers International raport badający popyt na specjalistyczną powierzchnię laboratoryjną w Polsce. Okazuje się, iż zainteresowanie projektem wykazują zwłaszcza firmy amerykańskie. Raport jednoznacznie wskazuje, że jednym z najważniejszych elementów strategii Spółki powinna być promocja polskich projektów badawczych (Life-Science).

Pre-inkubator to przede wszystkim zaplecze biurowe oraz wyposażenie niezbędne do rozpoczęcia działalności przez nowopowstałe firmy, zakładane zarówno przez pracowników, jak i studentów Uniwersytetu. JCI zaoferuje też pomoc w dostępie do laboratoriów i sprzętu laboratoryjnego, będących w posiadaniu Uniwersytetu Jagiellońskiego. Projekt obejmuje również stworzenie preferencyjnych narzędzi ekonomiczno-prawnych wspomagających przedsiębiorczość wśród studentów oraz kadry badawczo-naukowej. Swoje miejsca znajdą tam firmy z każdej dziedziny nauki. Powstała powierzchnia pomieści około 20 małych firm, a otwarcie pre-inkubatora planuje się z początkiem 2006 roku. Projekt główny - budowa Parku i Inkubatora obejmuje stworzenie specjalistycznej infrastruktury związanej z badaniami w dziedzinie Life-Science. Inwestycja zakłada powstanie dwóch budynków, tj. zasadniczego oraz pomocniczego o łącznej powierzchni 5000 metrów kwadratowych (brutto). W budynku zasadniczym o całkowitej powierzchni 4000 metrów kwadratowych (brutto) powstanie około 2200 metrów kwadratowych pomieszczeń laboratoriów klasy II/B oraz przestrzenie biurowe. W założeniu każdy moduł będzie miał średnią wielkość około 100 metrów kwadratowych, a w praktyce wielkość tę będzie można regulować w zależności od potrzeb. Powstała powierzchnia laboratoriów i biur pomieści około 17-25 firm lub projektów badawczych i pozwoli na zatrudnienie około 150 naukowców. Pozostała część zostanie przeznaczona na działalność usługową: wynajem dwóch sal konferencyjnych, sali spotkań, działalność gastronomiczną. W budynku pomocniczym o powierzchni całkowitej 1000 metrów kwadratowych (brutto) powstanie około 700 metrów kwadratowych powierzchni laboratoryjnej o niższym standardzie przeznaczonej np. na zwierzętarnię lub inne zastosowania laboratoryjne sprzętu specjalistycznego (np. tomografia, rezonans magnetyczny). Otwarcie całego obiektu planowane jest z początkiem roku 2008. W pierwszej kolejności zostanie wyłoniona firma do zarządzania całym projektem. Następnie ogłoszony zostanie przetarg na firmę architektoniczną wraz z firmą budowlaną, co znacznie przyspieszy realizację inwestycji. Rozpoczęcie prac budowlanych planuje się na przełomie pierwszego i drugiego kwartału 2006 roku.

Realizacja powyższego projektu pozwoli przede wszystkim na zaoferowanie infrastruktury laboratoryjnej, zgodnej z międzynarodowymi normami (z zachowaniem wytycznych Wellcome Trust dla obiektów badawczych, Good Laboratory Practice, Good Manufacturing Practice). Oferta ta w połączeniu z zasobami naukowymi, jakie istnieją w Małopolsce, pozwoli na poszukiwanie potencjalnych inwestorów nieobecnych dotąd w Polsce z powodu braku odpowiedniej infrastruktury technologicznej. Spowoduje to wzrost zainteresowania naszym regionem oraz zasobami ludzkimi uczelni zlokalizowanych na jego terenie. Dzięki takiej inwestycji, Kraków ma szansę dominować nie tylko w dziedzinie outsourcingu informatycznego czy finansowego, ale również w wymagającej dziedzinie badań medycznych i biotechnologicznych. Projekt JCI to również nowoczesny model zarządzania Parkiem i Inkubatorem. Docelowo głównym źródłem przychodów spółki będzie sprzedaż usług (pozyskiwanie finansowania na projekty badawcze, zarządzanie patentami itp.), natomiast udział przychodów z wynajmu powierzchni, stanowić będzie poniżej połowy w strukturze. Trzecie źródło przychodów to inwestycje w spółki typu spin-off, które długoterminowo stanowić będą średnio poniżej czwartej części przychodów. Dzięki światowej klasy infrastrukturze laboratoryjnej, Park i Inkubator Technologiczny JCI zaoferuje dodatkowo klientom z sektora biotechnologii i biomedycyny dostęp do szeroko pojmowanego otoczenia naukowego i gospodarczego oraz zintegrowane środowisko rozwojowe. Potencjalni użytkownicy będą mieli zagwarantowany kompleksowy dostęp do usług specjalistycznych oraz zaplecza, które zapewnią im optymalne warunki do prowadzenia działalności na wszystkich etapach procesu innowacyjności. Jagiellońskie Centrum Innowacji Sp. z o.o. dzięki głównemu udziałowcowi Uniwersytetowi Jagiellońskiemu, posiada możliwości swobodnego kontaktu i dostępu do zasobów ludzkich uczelni, które przy odpowiedniej organizacji i zaangażowaniu kapitału mogą w znacznym stopniu przyczynić się do efektywnego rozwoju nauk Life-Science w regionie.

Paweł Błachno
Alma Mater, październik 2005 r.

Początek strony

POKONAJĄ NAS KOMPUTERY?

Straszne skutki podwajania

W tym stuleciu powstaną komputery znacznie przewyższające swoimi możliwościami ludzki mózg, a Homo sapiens w znanej nam postaci być może w ogóle zniknie. Taka wizja wynika ze sformułowanego 40 lat temu prawa Moore'a, które, jak dotąd, sprawdza się bez zarzutu.

10 tys. dol. zapłacił Intel, światowy potentat w produkcji procesorów komputerowych, za odnaleziony w prywatnym archiwum oryginalny egzemplarz amerykańskiego miesięcznika "Electronics" z 19 kwietnia 1965 r. Co było tak cennego w tym starym numerze? Artykuł Gordona Moore'a, jednego z założycieli Intela i współwynalazcy układów scalonych (chipów), przewidujący lawinowy rozwój techniki wytwarzania mikroprocesorów. Chipy wykonane są z krzemu i składają się z miniaturowych półprzewodnikowych diod, tranzystorów i innych elementów. Dzięki nim do lamusa odeszły m.in. lampowe radia i telewizory oraz zajmujące całe piętra budynków lampowe komputery.

Gordon Moore na łamach "Electronics" postawił śmiałą na owe czasy tezę: liczba tranzystorów w chipie będzie się podwajała co 24 miesiące, co spowoduje dalszą miniaturyzację elektroniki oraz zwiększenie wydajności pojedynczych układów scalonych. Tak narodziła się prognoza, która z czasem zyskała miano prawa Moore'a. Ku zaskoczeniu jego twórcy działa ono nieprzerwanie do dziś. Lekka korekta nastąpiła w latach 70., gdy okazało się, że podwojenie liczby tranzystorów w chipach następuje już co 18 miesięcy.

Ba! Prawo Moore'a przestało być prostą zasadą rozwoju elektroniki. Za sprawą grupy futurologów i wynalazców związanych z przemysłem komputerowym urosło ono do rangi metafizycznej zasady opisującej nie tylko postęp technologiczny, ale całą ewolucję życia na Ziemi!

Prorok Kurzweil

Najpierw przypomnijmy to, czego Moore nie przewidział. Chodzi mianowicie o mikrokomputery. W połowie lat 70. w gabinecie Moore'a, wówczas prezesa Intela, pojawił się pewien pracownik koncernu, który postanowił zaprezentować swój oryginalny pomysł. Intel produkował wówczas mikroprocesory wykorzystywane w rozmaitych urządzeniach elektronicznych (np. wagach). Ów człowiek wpadł na pomysł, by mikroprocesor stał się sercem niedużego komputera wyposażonego dodatkowo w klawiaturę i monitor. Byłoby to urządzenie przeznaczone dla masowego odbiorcy. A po co zwykłym ludziom coś takiego? - spytał Moore. Speszony pomysłodawca odpowiedział, że z pewnością przydałoby się gospodyniom domowym na przykład do przechowywania przepisów kulinarnych. Ta odpowiedź zniechęciła Moore'a, który szybko zapomniał o ekstrawaganckim pomyśle. Jak sam dziś przyznaje, popełnił kolosalny błąd. Kilka lat później firma IBM wypuściła na rynek pierwszy komputer osobisty, którego sercem, o ironio, był właśnie mikroprocesor Intela.

Odtąd co 18 miesięcy podwaja się szybkość działania komputerów i pojemność ich pamięci. Fakt ten niezwykle zaintrygował amerykańskiego wynalazcę Raya Kurzweila, który ma na swoim koncie m.in. stworzenie programów komputerowych odczytujących druk, płaskiego skanera oraz syntezatora potrafiącego wiernie naśladować dźwięki rozmaitych instrumentów. Za te osiągnięcia otrzymał on w 1999 r. od prezydenta Clintona National Medal of Technology - najwyższe amerykańskie wyróżnienie w dziedzinie techniki.

Prawo Moore'a nie ma charakteru liniowego, ale wykładniczy. Co to oznacza? Kurzweil przypomina w jednym ze swoich artykułów legendę o starożytnym wynalazcy szachów. Za swoją nową grę, która zachwyciła władcę, zażądał on zapłaty w ziarnach ryżu. Poprosił mianowicie, by na pierwszym polu szachownicy położono jedno ziarno, na następnym dwa, na kolejnym dwa razy więcej. Ponieważ władca intuicyjnie myślał liniowo, bez wahania się zgodził. I bardzo szybko tego pożałował. Na przedostatnim, 63 polu szachownicy musiałby bowiem położyć astronomiczną liczbę 18 milionów trylionów ziaren ryżu. By uzyskać tyle ziarna, należałoby obsiać całe trzy Ziemie (łącznie z oceanami). Taka jest potęga wzrostu wykładniczego.

Era duchowych maszyn

Kurzweil twierdzi, że prawo Moore'a sprawdzało się nie tylko przez ostatnie 40 lat, ale również działało wstecz, tzn. od czasów II wojny światowej. Właśnie wtedy zbudowano pierwszy komputer, który można było programować. A skoro tak, to - porównując rozwój technologii komputerowej do szachownicy - dziś jesteśmy na jej 32 polu. Zatem postęp w dziedzinie technologii komputerowej jeszcze gwałtowniej przyspieszy. I rzeczywiście - obecnie mamy na biurkach komputery o takiej mocy obliczeniowej, której kilkanaście lat temu pozazdrościłaby NASA czy Pentagon. A ponieważ prawo Moore'a będzie działało dalej, już za kilka lat staniemy się posiadaczami domowych maszyn o mocy obliczeniowej porównywalnej jedynie z dzisiejszymi superkomputerami, które służą na przykład do prognozowania pogody w skali globalnej.

Na tym postęp technologii komputerowej się nie zatrzyma, tylko jeszcze bardziej przyspieszy. Ten gwałtowny rozwój komputerów będzie zmieniał cały przemysł. Dzięki potężnej mocy obliczeniowej, zdolnej symulować zachowania substancji chemicznych czy całych żywych komórek, o wiele szybciej powstaną projekty nowych samochodów, telefonów, materiałów czy leków.

Według Kurzweila, galopujące przemiany technologiczne przekształcą życie ludzi w sposób, który trudno sobie dziś wyobrazić. Nastąpi na przykład wirtualizacja życia, gdyż już dziś, choć technologia ta jest dopiero w powijakach, gry komputerowe (zwłaszcza ich sieciowe wersje, a więc rozgrywki toczone z innymi ludźmi w Internecie) wciągają setki tysięcy osób. Nietrudno więc sobie wyobrazić, co się stanie, gdy superpotężne maszyny będą potrafiły wykreować niemal dowolny wirtualny świat nieodbiegający realnością (zmysłowością) wrażeń od tego prawdziwego. Dla wielu osób taka ucieczka w cyfrowe uniwersum okaże się znacznie bardziej ekscytująca niż szara rzeczywistość.

Kurzweil zapowiada też coś znacznie bardziej niesamowitego: za ok. 15 lat zdolność magazynowania informacji przez komputery będzie porównywalna z możliwościami ludzkiego mózgu. W ciągu kolejnej dekady jeden komputer przewyższy swoim potencjałem mózgi wszystkich ludzi. Mniej więcej w połowie XXI w. nastąpi przeniesienie ludzkiej świadomości na inny nośnik niż biologiczna sieć komórek w mózgu. Tym samym sposobem w dowolnej liczbie kopii będzie można archiwizować i powielać zapis informacji o całej ludzkości.

Ale to nie koniec. Komputery w pewnym momencie znacznie przewyższą potencjał intelektualny człowieka. Najprawdopodobniej nastąpi wówczas kres gatunku Homo sapiens, gdyż dotychczasowy sposób zapisu i powielania informacji w postaci genetyczno-neuronalnej (powstały w toku długotrwałej ewolucji życia na Ziemi) okaże się zbyt kruchy i mało wydajny. Ludzie porzucą swoją biologiczną powłokę, a wówczas nadejdzie era duchowych maszyn ("The Age of Spiritual Machines" - taki tytuł nosi słynna książka Kurzweila), których potencjał intelektualny trudno sobie w ogóle wyobrazić.

Czy krzem to wytrzyma

Właśnie w tę stronę, zdaniem Kurzweila, nieuchronnie prowadzi działanie prawa, które zostało przez amerykańskiego wynalazcę określone (zaczerpniętym z ekonomii) mianem The Law of Accelerating Returns (Prawa rosnących zysków). To nic innego jak rozszerzone i podniesione do rangi filozoficznej zasady prawo Moore'a. Według Kurzweila bowiem, ewolucja ziemskiego życia (czyli de facto małych komputerków w postaci DNA i RNA, zapisujących i przetwarzających informacje) toczyła się w sposób wykładniczy. Stworzenie prymitywnych organizmów zajęło ewolucji kilka miliardów lat. Później nastąpiło przyspieszenie - zaledwie przez kilkadziesiąt milionów lat tzw. kambryjskiej eksplozji (kambr zaczął się 542 mln lat temu) morza wypełniły się mnóstwem nowych gatunków zwierząt. Hominidy (człowiekowate) wyewoluowały w Afryce w ciągu kilkunastu milionów lat, a Homo sapiens potrzebował 200 tys. lat, by zaludnić całą Ziemię.

Teraz nadszedł czas na kolejny etap. Dalsza ewolucja - już nie biologiczna, ale kulturowo-technologiczna - będzie przebiegała jeszcze szybciej. W XIX w. przeskok technologiczny był porównywalny z tym, co osiągnięto w ciągu dziewięciu poprzednich stuleci. Z kolei w pierwszych dwóch dekadach XX w. dokonał się skok na miarę całego poprzedniego stulecia. Zatem, zgodnie z logiką wzrostu wykładniczego, w ciągu XXI w. nastąpi przeskok, który przy współczesnym tempie rozwoju zająłby 20 tys. lat.

Czy ta niezwykła wizja Raya Kurzweila ma szanse się spełnić? Czy rzeczywiście w ciągu najbliższych kilku dekad otaczający nas świat zmieni się nie do poznania, a Homo sapiens zacznie odchodzić do lamusa historii? Pomysły Kurzweila mają swoich przeciwników. Pierwszy z zarzutów brzmi: prawo Moore'a już niedługo (może nawet za kilka lat) przestanie obowiązywać - technologie wytwarzania mikroprocesorów osiągną swój kres z powodu fizycznych ograniczeń elektroniki opartej na krzemie. W pewnym momencie po prostu nie da się upakować na mikroskopijnie małej przestrzeni jeszcze większej liczby tranzystorów. Z powodu gęstości upakowania już dziś procesory mają kłopot z pozbywaniem się ciepła i wymagają coraz bardziej wyrafinowanych systemów chłodzenia. Tego typu argumenty można jednak dość łatwo zbić. W laboratoriach cały czas powstają nowe pomysły (np. nanotechnologia, komputery kwantowe i laserowe, spinotronika), dzięki którym uda się zastąpić wysłużone płytki krzemowe.

Ilość = jakość?

Słaby punkt wizji Kurweila wydaje się tkwić zupełnie gdzie indziej. Przyjmuje on mianowicie metafizyczne złożenie, że w pewnym momencie ilość musi przejść w jakość. Mówiąc dokładniej, wzrastająca wykładniczo moc obliczeniowa komputerów przemieni się w zdolność rozumowania, czyli powstanie sztuczna inteligencja. Czy tak musi się stać? Nie wiadomo. Na razie nie ma doświadczeń, które potwierdzałyby tę tezę. Jedyna poszlaka, na którą może powoływać się Kurzweil, to ewolucja biologiczna. A ona zdaje się sugerować, iż na pewnym etapie rozwoju ilość - w tym wypadku odpowiednio duża liczba komórek nerwowych oraz połączeń między nimi - rzeczywiście daje nową jakość, czyli świadomość i inteligencję. W mózgu człowieka nie powstał bowiem żaden nowy rodzaj superkomórek nerwowych, jakościowo odmiennych od zwierzęcych, a mimo to tak bardzo różnimy się pod względem zdolności intelektualnych od pozostałych gatunków.

Niezależnie od tego, czy świat rzeczywiście podąży w kierunku naszkicowanym przez Kurzweila, wypada zgodzić się z jego tezą, iż jesteśmy świadkami ogromnego przyspieszenia technologicznego. Osoby, które urodziły się w latach 70. i 80., już doświadczyły znacznie szybszych przemian niż ich rodzice. Wystarczy wspomnieć o internetowej rewolucji, która w ciągu kilkunastu lat zmieniła sposób życia w skali całego globu. A z pewnością światowa sieć komputerowa nie pokazała jeszcze wszystkich swoich możliwości. Można zatem być pewnym, że następne pokolenia czekają jeszcze szybsze i głębsze zmiany.

MARCIN ROTKIEWICZ
Polityka nr 22/2005

Początek strony

UZBRAJA KOMPUTERY W INTUICJĘ

Prof. Roman Słowiński zatrudnia komputery, by podejmowały za nas najlepsze decyzje

Prof. Roman Słowiński kieruje Zakładem Inteligentnych Systemów Wspomagania Decyzji na Wydziale Informatyki i Zarządzania Politechniki Poznańskiej. Urodził się w Poznaniu w 1952 roku. Gdy 17 lat później zaczynał studia na wydziale elektrycznym, na politechnice była tylko jedna maszyna cyfrowa. Habilitację w 1981 roku uzyskał jednak już z informatyki. W jego karierze bardzo pomocna okazała się świetna znajomość francuskiego zdobyta jeszcze w liceum. Wyjazdy na staże i konferencje pozwoliły młodemu informatykowi uczyć się od najlepszych na świecie. I szybko dołączyć do tego grona. W wieku 37 lat został profesorem. Poświęcił się komputerowym systemom wspomagania decyzji.

Dlaczego decyzje muszą być wspomagane? Na przykład dlatego, że możliwych rozwiązań jest bardzo dużo, a nasza wiedza o nich nie jest ani kompletna ani pewna. I nie wiadomo, które jest najlepsze. W takich właśnie sytuacjach pomagają matematyka i moce obliczeniowe współczesnych komputerów. Większość problemów, przy których rzeczywiście potrzebujemy pomocy maszyn, wiąże się z ryzykiem i niepewnością. Posiadane dane są niedokładne, niespójne lub niekompletne, a kryteria wyboru wzajemnie konfliktowe. Człowiek kieruje się wówczas intuicją lub - co gorsza - wybiera na chybił trafił. By maszyna radziła sobie w takich sytuacjach i pomagała człowiekowi, potrzeba naprawdę zaawansowanych teorii matematycznych i wyjątkowo przebiegłych algorytmów. Metody tworzenia tych ostatnich opracował prof. Słowiński ze współpracownikami z Polski, Włoch, Francji i Japonii.

Fundacja na rzecz Nauki Polskiej uhonorowała profesora przede wszystkim za stworzenie szkoły "inteligentnego wspomagania decyzji". Dzięki jego pracom powstają maszyny, które nie tylko rozwiązują zbyt złożone dla człowieka problemy, ale także potrafią się uczyć - to znaczy samodzielnie modyfikować własny program. Do pewnego stopnia sztuczna inteligencja wyręcza informatyków - człowiek nie musi dokładnie przewidzieć wszystkiego, z czym komputer może się zetknąć.

Programy opracowane w Poznaniu znalazły już swoje pierwsze zastosowania. Można z nich korzystać zarówno w ekonomii i finansach, jak i w diagnostyce technicznej i medycznej. - Wdzięcznym polem zastosowań jest medycyna - tłumaczy prof. Słowiński. - W izbie przyjęć szpitala dziecięcego w Ottawie inteligentne wspomaganie decyzji zastosowaliśmy do wstępnej kwalifikacji małych pacjentów z bólem brzucha. Pielęgniarka lub lekarz-stażysta po przeprowadzeniu krótkiego wywiadu i wprowadzeniu uzyskanych informacji do komputera otrzymuje błyskawiczną podpowiedź, z jakim przypadkiem ma do czynienia i czy konieczna jest natychmiastowa interwencja chirurga - dodaje profesor. - Obecnie budujemy w Wielkopolsce portal dla telemedycyny - umożliwi on telekonsultacje medyczne między szpitalami klinicznymi a terenowymi.

Łukasz Partyka
Gazeta Wyborcza 2005/12/06

Początek strony

MIĘDZY FIZYKĄ A MAGIĄ

Dlaczego płatki śniegu są symetryczne? Dlaczego nie ma dwóch identycznych śnieżynek? To tylko niektóre z pytań, na które można znaleźć odpowiedź, badając biały puch.

Jadąc na nartach lub lepiąc bałwana, nie zastanawiamy się zwykle, czym jest śnieg. Jasne, wszyscy wiedzą, że to zamarznięta woda, ale jednak różni się od kawałka lodu. Płatki śniegu są kryształami, a każdy z nich ma niepowtarzalny kształt.

Podobno pierwszy nad naturą śniegu zastanawiał się Jan Kepler. Ten sam, który odkrył reguły rządzące ruchem planet w Układzie Słonecznym. W 1611 roku Kepler napisał krótką rozprawę "O sześciokątnych płatkach śniegowych", w której zastanawiał się, dlaczego wszystkie płatki są sześciokątami. Nie mógł znać odpowiedzi. Poznaliśmy ją dopiero trzy wieki później wraz z rozwojem krystalografii rentgenowskiej.

Narodziny gwiazdy

Płatki śniegu rodzą się w chmurach. Ale sama woda i niska temperatura nie wystarczą, żeby powstał biały puch. Potrzebne jest jeszcze "rusztowanie", od którego wszystko się rozpocznie. To, mówiąc fachowo, jądro kondensacji. Może być np. drobinka kurzu lub pyłek kwiatowy i to na nim rozpoczyna się kondensacja cząsteczek wody i tworzenie kryształu. Woda destylowana właśnie z powodu braku drobnych zanieczyszczeń może być w stanie ciekłym nawet w temperaturze -40˚ C.

Najpierw wszystkie kryształki lodu rosną tak samo, formując tzw. heksaedr - sześcian foremny. Ale im kryształek lodu jest większy, tym szybciej zaczynają rosnąć jego rogi. Dlaczego? Kanciaste czubki bardziej "wystają" i do nich przykleja się więcej cząsteczek wody z nasyconego parą wodną powietrza otaczającego kryształ. Nieco większe tempo wzrostu rogów sprawia, że kryształ lodu z sześcianu zamienia się w... sześcioramienną gwiazdę.

W czasie podróży płatka śniegu w kierunku powierzchni ziemi zmienia się zarówno wilgotność, jak i temperatura otoczenia. Na czubku każdego ramienia gwiazdki może rozwinąć się znowu sześcian, a z każdego z jego rogów może znowu "wyrosnąć" szpikulec. Taki proces może zajść nawet kilka razy od chwili powstania płatka śniegu do momentu, w którym dotknie on gruntu, dlatego płatki śniegu mogą mieć bardzo złożone i symetryczne kształty. Dlaczego symetryczne?

W różnorodności siła

Warunki wewnątrz chmury są zmienne, ale odległość pomiędzy ramionami śniegowej gwiazdki jest na tyle mała, że każde z ramion "rośnie" praktycznie w tej samej temperaturze i wilgotności. A to oznacza, że rośnie w identyczny sposób. Ale płatki śniegu wcale nie muszą przypominać gwiazdek i wcale nie muszą mieć wymyślnych kształtów. Ich kształt w dużym stopniu zależy od temperatury i wilgotności otoczenia. W bardzo niskich temperaturach - poniżej -20˚C - nie sposób w padającym śniegu znaleźć wymyślnych kształtów podobnych do gwiazdek czy dendrytów. Na ziemskich biegunach pada śnieg w kształcie kolumienek czy płaskich płytek o podstawie sześciokąta. W nieco wyższej temperaturze kształt śnieżynek zależy od wilgotności otoczenia. Jeżeli jest ona wysoka, mogą tworzyć się płatki o kształcie dendrytów albo charakterystyczne śniegowe gwiazdki. Jeśli jednak wody w powietrzu jest mało, powstaną sześciokątne kolumienki lub sześciokątne płytki z wydrążonymi wzorami. Gdy temperatura jest jeszcze wyższa (około -5˚C), a wilgotność stosunkowo wysoka, z nieba będą spadały... igły. Generalnie, im wyższa wilgotność, tym kryształki lodu mają bardziej złożone kształty.

Najciekawsza jest historia powstawania tych płatków śniegu, które życie rozpoczęły np. w warunkach dużej wilgotności, a potem kontynuowały swój "rozwój", gdy wody w powietrzu było znacznie mniej. Wtedy złożone na początku kształty mogą się upraszczać wraz z oddalaniem się od środka kryształka. Z kolei gdy rosnący kryształek z bardziej suchego powietrza wpadnie w obszar wilgotniejszego - im dalej od jego środka (od zalążka płatka), tym wzór będzie bardziej złożony. Z płatkiem śniegowym jest bowiem trochę tak jak z pniem drzewa. Historię życia obydwu można odczytać, analizując poszczególne warstwy w przekroju poprzecznym. Przy tym, im bliżej środka, tym bliżej momentu powstania.

I tak jak nie ma dwóch identycznych drzew, tak nie ma dwóch takich samych płatków śniegu. Dlaczego tak się dzieje? Kluczem jest znowu zmienna temperatura i wilgotność. To od tych dwóch czynników zależy kształt i stopień skomplikowania kryształka lodu. Dla dwóch powstałych w bezpośrednim sąsiedztwie płatków droga na ziemię nigdy nie będzie taka sama. Tak więc wpływ zmiany temperatury i wilgotności na każdy z nich będzie inny. Poza tym jest mało prawdopodobne, że w obydwu przypadkach identyczne było "rusztowanie", czyli tzw. jądro kondensacji, do którego przyczepiły się pierwsze cząsteczki wody. A od kształtu i wielkości "zarodka" śnieżki zależą pierwsze chwile formowania się płatka śniegowego. Nawet o wiele bardziej regularne kryształki, które powstały w niskich temperaturach, czyli np. "słupkowe" - dokładne pomiary potwierdzają niepowtarzalność każdego z nich. Te różnice wiążą się także z tym, że wodór i tlen - budowniczowie wody - występują w naturze w różnych odmianach. Cząsteczkę wody może tworzyć zamiast "zwykłego" wodoru jego trochę cięższy brat - deuter, a zamiast tlenu O16 jego izotop O18.

Intrygująca symetria

Niezależnie jednak od różnic w kształcie, które dla niektórych rodzajów kryształków widoczne są od razu, a dla innych dopiero po dokładnych pomiarach, wszystkie spadające z nieba płatki śniegu mają jedną cechę wspólną - strukturę o tzw. sześciokrotnej osi symetrii. Co to oznacza? Tylko tyle, że nie sposób znaleźć śnieżynki, która będzie gwiazdką o innej liczbie ramion niż sześć, albo "śnieżynkę słupek" o podstawie innej niż sześciokąt. I ta właściwość kryształów lodu wydaje się najbardziej intrygująca. Spośród nieskończonej liczby kształtów wszystkie są ilustracją sześciokąta foremnego. Dlaczego? Aby to wyjaśnić, trzeba najpierw zrozumieć, czym jest kryształ. To ciało stałe, w którym określona konfiguracja atomów zwana komórką elementarną jest wielokrotnie powtarzana. Zamrożone cząsteczki wody tworzą heksagonalną (sześciokątną) sieć krystaliczną. Każda komórka elementarna kryształu lodu składa się z sześciu atomów tlenu po jednym w każdym kącie sześcianu i atomów wodoru pomiędzy nimi. Na każdy atom tlenu przypadają dwa atomy wodoru, tworząc znany wzór sumaryczny wody - H2O. Jeżeli wzrost kryształu nie jest niczym zakłócony, a tak jest w przypadku formowania się kryształków lodu w chmurach, symetria przekroju zewnętrznego kryształu jest obrazem symetrii jego sieci krystalicznej. Innymi słowy, jeżeli komórka elementarna ma sześciokrotną oś symetrii, cały kryształ (płatek śniegu) nie pozbędzie się swojej sześciokątnej natur

Płatki śniegu są zamrożoną wodą. Ale samo zamrożenie wody wcale nie wystarczy. Kostki lodu w zamrażarce nie wyglądają przecież jak śniegowe gwiazdki. Oprócz wody potrzebna jest jeszcze cierpliwość. Kryształ śniegu musi rosnąć sam, nie można mu przeszkadzać. Ale to wciąż nie wszystko. W końcu spadającym kroplom deszczu też nikt nie przeszkadza, a nie zamarzają w płatki śniegu. Zagadka powstawania płatków śniegu polega na tym, że zamrożeniu ulega bezpośrednio para wodna - bez fazy pośredniej, czyli skroplenia się pary w ciecz. To zjawisko nazywa się resublimacją. I na tym polega tajemnica tworzenia nieskończonej liczby bajecznych kształtów, które zawsze mają sześć kątów.

Tomasz Rożek
Gazeta Wyborcza 06-01-26

Początek strony

WIEŚCI Z KRAJU

  • Gdyby wybory parlamentarne odbyły się na początku lutego, wygrałoby je Prawo i Sprawiedliwość - wynika z najnowszego sondażu Polskiej Grupy Badawczej. Na tę partię zamierza głosować 28% ankietowanych. Druga w rankingu jest Platforma Obywatelska, którą popiera 26% respondentów. Kolejne miejsca zajmują: koalicja SLD i SdPl - 14%, Samoobrona - 11%, LPR - 7% i PSL - 6%.

    W sondażu przeprowadzonym przez PBS dla Gazety Wyborczej różnica w poparciu między PiS a PO zmniejsza się coraz bardziej. Sondaż przeprowadzono w dniach 4-5 lutego br.

    PiS jest nadal liderem sondażu, ale w porównaniu do stycznia poparcie dla partii Jarosława Kaczyńskiego spadło z 40% do 37%. Platforma Obywatelska cieszy się natomiast takim samym poparciem jak przed miesiącem, czyli 35% Taka sytuacja sprawia że żadna z partii nie mogła by rządzić samodzielnie, ale utworzenie koalicji dałoby ogromną większość z 377 mandatami umożliwiającą nawet zmiany w konstytucji.

    Do Sejmu weszłyby jeszcze SLD z 10% poparciem oraz Samoobrona - 7% poparcia. Poza Parlamentem znalazłyby się LPR - 4%, PSL - 1% i SdPl - 3%.

    W lutym br. największym poparciem cieszy się PiS - 34% (spadek o 1 pkt) - wynika z najnowszego sondażu CBOS. Na Platformę Obywatelską głosowałoby 24% Polaków (spadek o 7 pkt), na Samoobronę zaś - 11% (wzrost o 4 pkt). Do Sejmu weszłyby jeszcze: SLD (7%) i LPR (5%). Notowania obu tych partii pozostają bez zmian.

    CBOS przeprowadził sondaż w dniach 11-12 lutego br.

    Według sondażu przeprowadzonego przez GfK Polonia dla Rzeczpospolitej PiS cieszy się poparciem 32% respondentów, natomiast Platforma Obywatelska ma poparcie 30% wyborców. Kolejne ugrupowania mają następujące poparcie: Sojusz Lewicy Demokratycznej 10% (wzrost notowań o 5%), Samoobrona 8%. Pozostałe partie nie przekraczają progu wyborczego. PSL może liczyć na 3% poparcia, LPR na 2%.

    Sondaż został przeprowadzony przez GfK Polonia 17-19 lutego br. na 981-osobowej ogólnopolskiej próbie.

    Gdyby wybory parlamentarne odbyły się 25-26 lutego br. , wygrałoby je Prawo i Sprawiedliwość - wynika z najnowszego sondażu Polskiej Grupy Badawczej (PGB). Na PiS chce głosować 31% badanych - o 3% więcej niż w sondażu z początku miesiąca. Druga w rankingu jest Platforma Obywatelska - chęć głosowania na PO deklaruje 27% ankietowanych (wzrost o 1%). Kolejne miejsca w sondażu zajmują koalicja SLD i SdPl - 15%, (wzrost o 1%), oraz Samoobrona - 10%, LPR - 6% i PSL - 5%. Poparcie dla tych ugrupowań zmalało o 1%.

  • Wśród polityków największym zaufaniem Polaków cieszy się Kazimierz Marcinkiewicz, wynika z sondażu przeprowadzonego przez CBOS. Premierowi ufa 70% ankietowanych i od czasu objęcia stanowiska szefa rządu zaufanie to stale rośnie. Przez ostatni miesiąc o 2 punkty. Marcinkiewiczowi nie ufa 12% badanych w tym wypadku odnotowano wzrost również o 2%.

    W ostatnim miesiącu o 7% wzrosły dobre oceny premiera. Teraz dobrze ocenia go 67% ankietowanych. Tak wynika z kolei z sondażu OBOP. Wzrosły też jednak, i to o 20%, w porównaniu ze styczniem br. , negatywne oceny rządu. Źle gabinet Marcinkiewicza ocenia 54% badanych, dobrze tylko 30%. Z kolei poparcie i zaufanie do prezydenta spada. Oceny Lecha Kaczyńskiego są najgorsze od sierpnia ubiegłego roku. Ufa mu 58% respondentów (spadek o 6%). Dobrze ocenia go 39% ankietowanych, czyli o 8% mniej niż w styczniu br.

    CBOS i OBOP przeprowadziły badania 2 - 6 lutego br. na reprezentatywnej ponad 1000-osobowej grupie.

    Dobre oceny wystawia gabinetowi Prawa i Sprawiedliwości 56% Polaków. Przeciwników jest ponad dwa razy mniej (24%).

    Zwolennicy rządu przeważają we wszystkich grupach wiekowych, jednak najwięcej jest ich wśród osób starszych - po 55 roku życia (ok. 60%). Nieco lepsze oceny rząd osiąga wśród osób po podstawówkach i zawodówkach (57 - 61% poparcia) niż Polaków po maturze lub po studiach (52 - 54%).

    Najwięcej złych recenzji rządowi wystawiają urzędnicy (53% przeciwników), menedżerowie i prywatni przedsiębiorcy (33%) oraz pracownicy umysłowi i studenci (po 31%).

    Sondaż "Rzeczpospolitej" przeprowadził instytut GfK Polonia 3 - 5 lutego na reprezentatywnej próbie 958 dorosłych Polaków.

  • Stopa bezrobocia w styczniu br. wzrosła do 18,1%, z 17,6% w grudniu br. Bez pracy pozostawało prawie 2,9 mln osób - podało Ministerstwo Pracy i Polityki Społecznej. Resort poinformował, że liczba bezrobotnych zwiększyła się we wszystkich regionach.

    Najwyższa stopa bezrobocia w styczniu była w województwach warmińsko-mazurskim (28,2%) i zachodniopomorskim (26,3%). Najniższą zanotowano w małopolskim (14,2%), mazowieckim (14,2%) oraz wielkopolskim (15%).

Początek strony

GRATULACJE, IMPREZY, OGŁOSZENIA

***

GRATULACJE

Zarząd SIP Ottawa składa najserdeczniejsze gratulacje koledze Kazimierzowi Stysiowi z okazji awansu na stopień porucznika WP w dniu 22 sierpnia 2005 r. przez Ministra Obrony Narodowej. Ceremonia wręczenia dyplomu miała miejsce w dniu 11 stycznia 2006 r. w Domu Polskim SPK w Ottawie. Wręczenia dokonał Attaché Obrony płk Dobrosław Mąka.

Jeszcze raz najserdeczniejsze gratulacje,

Zarząd SIP Ottawa

***

IMPREZY

Stowarzyszenie Polskich Kombatantów
Koło nr 8 w Ottawie

zaprasza na pogadankę p. Dr Konrada Studnickiego pt.

"Jak powstała i jak funkcjonuje współczesna gospodarka"

Data: 14 marca (wtorek) 2006 r.
Godz.: 19:30
Miejsce: Dom Polski SPK
Adres: 379 Waverley Street, Ottawa
Po programie Koło Pań przy SPK zaprasza na kawę i ciastka.

***

Stowarzyszenie Polskich Kombatantów
Koło nr 8 w Ottawie

zaprasza na pokaz filmu

"Wojna i kobieta"

Data: 23 marca (czwartek) 2006 r.
Godz.: 19:30
Miejsce: Dom Polski SPK
Adres: 379 Waverley Street, Ottawa

***

Początek strony

Przewodniczący:

B. Gajewski

tel.: (613) 259-5015

Sekretarz:

L. Zielińska

tel.: (613) 721-8238

Skarbnik:

L. Cyfracki

tel.: (613) 521-6228

Redaktor:

K. Styś

tel.: (613) 224-1707

Redakcja Techniczna: J. Taracha, tel.: (613) 225-4678

Association of Polish Engineers in Canada, P.O. Box 8093, STATION "T", Ottawa, Ontario K1G 3H6

SIP Internet: http://www.kpk-ottawa.org/sip/

ISSN 1496-7251

Redakcja e-mail: af736@ncf.ca