O autorze
Jestem profesorem AGH i dodatkowo przez ponad 30 lat byłem profesorem Uniwersytetu Ekonomicznego.

Kieruję utworzonym przeze mnie w 1973 roku Laboratorium Biocybernetyki AGH. Byłem też przez wiele lat kierownikiem Katedry Automatyki i Inżynierii Biomedycznej AGH, którą jednak w 2016 roku przekazałem w ręce jednego z moich dość licznych wychowanków, którzy dziś są już profesorami. Musiałem oddać kierownictwo Katedry ponieważ zaczęła obowiązywać na tym stanowisku kadencyjność. Ale Laboratorium nadal kieruję.

Kilka słów o mojej drodze do tego miejsca, w którym się obecnie znajduję:

Zawsze pasjonowała mnie nauka, więc zostałem naukowcem. A jak stwierdziłem, jaka ta nauka jest fajna, to zacząłem się starać przekonać o tym jak najwięcej ludzi. Przekazuję moją fascynację wiedzą, nauką i techniką moim studentom, w wyniku czego wypromowałem już ponad 300 magistrów i blisko 70 doktorów. Staram się także popularyzować wiedzę na różne sposoby: w książkach, w gazetach, w tygodnikach, w radiu, w telewizji i na odczytach. Zebrało się tego ponad 400 pozycji drukowanych i chyba drugie tyle w formie różnych wystąpień – na żywo i w mediach.

Ponieważ wiedza nieświeża jest równie niesmaczna jak nieświeża kiełbasa – więc staram się zawsze mieć dostęp do wiedzy najświeższej. A ponieważ taką świeżą wiedzę ma się wtedy, gdy się ją samemu wytwarza, więc z zapałem prowadzę badania naukowe. W badaniach tych staram się wykorzystywać moje kwalifikacje inżyniera na potrzeby biologii i medycyny oraz moją wiedzę biologiczną (po doktoracie z automatyki studiowałem na Akademii Medycznej) jako źródło inspiracji dla budowy nowych systemów technicznych. Czasem udaje mi się coś odkryć, a jak już odkryję, to wzorem wszystkich naukowców piszę publikacje. Tak mi to weszło w krew, że napisałem już tych publikacji dosyć dużo, ale jak licznik moich prac w wykazach Biblioteki Głównej AGH przekroczył tysiąc, to przestałem je liczyć.

Opierając się na nie sprawdzonym przekonaniu, że jak ktoś ma osiągnięcia naukowe, to rządzić też potrafi, społeczność mojej uczelni wybrała mnie, żebym pełnił rolę rektora AGH. Potem ten wybór powtórzono jeszcze dwa razy, więc dosyć długo paradowałem w tych królikach udających gronostaje. Potem wybrano mnie na członka Polskiej Akademii Nauk i Polskiej Akademii Umiejętności oraz kilku akademii zagranicznych. W PAN pełniłem funkcję prezesa Krakowskiego Oddziału tej Korporacji.

No a potem zaproszono mnie, żebym pisywał na tym blogu. No to pisuję - najlepiej, jak potrafię!

Ciąg dalszy zaglądania do wnętrza ciała pacjenta. Tomografia komputerowa

Zwykłe prześwietlenie rentgenowskie (po lewej) nie zawsze wystarcza. Dlatego coraz częściej stosujemy tomograf (po prawej). Ale jak on działa? O tym właśnie chcę opowiedzieć.
Zwykłe prześwietlenie rentgenowskie (po lewej) nie zawsze wystarcza. Dlatego coraz częściej stosujemy tomograf (po prawej). Ale jak on działa? O tym właśnie chcę opowiedzieć.
Święta dobiegły końca, chociaż były długie tego roku. Mam nadzieję, że dla wszystkich czytających te słowa były one miłe, rodzinne, kolorowe i smaczne. Ale po świętach możemy odczuwać skutki nadmiaru smakołyków, które zdobiły nasze stoły. No bo czy można się oprzeć, gdy coś tak wspaniale pachnie, tak ładnie wygląda i tak wybornie smakuje? Ale buntująca się wątroba lub niepokojąco zaokrąglony brzuszek skłaniają do tego, by zainteresować się, jak wygląda i jak działa ta wspaniała maszyneria wewnątrz ciała człowieka, która z tym nadmiarem musi sobie teraz poradzić.


We wcześniejszym wpisie opowiedziałem o tym, jak dzięki odkryciom Wilhelma Roentgena lekarze zyskali możliwość zaglądania do wnętrza ludzkiego organizmu. Aparaturę rentgenowską stosuje się do dzisiaj i zapewne jeszcze długo, wciąż doskonalona, będzie ona służyła jako pomoc w diagnostyce i terapii medycznej. Jednak tradycyjne prześwietlenie rentgenowskie nie zawsze wystarcza, głównie dlatego, że na zwykłym zdjęciu rentgenowskim cienie poszczególnych narządów nakładają się na siebie i zasłaniają się wzajemnie, co utrudnia interpretację.
Najbardziej dramatycznie ograniczenie to dotykało niegdyś neurologów. W normalnym aparacie rentgenowskim praktycznie nie udaje się uzyskać obrazu mózgu, ponieważ kości czaszki nie przepuszczają promieni X do wnętrza.
Dlatego zbudowano tomograf komputerowy. Obraz w tomografie otrzymuje się w wyniku pomiaru pochłaniania promieniowania X przechodzącego przez badany obiekt na różnych drogach oraz po wykonaniu skomplikowanych obliczeń matematycznych, zwanych obliczeniową rekonstrukcją obrazu.
Zamiast obracać prześwietlany obiekt (ciało pacjenta), w tomografie stosuje się obrót lampy rentgenowskiej, prześwietlającej pacjenta z różnych stron.
Na drodze obliczeniowej wyznacza się stopień pochłaniania promieniowania rentgenowskiego w każdym punkcie wnętrza ciała człowieka i tworzy się obraz, na którym punkty, w których tkanki pochłaniały promieniowanie bardzo silnie (np. kości) są białe, a punkty, gdzie pochłanianie było bardzo słabe (np. powietrze w płucach), są czarne. Typowe tkanki miękkie (mięśnie, tłuszcz, wątroba, mózg) pochłaniają promieniowanie w stopniu pośrednim między tymi skrajnościami i są obrazowane poprzez różne poziomy szarości. Ponieważ tomograf jednorazowo prześwietla ciało pacjenta tylko w jednej płaszczyźnie, przy jego pomocy uzyskuje się obraz w postaci przekroju poprzecznego rozważanego fragmentu ciała.
Cały fragment ciała (na przykład, całą klatkę piersiową) można zobrazować wykonując serię obrazków, będących kolejnymi przekrojami badanego regionu ciała.
Te kolejne przekroje uzyskuje się wsuwając łóżko wraz z pacjentem w głąb gantry. W badaniu tego typu komputer nie jest tylko narzędziem polepszającym jakość obrazu, ale narzędziem nieodzownym do jego uzyskania - bez komputera tego obrazu by po prostu nie było
Przyjrzyjmy się, jak to działa.


Najpierw do celów obliczeniowych rozważany przekrój ciała pacjenta dzielimy na części zwane voxelami.

Są to odpowiedniki pikseli znanych z fotografii cyfrowej, ale poza długością i szerokością mają one dodatkowo wysokość oznaczoną na rysunku przez w. Podczas obliczeń zakłada się, że w obrębie jednego voxela stopień pochłaniania promieniowania rentgenowskiego jest jednakowy.

Ale jaki?

To ustalamy dokonując wielokrotnego prześwietlania ciała pacjenta wąskimi wiązkami promieniowania z różnych stron i mierząc za każdym razem, jak mocno promieniowanie zostało pochłonięte sumarycznie przez wszystkie voxele, które znalazły się na jego drodze. Rozważmy prosty przykład. Wyobraźmy sobie, że mamy zbadać obiekt złożony z zaledwie 4 voxeli.
Pochłanianie promieniowania rentgenowskiego w poszczególnych voxelach jest nieznane, dlatego oznaczone ono zostało przez X. Wkładamy więc naszą próbkę do tomografu i przepuszczamy wąski strumień promieniowania rentgenowskiego poziomo przez górną część próbki. Mierząc natężenie promieniowania opuszczającego próbkę, czyli takiego, które przeszło przez voxele nr 1 i 2, otrzymujemy informację o sumarycznym pochłanianiu promieniowania w tych właśnie wyróżnionych voxelach. Załóżmy, że to zmierzone sumaryczne pochłanianie wyraziło się wartością 3.
W podobny sposób prześwietlamy próbkę w innych miejscach i w innych kierunkach, aż do momentu uzyskania takiej liczby danych, która wystarczy do wyznaczenia stopnia pochłaniania we wszystkich voxelach. Ponieważ niewiadomych (wartości pochłaniania w poszczególnych voxelach) jest cztery, więc wystarczą cztery prześwietlenia.
Wyniki prześwietleń pozwalają ułożyć układ czterech równań o czterech niewiadomych. Taki układ równań można rozwiązać (to znaczy wyznaczyć wartości pochłaniania we wszystkich voxelach), a potem można wytworzyć obraz, w którym różnym wyznaczonym stopniom pochłaniania przypisane będą różne poziomy szarości.
W powyższym przykładzie rozwiązanie układu równań było łatwe, bo było ich zaledwie 4. Rzeczywisty obraz tomograficzny składa się kilkuset tysięcy voxeli, a liczba prześwietleń, na bazie których jest budowany, sięga 2 milionów. Takiej liczby równań człowiek nie byłby w stanie rozwiązać, stąd tak ważna jest rola komputera.


Znając stopień pochłaniania promieniowania we wszystkich voxelach i we wszystkich warstwach, można odtworzyć komputerowo przekrój badanego narządu w dowolnej płaszczyźnie, chociaż dane są z reguły zbierane wyłącznie w płaszczyźnie poprzecznej do leżącego na plecach pacjenta.
Co więcej, możliwa jest rekonstrukcja trójwymiarowa obrazu wnętrza ciała pacjenta. O tym, jak wiele to daje świadczyć może poniższy rysunek.
Na rysunku przedstawiono zobrazowanie tej samej sceny w układzie obrazu płaskiego – takiego, jaki daje zwykły aparat rentgenowski (P), serii przekrojów (S1 i S2), jakie daje tomograf bez dodatkowego przetwarzania obrazów, oraz trójwymiarowej rekonstrukcji. Różnica jest widoczna! Co więcej, trójwymiarowy obraz tomograficzny może być przedstawiony z usuniętymi (dla zwiększenia czytelności) niektórymi narządami i wybarwionymi sztucznie innymi.
Dzięki temu przydatność diagnostyczna obrazów tomograficznych jest nieporównanie większa niż zwykłych zdjęć rentgenowskich. A zawdzięczamy to wszystko temu człowiekowi:
To Sir Godfrey Newbold Hounsfield, brytyjski inżynier który zbudował (w 1968 roku) pierwszy tomograf komputerowy i dowiódł jego użyteczności wykrywając guza mózgu u pacjentki, której życie zostało dzięki temu uratowane za pomocą operacji neurochirurgicznej. Z pomocą zwykłego aparatu rentgenowskiego to by się w żadnym przypadku nie udało!

Za swoje zasługi Hounsfield został uhonorowany nagrodą Nobla w 1979 roku. Jest on pierwszym i jak dotychczas jedynym inżynierem, który otrzymał nagrodę Nobla w dziedzinie medycyny.