background image

Modelowanie komputerowe w badaniach wstępnych, przedklinicznych i klinicznych.

Zgodnie z informacją przedstawioną w poprzednich wykładach badania kliczniczne obejmują cztery 
najważniejsze etapy przedstawione poniżej.

Tabela 1. Etapy badań klinicznych:

badania przedkliniczne (in vitro i na zwierzętach)

faza I - na niewielkiej grupie (20-80) zdrowych ochotników; ma na celu zbadanie bezpieczeństwa, 
toksyczności, farmakokinetyki i farmakodynamiki  terapii. W badaniach  nad niektórymi lekami 

(np.   przeciwnowotworowymi   czy   anty-HIV)   w   tej   fazie   badań   biorą   udział   pacjenci   w 

zaawansowanym stadium choroby.

faza II - na większej grupie (20-300); ma na celu zbadanie klinicznej skuteczności terapii.

faza III - randomizowane badania na dużej grupie (300–3000 lub więcej) pacjentów; ma na celu 
pełną ocenę skuteczności nowej terapii.

Niekiedy jako kolejną, czwartą fazę badań klinicznych określa się badania post-marketingowe, a więc 
wykonywane już po wprowadzeniu leku na rynek. Badania te obejmują ocenę bezpieczeństwa stosowania 
leku   w   szerokiej,   nieizolowanej   populacji   tak   charakterystycznej   dla   badań   klinicznych   faz   I-III   oraz 
badania farmakoekonomiczne, polegające na ocenie porównawczej leków i schematów leczenia lub też 

porównanie farmakoterapii z nieleczeniem - jak w przypadku filozofii BSC (ang. Best Supportive Care), a 

więc dostarczenie osobom w terminalnych stadiach chorób nowotworowych najlepszej możliwej terapii 

wspomagającej bez wdrażania chemo- lub radioterapii. Co ważne z punktu widzenia omawianego tematu - 

tu także wykorzystuje się techniki modelowania komputerowego.

background image

Rozwój   metod   modelowania   matematycznego   i   ich   praktyczna   realizacja   z   wykorzystaniem 
komputerowych   jednostek   obliczeniowych   daje   możliwość   ograniczenia   potrzeby   stosowania   zwierząt 
laboratoryjnych na wczesnych etapach badań nad lekiem, niemniej jednak całkowite ich wyeliminowanie 
nie jest możliwe. Jak już wcześniej wspomniano, ze względów naukowych i praktycznych (trudności w 

skalowaniu   wyników   badań   zwierzęcych   na   ludzi),   postuluje   się   wykorzystanie   izolowanych   komórek 
ludzkich (np. komórki wątroby - enterocyty, całych narządów lub w miarę możliwości i z zachowaniem 
obowiązujących   -   bardzo   ścisłych   -   reguł,   przeprowadzanie   badań   na   ludziach.   Otrzymane   na   ich 
podstawie wyniki są wykorzystywane jako dane wstępne do budowania generalnych modeli zachowań leku 

w organizmie. Wykorzystywane na tym etapie programy wykorzystują gotowy zestaw modeli - zarówno 

farmakokinetycznych   jak   i   farmakodynamicznych.   Najczęściej   wykorzystywane   programy   -   WinNonlin, 

Nonmem czy moduły wbudowane do zaawansowanych pakietów statystycznych (S-Plus) umożliwiają także 
definiowanie   własnych   algorytmów,   co   jest   często   wykorzystywane   w   działach   rozwoju   firm 
farmaceutycznych.   Kolejny   przykład   ich   wykorzystania   to   skalowanie   PK-PD,   a   więc   poszukiwanie 

zależności między stężeniem leku we krwi (lub ogólnie - ilością leku w organizmie), a siłą odpowiedzi 

farmakologicznej, a także poszukiwanie zależności między danymi uzyskiwanymi w warunkach  in vitro 

oraz ich przenoszenie na warunki in vivo.

wykres - zależność PK/PD

background image

Wszystkie   opisane   powyżej   przykłady   obejmowały   modelowanie   indywidualne,   dla   poszczególnych 
jednostek.   Obecnie   wyzwaniem   staje   się   raczej   uzyskanie   wyników   dla   wirtualnych   populacji, 
uwzględniających zmienność międzyjednostkową. Jest to o tyle ważne, że w realnych warunkach lek nie 
jest wykorzystywany jedynie w wąskich grupach, tak jak to ma miejsce w trakcie badań klinicznych. Jak 

można się domyślać należy się spodziewać różnic we wszystkich elementach definiujących zachowanie 
leku w organizmie - wchłanianiu, dystrybucji, metabolizmie i wydalaniu w różnych grupach populacjach 
zróżnicowanych pod względem wieku (różnice w fizjologii poszczególnych narządów np. wątroby, jelit u 
dzieci),   płci,   rasy,   budowy   fizycznej   (powierzchnia   ciała,   waga,   wzrost,   BMI)   czy   też   konstytucji 

genetycznej (np. zróżnicowana aktywność enzymów metabolizujących leki).  Jeszcze inaczej wygląda to w 

przypadku osób chorych, u których szeroko pojęty metabolizm może być drastycznie zmieniony (cukrzyca, 

celiakia). Najczęstsze postępowanie pomagające modelować zmienność w populacji (ang. PBPK modeling
to wykorzystywanie bibliotek danych zawierających informacje charakteryzujących określone populacje. 
Są  to  najczęściej bardzo obszerne zbiory, z  których odpowiednie algorytmy pobierają dane w trakcie 

symulacji lub analiz typu  what if  (co jeśli). Dzięki wbudowanym modelom chorób możliwe jest również 

symulowanie   zachowań   leku   w   populacji   osób   chorych.   Najbardziej   znane   programy   komputerowe   - 

wykorzystane na tych etapach - to  Simcyp, Gastro+ czy PK Sim.   Już z poprzedniego zdania wynika, iż 
stosowane są one  równolegle do wszystkich faz badań klinicznych - choć w różnych celach. Najczęściej 
chodzi o przeniesienie wyników badań na zdrowych ochotnikach na szersze populacje. 

Nieco inne zastosowanie mają również istniejące wirtualne modele chorób (cukrzyca, nadciśnienie i inne), 

możliwe do wykorzystania  jako  biblioteki zewnętrzne. Ich potencjalną rolą jest obserwacja zachowań 
organizmu (jako całości) na zmieniające się warunki - w tym również podanie leku.

W trakcie badań klinicznych konieczne jest stosowanie programów wspomagających, jednak są to raczej 
systemy  analizy danych niż ich generowania w procesie symulacji, dlatego nie zostaną przedstawione w 

tym omówieniu.

Jak wspomniano powyżej systemy komputerowe są również wykorzystywane w trakcie czwartej - ostatniej 

fazy   badań   klinicznych.   Gromadzone   wtedy   dane   (co   jest   obowiązkiem   firm   farmaceutycznych 
wprowadzających lek na rynek) pozwalają na ocenę skuteczności preparatu i stosowanych schematów 
terapeutycznych,   co   z   kolei   może   zostać   wykorzystane   do   badań   farmakoekonomicznych.   Wymagania 
stawiane   tego   typu   badaniom   wymuszają   różnicowanie   populacji   otrzymującej   różnorodne   schematy 
terapeutyczne,   co   w   praktyce   jest   bardzo   trudne   lub   niemożliwe   (np.   w   przypadku   chorób 
nowotworowych). W takim przypadku istnieje możliwość wykorzystania systemów matematycznych lub 
opartych   na   sztucznej   inteligencji   pozwalających   na   przeprowadzanie   analizy   typu  what   if,   a   więc 
wirtualnego podania innego leku o ocena różnic terapeutycznych schematu realnego i zamodelowanego. 

Równolegle z badaniami klinicznymi oceniającymi m.in. skuteczność, bezpieczną dawkę i inne parametry 

leku oraz planowanych schematów terapii, prowadzone są doświadczenia nad formulacją. Na tym etapie 

wykorzystuje się bardzo intensywnie dane uzyskane na wcześniejszych etapach prac nad lekiem, które 

wpływają   na   planowaną   -   dostępną   lub   optymalną   -   drogę   podania   oraz   postać   leku.   W   przypadku 

substancji,   które   ze   względu   na   swoje   właściwości   fizykochemiczne   (słaba   rozpuszczalność   lub 

przenikalność przez bariery biologiczne co warunkuje niską biodostępność) lub z innych względów (np. 

background image

działanie   toksyczne   lub   konieczność   ominięcia   danego   odcinka   przewodu   pokarmowego   lub   nawet 
specjalnej drogi podania np. wziewnej) wymagają wyspecjalizowanych formulacji, prace w laboratoriach 
technologicznych są niekiedy niezwykle żmudne i kosztowne. Z tego właśnie powodu zarówno kompanie 
farmaceutyczne jak i firmy wyspecjalizowane w dostarczaniu półproduktów wykorzystywanych w trakcie 

sporządzania   postaci   leku   (np.   kapsułki)   coraz   intensywniej   stosują   w   trakcie   praz   doświadczalnych 
metody   modelowania   komputerowego.   Przykładem   podobnego   jest   zarówno   stosowanie   modeli 
mechanistycznych będących częścią większego systemu komputerowego (choćby wspomniany wcześniej 
Simcyp) jak i wyspecjalizowane modele oparte o wspomniane wcześniej algorytmy sztucznej inteligencji, 

np. sztuczne sieci neuronowe. Jest to szczególnie przydatne w sytuacji kiedy dana postać leku może 

zawierać substancje potencjalnie toksyczne (np. w dużym stężeniu) lub nie ma gotowych algorytmów 

poszukiwania zestawu poszczególnych składników, jak to ma miejsce w przypadku chociażby mikroemulsji. 
Dzięki   możliwości   uczenia   się   na   kolejnych   przykładach   tego   typu   systemy   mogą   poprawiać   swoją 
skuteczność wraz ze wzrostem ilości dostępnych informacji. Podejście, w którym system obliczeniowy 

staje się niejako partnerem badacza w procesie optymalizacji formulacji, staje się dzisiaj coraz bardziej 

popularnym rozumieniem sposobu wykorzystania narzędzi in silico

Powyższe   opracowanie   nie   wyczerpuje   wszystkich   dostępnych   i   coraz   powszechniej   wykorzystywanych 
systemów modelowania komputerowego, jak również ich możliwych zastosowań. Niemniej jednak stanowi 

przegląd metod i wskazuje na rosnącą rolę szeroko pojętego modelowana matematycznego w naukach 
biologicznych,   a   szczególnie   w   procesie   badań   nad   lekiem.   Techniki   te   stają   się   coraz   szerzej 

wykorzystywane   w   celu   zwiększenia   efektywności   opracowania   leku.   Możliwości   percepcyjne   maszyn 
znacznie   przekraczają   ludzką   zdolność   do   całościowego   ogarniania   problemu,   co   przynosi   korzyści   w 
postaci   automatycznej   akwizycji   i   przetwarzania   wiedzy   pozwalając   skupić   się   na   najistotniejszych 

aspektach opracowywanego zagadnienia. Wg dzisiejszego stanu wiedzy jesteśmy wciąż daleko od pełnego 
zrozumienia wszystkich procesów wpływających na lek i jego działanie w organizmie. Każda skuteczna 

technologia   pozwalająca   na   efektywniejsze   pogłębianie   i   wykorzystanie   tej   wiedzy   jest   więc   cenna   i 
skrzętnie wykorzystywana, jak właśnie m.in. metody in silico.