Modelowanie komputerowe w badaniach wstępnych, przedklinicznych i klinicznych.

Zgodnie z informacją przedstawioną w poprzednich wykładach badania kliczniczne obejmują cztery

najważniejsze etapy przedstawione poniżej.

Tabela 1. Etapy badań klinicznych:

●

badania przedkliniczne (in vitro i na zwierzętach)

●

faza I - na niewielkiej grupie (20-80) zdrowych ochotników; ma na celu zbadanie bezpieczeństwa,

toksyczności, farmakokinetyki i farmakodynamiki terapii. W badaniach nad niektórymi lekami

(np. przeciwnowotworowymi czy anty-HIV) w tej fazie badań biorą udział pacjenci w

zaawansowanym stadium choroby.

●

faza II - na większej grupie (20-300); ma na celu zbadanie klinicznej skuteczności terapii.

●

faza III - randomizowane badania na dużej grupie (300–3000 lub więcej) pacjentów; ma na celu

pełną ocenę skuteczności nowej terapii.

Niekiedy jako kolejną, czwartą fazę badań klinicznych określa się badania post-marketingowe, a więc

wykonywane już po wprowadzeniu leku na rynek. Badania te obejmują ocenę bezpieczeństwa stosowania

leku w szerokiej, nieizolowanej populacji tak charakterystycznej dla badań klinicznych faz I-III oraz

badania farmakoekonomiczne, polegające na ocenie porównawczej leków i schematów leczenia lub też

porównanie farmakoterapii z nieleczeniem - jak w przypadku filozofii BSC ( ang. Best Supportive Care), a

więc dostarczenie osobom w terminalnych stadiach chorób nowotworowych najlepszej możliwej terapii

wspomagającej bez wdrażania chemo- lub radioterapii. Co ważne z punktu widzenia omawianego tematu -

tu także wykorzystuje się techniki modelowania komputerowego.

Rozwój metod modelowania matematycznego i ich praktyczna realizacja z wykorzystaniem

komputerowych jednostek obliczeniowych daje możliwość ograniczenia potrzeby stosowania zwierząt

laboratoryjnych na wczesnych etapach badań nad lekiem, niemniej jednak całkowite ich wyeliminowanie

nie jest możliwe. Jak już wcześniej wspomniano, ze względów naukowych i praktycznych (trudności w

skalowaniu wyników badań zwierzęcych na ludzi), postuluje się wykorzystanie izolowanych komórek

ludzkich (np. komórki wątroby - enterocyty, całych narządów lub w miarę możliwości i z zachowaniem

obowiązujących - bardzo ścisłych - reguł, przeprowadzanie badań na ludziach. Otrzymane na ich

podstawie wyniki są wykorzystywane jako dane wstępne do budowania generalnych modeli zachowań leku

w organizmie. Wykorzystywane na tym etapie programy wykorzystują gotowy zestaw modeli - zarówno

farmakokinetycznych jak i farmakodynamicznych. Najczęściej wykorzystywane programy - WinNonlin,

Nonmem czy moduły wbudowane do zaawansowanych pakietów statystycznych (S-Plus) umożliwiają także

definiowanie własnych algorytmów, co jest często wykorzystywane w działach rozwoju firm

farmaceutycznych. Kolejny przykład ich wykorzystania to skalowanie PK-PD, a więc poszukiwanie

zależności między stężeniem leku we krwi (lub ogólnie - ilością leku w organizmie), a siłą odpowiedzi

farmakologicznej, a także poszukiwanie zależności między danymi uzyskiwanymi w warunkach in vitro

oraz ich przenoszenie na warunki in vivo.

wykres - zależność PK/PD

Wszystkie opisane powyżej przykłady obejmowały modelowanie indywidualne, dla poszczególnych

jednostek. Obecnie wyzwaniem staje się raczej uzyskanie wyników dla wirtualnych populacji,

uwzględniających zmienność międzyjednostkową. Jest to o tyle ważne, że w realnych warunkach lek nie

jest wykorzystywany jedynie w wąskich grupach, tak jak to ma miejsce w trakcie badań klinicznych. Jak

można się domyślać należy się spodziewać różnic we wszystkich elementach definiujących zachowanie

leku w organizmie - wchłanianiu, dystrybucji, metabolizmie i wydalaniu w różnych grupach populacjach

zróżnicowanych pod względem wieku (różnice w fizjologii poszczególnych narządów np. wątroby, jelit u

dzieci), płci, rasy, budowy fizycznej (powierzchnia ciała, waga, wzrost, BMI) czy też konstytucji

genetycznej (np. zróżnicowana aktywność enzymów metabolizujących leki). Jeszcze inaczej wygląda to w

przypadku osób chorych, u których szeroko pojęty metabolizm może być drastycznie zmieniony (cukrzyca,

celiakia). Najczęstsze postępowanie pomagające modelować zmienność w populacji (ang. PBPK modeling)

to wykorzystywanie bibliotek danych zawierających informacje charakteryzujących określone populacje.

Są to najczęściej bardzo obszerne zbiory, z których odpowiednie algorytmy pobierają dane w trakcie

symulacji lub analiz typu what if (co jeśli). Dzięki wbudowanym modelom chorób możliwe jest również

symulowanie zachowań leku w populacji osób chorych. Najbardziej znane programy komputerowe -

wykorzystane na tych etapach - to Simcyp, Gastro+ czy PK Sim. Już z poprzedniego zdania wynika, iż

stosowane są one równolegle do wszystkich faz badań klinicznych - choć w różnych celach. Najczęściej

chodzi o przeniesienie wyników badań na zdrowych ochotnikach na szersze populacje.

Nieco inne zastosowanie mają również istniejące wirtualne modele chorób (cukrzyca, nadciśnienie i inne),

możliwe do wykorzystania jako biblioteki zewnętrzne. Ich potencjalną rolą jest obserwacja zachowań

organizmu (jako całości) na zmieniające się warunki - w tym również podanie leku.

W trakcie badań klinicznych konieczne jest stosowanie programów wspomagających, jednak są to raczej

systemy analizy danych niż ich generowania w procesie symulacji, dlatego nie zostaną przedstawione w

tym omówieniu.

Jak wspomniano powyżej systemy komputerowe są również wykorzystywane w trakcie czwartej - ostatniej

fazy badań klinicznych. Gromadzone wtedy dane (co jest obowiązkiem firm farmaceutycznych

wprowadzających lek na rynek) pozwalają na ocenę skuteczności preparatu i stosowanych schematów

terapeutycznych, co z kolei może zostać wykorzystane do badań farmakoekonomicznych. Wymagania

stawiane tego typu badaniom wymuszają różnicowanie populacji otrzymującej różnorodne schematy

terapeutyczne, co w praktyce jest bardzo trudne lub niemożliwe (np. w przypadku chorób

nowotworowych). W takim przypadku istnieje możliwość wykorzystania systemów matematycznych lub

opartych na sztucznej inteligencji pozwalających na przeprowadzanie analizy typu what if, a więc

wirtualnego podania innego leku o ocena różnic terapeutycznych schematu realnego i zamodelowanego.

Równolegle z badaniami klinicznymi oceniającymi m.in. skuteczność, bezpieczną dawkę i inne parametry

leku oraz planowanych schematów terapii, prowadzone są doświadczenia nad formulacją. Na tym etapie

wykorzystuje się bardzo intensywnie dane uzyskane na wcześniejszych etapach prac nad lekiem, które

wpływają na planowaną - dostępną lub optymalną - drogę podania oraz postać leku. W przypadku

substancji, które ze względu na swoje właściwości fizykochemiczne (słaba rozpuszczalność lub

przenikalność przez bariery biologiczne co warunkuje niską biodostępność) lub z innych względów (np.

działanie toksyczne lub konieczność ominięcia danego odcinka przewodu pokarmowego lub nawet

specjalnej drogi podania np. wziewnej) wymagają wyspecjalizowanych formulacji, prace w laboratoriach

technologicznych są niekiedy niezwykle żmudne i kosztowne. Z tego właśnie powodu zarówno kompanie

farmaceutyczne jak i firmy wyspecjalizowane w dostarczaniu półproduktów wykorzystywanych w trakcie

sporządzania postaci leku (np. kapsułki) coraz intensywniej stosują w trakcie praz doświadczalnych

metody modelowania komputerowego. Przykładem podobnego jest zarówno stosowanie modeli

mechanistycznych będących częścią większego systemu komputerowego (choćby wspomniany wcześniej

Simcyp) jak i wyspecjalizowane modele oparte o wspomniane wcześniej algorytmy sztucznej inteligencji,

np. sztuczne sieci neuronowe. Jest to szczególnie przydatne w sytuacji kiedy dana postać leku może

zawierać substancje potencjalnie toksyczne (np. w dużym stężeniu) lub nie ma gotowych algorytmów

poszukiwania zestawu poszczególnych składników, jak to ma miejsce w przypadku chociażby mikroemulsji.

Dzięki możliwości uczenia się na kolejnych przykładach tego typu systemy mogą poprawiać swoją

skuteczność wraz ze wzrostem ilości dostępnych informacji. Podejście, w którym system obliczeniowy

staje się niejako partnerem badacza w procesie optymalizacji formulacji, staje się dzisiaj coraz bardziej

popularnym rozumieniem sposobu wykorzystania narzędzi in silico.

Powyższe opracowanie nie wyczerpuje wszystkich dostępnych i coraz powszechniej wykorzystywanych

systemów modelowania komputerowego, jak również ich możliwych zastosowań. Niemniej jednak stanowi

przegląd metod i wskazuje na rosnącą rolę szeroko pojętego modelowana matematycznego w naukach

biologicznych, a szczególnie w procesie badań nad lekiem. Techniki te stają się coraz szerzej

wykorzystywane w celu zwiększenia efektywności opracowania leku. Możliwości percepcyjne maszyn

znacznie przekraczają ludzką zdolność do całościowego ogarniania problemu, co przynosi korzyści w

postaci automatycznej akwizycji i przetwarzania wiedzy pozwalając skupić się na najistotniejszych

aspektach opracowywanego zagadnienia. Wg dzisiejszego stanu wiedzy jesteśmy wciąż daleko od pełnego

zrozumienia wszystkich procesów wpływających na lek i jego działanie w organizmie. Każda skuteczna

technologia pozwalająca na efektywniejsze pogłębianie i wykorzystanie tej wiedzy jest więc cenna i

skrzętnie wykorzystywana, jak właśnie m.in. metody in silico.