background image

 
  

1. Omów pojęcia: rozdzielczość spektralna, radiometryczna, 

przestrzenna i czasowa.  

Rozdzielczość spektralna - liczba osobno rejestrowanych kanałów spektralnych. 
Kanał spektralny – określony (wąski) zakres spektrum. elektromagnetycznego rejestrowany 
jako pojedynczy obraz 
Systemy obrazujące w teledetekcji mają rozdzielczość spektralną od kilku do kilkuset kanałów 
(tzw. hiperspektralne). 

spektralna  -  podająca  specyficzny  zakres  długości  fali  promieniowania  elektromagnetycznego,  które 
może  zapisać  czujnik  promieniowania;  rozdzielczość  spektralna  jest  podawana  dla  konkretnego 
systemu teledetekcyjnego poprzez wyszczególnienie, często specyficznych dla danego systemu, nazw 
kanałów i zakresów rejestrowanego w nich promieniowania, 

radiometryczna  -  precyzująca  liczbę  poziomów,  na  które  jest  podzielony  zakres  sygnału odbieranego 
przez  czujnik;  rozdzielczość  radiometryczna  jest  podawana  w  bitach  (np.  rozdzielczość  8-bitowa 
sygnalizuje możliwość zapisania przez czujnik 256 poziomów sygnału), 

Rozdzielczość przestrzenna określana jest wielkością 
najmniejszej  rejestrowanej  powierzchni  terenu,  przedstawianej  jako  najmniejszy  homogeniczny 
element obrazu (piksel – picture element). W technicznym ujęciu rozdzielczość ta jest determinowana 
przez chwilowe pole widzenia detektora (IFOV )2 oraz wysokość lotu 3.  
W przypadku wysokorozdzielczych sensorów (np. Ikonos, QuickBird) 4rozdzielczość ta waha się od 0,6 
do  2  Instantaneous  Field  of  View  (chwilowe  pole  widzenia  detektora).  FOV  –  Field  Of  View  (pole 
widzenia). 
W  praktycznym  wymiarze  im  mniejszy  piksel,  tym  zobrazowanie  przedstawia  więcej  szczegółów, 
pociągając za sobą zwiększenie wielkości plików, co w przypadku badań prowadzonych na większych 
obszarach jest znaczącym utrudnieniem. 
Dane  techniczne  pochodzą  ze  strony  www.eurimage.com,  http://eo1.usgs.gov/hyperion.php  oraz 
domowych stron poszczególnych systemów satelitarnych.4 m, dla satelitów środowiskowych wartości 
te oscylują w granicach kilkudziesięciu – kilkuset metrów (np. Landsat ETM+ 15-60 m, SPOT HRVR 10-
20  m,  a  SPOT  Vegetation  1000  m),  dla  satelitów  meteorologicznych  wielkość  piksela  znacząco 
przekracza wartość kilometra (np. piksel Meteosat wynosi 2,5-5,0 km w punkcie nadirowym). 
 
Rozdzielczość  czasowa  oznacza  czas  niezbędny  do  wykonania  ponownego  zobrazowania  danego 
obszaru. Dla satelitów meteorologicznych jest on bardzo krótki (MSG  – 15 min, Meteosat  – 30 min), 
natomiast  dla  satelitów  środowiskowych  wynosi  kilkanaście  dni  (Ikonos  –  11  dni,  Landsat  –  16  dni, 
Hyperion 16 – dni). 

2. Wymień i scharakteryzuj znane ci struktury i formaty zapisu 

cyfrowych obrazów satelitarnych.  

 

Format  HDF  (Hierarchical  Data  Format)  –  jest  wymiarowym  formatem  plików  używanych  do 
przesyłania danych w postaci graficznej oraz numerycznej między komputerami. Format HDF zawiera kilka 
modułów danych: wielowymiarowe macierze, grafikę rastrową oraz tablice. Każdy  z nich zawiera zespół 
zmiennych, które mogą być zapisywane, czytane oraz dodawane przez użytkownika. Format HDF jest samo 

background image

opisujący co oznacza, że czytając plik z danymi nie musimy posiadać żadnej informacji o strukturze pliku. 
Pliki  w  formacie  HDF  mogą  być  wymieniane  pomiędzy  większością  komputerów  i  systemów 
operacyjnych. Format HDF używany jest najczęściej dla danych satelitarnych.  
HDF  –  hierarchiczny  format  zapisu  danych  naukowych,  obrazowych  i  tekstowych  (tabelarycznych) 
uporządkowanych  w  logiczną  strukturę;  wszystkie  dane  obrazowe  w  jednym  pliku  i  towarzyszącym  mu 
pliku  z  metadanymi;  dane tekstowe  obejmują na  przykład  dane referencyjne  do korekcji  geometrycznej i 
dane kalibracyjne do korekcji radiometrycznej; generalnie w systemach przetwarzania obrazów i GIS dane 
teledetekcyjne posiadają w nazwie dodatkowo oznaczenie źródła danych – ASTER-HDF, LANDSAT-HDF, 
MODIS-HDF; jest to z założenia format archiwizacyjny. 
Format HDF został stworzony w NCSA (National Center for Supercomputing Applications). Jest dostępny 
za darmo, składa sie z bibliotek, narzędzi, aplikacji testujących, interfejsu Javy oraz stworzonego w Javie 
programu przeglądającego (HDFView). 
HDF wspiera różne modele danych, m.in. tablice wielowymiarowe, obrazy rastrowe. Każdy model danych 
posiada inne narzędzia do obróbki oraz posiada własne API do czytania i edycji danych i metadanych. Cały 
czas powstają nowe modele danych. 
Plik HDF może składać się z grupy połączonych obiektów, do których można się odwoływać pojedynczo 
bądź grupowo. 
Format HDF wywodzi sie z wynalezionego przez NASA formatu CDF (Common Data Format). 
 
DIMAP – to nowy format opisu danych geograficznych. Mimo, że był specjalnie zaprojektowany do 
danych obrazu, może także obsługiwać dane wektorowe. DIMAP został opracowany we współpracy z 
CNES, francuskiej agencji kosmicznej. Produkt SPOT w formacie DIMAP składa się z dwóch części: jedną 
z wizerunku i innych do opisu zdjęcia.  Aby ułatwić życie użytkowników, Spot Image postanowił 
opracować format, który obsługuje wszystkie produkty Spot. Chociaż format ten przeznaczony był przede 
wszystkim dla produktów Spot, DIMAP jest otwartym formatem, który obsługuje produkty pochodzące z 
innych źródeł satelitarnych. DIMAP nie jest zastrzeżonym formatem i w związku z tym oddany do 
publicznego użytku. DIMAP jest produktem sprawiającym, że spot jest łatwiejszy w obsłudze. Aby 
wyświetlić opis informacji o produkcie, użytkownicy muszą po prostu kliknąć na pliku DIMAP. Rozwój 
nowych usług on-line był również kluczowym czynnikiem powstania nowego formatu. Dla wsparcia on-
line, dostarczania danych, DIMAP pozwala użytkownikom na dostęp do informacji technicznej i 
metadanych, takich jak descrition produktu, numer referencyjny, data produkcji, warunki użytkowania i tak 
dalej. Dane obrazu są domyślnie zapisane w formacie GeoTIFF, w oparciu o Tagged Image File Format 
(TIFF). Format ten jest obsługiwany przez wszystkie komercyjne oprogramowanie, a zatem jest  łatwy do 
integracji. Rozszerzenia Geographic (GEO) części formatu jest obsługiwane przez wszystkie 
oprogramowania GIS. W DIMAP dane GeoTIFF zawierają wszystkie informacje do projekcji map. Kody są 
opracowane w oparciu o EPSG parametrów geodezyjnych, które odnoszą się do World Geodetic System. W 
rzadkich przypadkach, gdy użytkownik jest w stanie przeczytać GeoTIFF, DIMAP udostępnia funkcję do 
wytwarzania surowców Band Interleaved przez Line format (BIL). Wszystkich informacji dotyczących 
wielkości obrazu, pasma spektralne i georeferencing zawarte są w metadanych części formatu. Metadane 
występują w formacie XML (Extensible Markup Language). XML jest podobny do HTML. Jego struktura 
jest lepiej zdefiniowana niż w HTML i umożliwia użytkownikom tworzenie własnych słów kluczowych i 
związanych z nimi wartości. Inne zalety XML jest to, że można ją odczytać bezpośrednio za pomocą 
standardowych przeglądarek internetowych i obsługuje arkusze stylów XSL . DIMAP to elastyczny format, 
dostosowujący się do konkretnego produktu przy użyciu funkcji "profil" koncepcji. Profil DIMAP jest opis 
produktu lub gamy produktów o identycznej funkcji. Istnieją dwa profile dla produktów spot: Sceny SPOT i 
SPOTView. SPOT profil Scene opisuje podstawowe produkty funkcji (satelita, datę nabycia, kąt widzenia, 
jasność, statystyki, itp.) oraz informacje dotyczące wyświetlania geometrii. Profil SPOTView opisuje tylko 
podstawowe funkcje produktu. XSL arkuszy stylów dynamicznie generują strony HTML i w zależności od 

background image

profilu DIMAP jest używany, zapewniając w ten sposób, że wszystkie produkty Spot i innych produktów 
wyświetlane są automatycznie w ten sam sposób. DIMAP wymaga: 
Przeglądarki dla XML oraz XSL metadanych pliku (np.Microsoft Internet Explorer lub Netscape Navigator 
6),TIFF lub edytor zdjęć GeoTIFF do pliku obrazu. Najprostszym rozwiązaniem jest korzystanie z 
oprogramowania, które jest w stanie odczytać zarówno zdjęcia jak i pliki metadane.  
 

CEOS – jest to prosty, tylko do odczytu, czytnik dla plików graficznych. Ten sterownik odczytuje tylko 
dane obrazu i nie może uchwycić wszystkich metadanych .  

Główne cechy formatu: 

Organizacja Medium 
 
Średniej w formacie CEOS zawiera następujące pliki:  

 

wielkość jednego pliku w katalogu, 

 

jeden z przywódców pliku, 

 

jeden plik danych, zawierający wszystkie produkty.  Jeśli medium jest CD-ROM, jest jeden plik 
tego typ na orbicie i wszystkich plików danych można znaleźć w określonym katalogu CD-ROM.  

 

NULL katalogu plik z rozszerzeniem medium 

 
Pierwsze dwa pliki zawierające ogólne informacje na temat dystrybucji produktów, ale produkty znajdują 
się w pliku danych (s).  
Jeśli medium jest eksabajt, jest to niezbędne, aby pominąć te dwa pliki, aby móc zapoznać się z produktami 
w pliku danych.  
 
Format plików z danymi 
 
Produktów w pliku danych są zorganizowane w następujący format:  

 

jeden rekord nagłówka (zapis pliku deskryptora) z 360 bajtów.  

 

N rekordów danych produktów odpowiadających N. Każdy rekord składa się z:  

  jeden nagłówek 20 bajtów  
  produkt wykonany z jednego głównego nagłówka (MPH), jednym z 
konkretnych header (SPH), a następnie n pomiarów (DSR). Format jest 
opisany w instrukcji obsługi produktu.  
  jeżeli to konieczne, jeden zapasowy bajt, tak by wielkość zapisu danych jest 
parzysta liczba bajtów. 

 

3. Wymień znane Ci teledetekcyjne systemy satelitarne i sensory 

rejestrujące zakres VNIR z podziałem na systemy HR (wysokiej 
rozdzielczości) i VHR (bardzo wysokiej rozdzielczości).  

VHR  -  Very  High  Resolution 

–  systemy  obrazujące  z  pikselem  terenowym  równym  lub 

mniejszym od 1m 
VNIR:  
a) VHR: IKONOS-2, QuickBird, WorldView-2, GeoEyE-1 
b) HR: ALOS, Formosat-2, SPOT-5, RapidEye, Aster, CBERS-2 

 

4. Przedstaw różnice w obrazowaniu wielospektralnym, 
superspektralnym i hiperspektralnym.  

background image

Obrazowanie wielospektralne (wielowidmowe) (multispektralne), superspektralne i hiperspektralne – techniki 
rejestracji obrazu będące uogólnieniem fotografii barwnej na pełną przestrzeń barw w zakresie światła widzialnego, a 
także mikrofal, dalekiej i bliskiej podczerwieni oraz ultrafioletu. Obraz wielospektralny składa się z wielu kanałów 
będących uogólnieniem kanałów barw podstawowych: R (red), G (green) i B (blue) na dowolne zakresy spektralne. 

Idealny przyrząd do obrazowania wielospektralnego dokonuje w określonym przedziale współrzędnych i długości fal 
jednoczesnego pomiaru funkcji I (x,y), gdzie xy są współrzędnymi na obrazowanej powierzchni, λ jest długością fali 
elektromagnetycznej, zaś I jest natężeniem energii promieniowania przypadającym na przedział  Δx, Δy, Δλ wokół 
punktu  xy, λ. 

Praktyczne realizacje powyższej idei, zależnie od przedziałów długości fali i rozdzielczości spektralnej, noszą różne 
nazwy

[4]

W zależności od liczby kanałów spektralnych techniki obrazowania dzielimy umownie na: 

 

multispektralne – kilka kanałów, np. satelita 

SPOT

 – 3 kanały, 

IKONOS

 – 4 kanały, 

Landsat

 – 7 kanałów

[

 

 

superspektralne – kilkadziesiąt kanałów, np. instrument satelitarny 

MODIS

 (MODerate resolution Imaging 

Spectroradiometer) zainstalowany w satelitach Aqua i Terra zawierający 36 kanałów 

 

hiperspektralne – 100 lub więcej kanałów

[4]

 

Inne źródła

[5]

 nie wprowadzają pojęcia obrazowania superspektralnego, zastępując je szerszym zakresem 

multispectral imaging, a przy tym definiują różnicę pomiędzy obrazem multispektralnym a hiperspektralnym, nie 
tylko w oparciu o liczbę kanałów, ale także ich ciągłość; obrazowanie hiperspektralne definiuje się jako możliwość 
uzyskania rozkładu natężeń w ciągłym zakresie długości fal, natomiast obraz multispektralny może obejmować 
rozdzielone fragmenty widma; w szczególności obraz multispektralny może być wykonywany przez wiele 
współpracujących ze sobą czujników fotometrycznych różnego typu – każdy związany z innym zakresem długości fal. 

ZASTOSOWANIE 

-W systemach zbierania informacji geograficznych, w tym zwłaszcza w Systemach Informacji o Terenie. Dane 
multispektralne pozwalają na zdobycie o wiele pełniejszej informacji o terenie, niż tradycyjna fotografia satelitarna. 
-W meteorologii – pozwalają na badanie rozkładu koncentracji pary wodnej, a także rozkładów temperatur gruntu, 
wody i mas powietrza. 
-Obrazy multispektralne i hiperspektralne są przydatne w badaniu rozkładu populacji roślin, w szczególności flory 
oceanicznej oraz drzewostanów na obszarach leśnych. 
-W badaniach zabytkowych dzieł sztuki, w tym obrazów, książek obrazowanie wielospektralne jest niezastąpionym 
narzędziem nieinwazyjnego badania autentyczności oraz ukrytej treści dzieła. 
-Inwigilacja, ratownictwo, poszukiwania obiektów 
-Kryminalistyka 

 

5. Wymień i krótko scharakteryzuj etapy detekcji i generowania obrazu 
satelitarnego.  

Światło odbite od obiektów trafia do detektora naziemnego, lotniczego i satelitarnego. 
Detektorem tym może być np. aparat fotograficzny lub skaner lotniczy czy satelitarny. 
Skaner dzieli dopływające promieniowanie na różne zakresy w zależności od długości fali 
elektromagnetycznej. Pozyskane fale przechodzą etap luminancji. 
Kolejnym etapem jest wybór poziomu przetwarzania geometrycznego. 
Następnie sprowadza się obraz na poziom DN (Digital Number) przedstawiony s w postaci liczby cyfrowej. 
Przetwarzanie obrazu wykonuje się poprzez zastosowanie odpowiednich operacji cyfrowego przetwarzania 
obrazów.  
Wykorzystuje się operacje: 
- punktowe: dotyczą pojedynczego piksela 
- lokalne: dotyczą najbliższego otoczenia piksela i obejmują od kilku do kilku tysięcy pikseli 

background image

- globalne: dotyczą całego obrazu. 
Następnym etapem jest wykonanie wielomianowych korekcji geometrycznych obrazów satelitarnych. 
 Wyróżniamy korekcje:  
- typu „orto” (ścisłe parametryczne) 
- wielomianowe (nieparametryczne) 
 

6. Wymień i krótko omów znane Ci typy danych stosowane w zapisie 
obrazów satelitarnych (rodzaje słów binarnych i ich długości bitowe).  

Dane typu bitowego- pliki binarne  w formie bitmapy(siatka pikseli). Pozyskiwane na drodze skanowania 
Obraz cyfrowy U jest dwuwymiarową macierzą o wymiarze W x S (368x286) gdzie każdy jej element 
U(i,j) jest nazywany pikselem. W czasie procesu wyświetlania obrazu np. na ekranie tworzona jest 
graficzna reprezentacja tej macierzy gdzie każdy piksel ma wartość powiązaną z odcieniem szarości (obraz 
monochromatyczny) lub kolorem. Zazwyczaj używa się kodowania ośmio bitowego dla obrazu w skali 
szarości (opisywany cyfrowo w granicach 0 (czerń) do 2 55 (biel) tg 28 = 256 poziomów szarości) i 
dwudziestocztero bitowego dla obrazu skali RGB ( 8 bitów na każdy kolor R- red - czerwony, G - green - 
zielony, B -blue - niebieski). Histogram h(k) jest funkcją którą możemy posłużyć sie w celu oceny 
liczebności piksli danego koloru  k w całym obrazie. W najprostszej definicji h(k) = N gdzie N jest liczba 
danego koloru a k ={0..kmax} (kmax -liczba kolorów). W przypadku obrazów w skali szarości mamy więc 
kmax=256 czyli 256 kanałów do których mozemy przypisać liczbę wystąpień danego koloru. Jakosc obrazu 
cyfrowego określa się zazwyczaj za pomocą dwuch podstawowych parametrów: 



Rozdzielczość geometryczna - podawana przeważnie w jednostkach „dpi" czyli ilości 

pikseli w linii obrazu na długości jednego cala 



Rozdzielczość radiometryczna - czyli z jaką dokładnością podaje się jasność piksela. 

Zalezy ona od ilosci bitów przeznaczonych na zapis liczby okreslajacej jasnosc. 
Najczesciej wykorzystuje się osiem bitów, czyli jeden bajt, co daje 256 stopni jasnosci, 
czasem cztery bity co daje 16 stopni jasnosci, natomiast w niektórych profesjonalnych zastosowaniach 
dziesiec, dwanascie lub wiecej bitów

Najpopularniejsze edytory rastrowe Aldus PhotoStyler, Adobe Photoshop, Corel Photo Paint, Dane 
trójwymiarowe nazywane są Wokselami Dane rastrowe charakteryzowane są tzw. Rozdzielczością obrazu 
wyrażoną zazwyczaj liczbą pikseli przypadającej na liczbę pikseli 1 cala( ppi-pixel per inch) i rozmiarem 
obrazu, czyli wymiarami matryzy rastrowej  wyrażonej czasmai w nol na ppl(piel per line) . Jeśłi 
rozdzielczość wynosi 254 dpi wtedy wymiary jednego piksela wynoszą 0,1 x0,1mm gdy 1000x1000pikseli 
=>100x100 mm Obraz jedno bitowy reprezentuje dwie barwy, czarna i białą, piksel o głębokości 24 
dysponuje możliwością 2 

24

 milionów odcieni. 

Na stronie 11 z 23 macie przykłady nazw plików 

http://zk.gik.pw.edu.pl/Edukacja/Wyklady/Rastry.pdf 

7. Wymień rodzaje znanych Ci filtrów przestrzennych i podaj przykłady 
numeryczne.  

background image

 

Rodzaje filtrów  
Efekt filtracji zależy od rodzaju filtru który zostanie do tego celu wykorzystany oraz od jego wielkości(tzw. 
rząd macierzy filtru). Ze względu na odmienne działanie różnych masek filtrów wyróżniamy: 
Filtry dolnoprzepustowe  
Działanie tego typu filtrów opiera się na odcinaniu(usuwaniu) elementów obrazu o wysokiej 
częstotliwości(szczegółów) i przepuszczaniu elementów o niskiej częstotliwości(ogólnych kształtów, bez 
szczegółów). Ponieważ większość szumów występujących w obrazach zawiera się w wysokich 
częstotliwościach, filtry te przeważnie wykorzystuje się właśnie do eliminacji zakłóceń. Właściwie 
dopasowując rząd macierzy filtru można usuwać zakłócenia różnej wielkości, ograniczając przy tym utratę 
szczegółów(wysokich częstotliwości) w odfiltrowywanym obrazie. Filtry dolnoprzepustowe to zazwyczaj 
filtry uśredniające z pewnymi wagami. Poniżej znajduje się kilka przykładów filtrów dolnoprzepustowych o 
macierzy trzeciego rzędu (wielkość maski 3x3): 

 

Filtry górnoprzepustowe  
Filtry te działają w sposób odwrotny do filtrów dolnoprzepustowych, tłumią one niskoczęstotliwościowe 
elementy obrazu, wzmacniają natomiast elementy o wysokich częstotliwościach (szczegóły). Wynikiem 
działania tego typu filtrów jest podkreślenie, uwypuklenie elementów obrazu o dużej częstotliwości 
poprzez zwiększenie ich jasności, koloru, itp. Dla obrazu jako całości efektem jest zazwyczaj zwiększenie 
kontrastu poprzez podkreślenie ostrych krawędzi obiektów. Poniżej znajduje się kilka filtrów 
górnoprzepustowych o macierzy trzeciego rzędu (wielkość maski 3x3): 

 

Filtry statystyczne 
Wyróżnia je fakt, iż nie posiadają stałej maski jak w przypadku innych filtrów. Nowe wartości pikseli są 
wyliczane na drodze sortowania pikseli obrazu źródłowego w obrębie maski. Po sortowaniu, w zależności 
od rodzaju filtru, wybierana jest wartość środkowa, maksymalna, bądź minimalna. 
Filtr medianowy  

background image

Filtr medianowy jest przykładem filtru nieliniowego. Stosuje się go przede wszystkim do usuwania 
zakłóceń punktowych typu pieprz i sól, potrafi on wtedy usunąć szum przy minimalnej utracie jakości 
obrazu lub całkowicie bez strat. Wyliczanie wartości wyjściowej dla filtru medianowego 3 rzędu można 
przedstawić następująco: 
Ponieważ wielkość maski wynosi 3x3, wiec w jej obrębie znajduje się 9 pikseli obrazu źródłowego (P0, P1, 
P2, P3, P4, P5, P6, P7, P8). Zależnie od poszczególnych wartości, w wyniku sortowania możliwy jest 
następujący rozkład posortowanych wartości : (P5, P8, P1, P2, P6, P4, P7, P0, P3). W przypadku filtru 
medianowego wartością wynikową będzie wartość środkowa, czyli P6 i ona właśnie jest przepisywana do 
tworzonego obrazu. 
Filtr maksymalny i minimalny 
Do obrazu wynikowego jest kopiowana minimalna lub maksymalna wartość przyjmowana przez punkty 
sąsiadujące z punktem "wybranym" przez środek maski. Filtrowi minimalnemu towarzyszy "erozja" 
(zmniejszenie) wielkości obiektów obrazu, maksymalnemu zaś - ich "dylatacja" (powiększenie). 
Inne filtry 

 

Filtry konturowe 

 

Filtry krawędziowe 

 

Kierunkowe filtry gradientowe 

 

Płaskorzeźba 

 

Laplace'any (Laplasjany) 

 

8. Wymień i opisz metody interpolacji wartości pikseli (resampling).  

Elementarnym elementem obrazu cyfrowego podlegającym przetworzeniu jest piksel. 
Pierwszym etapem przekształcenia jest transformacja współrzędnych środków 
poszczególnych pikseli do położenia na obrazie wynikowym. W wyniku otrzymamy nieregularną 
siatkę „nowych pikseli" (rys. 6.1). Obraz cyfrowy musi być podzielony na regularną siatkę 
pikseli. W związku z tym drugim etapem jest tzw. „resampling” tzn. interpolacja jasności regularnej 
siatki pikseli na podstawie nieregularnie rozłożonych „nowych pikseli”. 
Metoda odwrotna polega na tym, że transformacja położenia środków pikseli dokonywana 
jest w kierunku odwrotnym niż poprzednio.  Środki pikseli obrazu wynikowego transformowane 
są na obraz pierwotny. Następnie jasność przetransformowanego środka piksela jest 
interpolowana na podstawie otaczających go pikseli obrazu pierwotnego. Wyinerpolowana 
jasność przypisywana jest przetwarzanemu pikselowi obrazu wtórnego 
Stosuje się różne metody interpolacji: 
• najbliższego sąsiada (jasność piksela obrazu wynikowego równa jest jasności 
najbliższego z przetransformowanych środków obrazu pierwotnego 
• interpolacja ze zbioru kilku otaczających przetransformowanych środków obrazu 
pierwotnego z wykorzystaniem jakiejś funkcji (np biliniowa, bisześcienna). 

9. W jakim celu przeprowadza się korekcje geometryczne?  

Korekcja radiometryczna usuwa efekty zakłóceń spowodowanych wadliwą pracą detektorów, wpływami 
atmosfery i topografii (zachmurzenie, różnice w oświetleniu wynikające z obiektów terenowych, np. cień 
rzucany przez góry). Korekcja geometryczna eliminuje zniekształcenia obrazu wynikające z ruchu sensorów 
oraz faktu rzutowania fragmentu powierzchni kuli ziemskiej (3D) na płaszczyznę (2D). Bardzo ważny w tym 
procesie jest wybór odpowiedniego odwzorowania kartograficznego i systemu odniesień przestrzennych. 
Niezbędna jest również tzw. ortorektyfikacja usuwająca zniekształcenia kształtów obiektów widocznych na 
obrazie spowodowane wpływem rzeźby terenu. Korekcja geometryczna zdjęć lotniczych i satelitarnych 
wymaga znajomości dokładnych współrzędnych wybranych punktów terenowych widocznych na zdjęciach. 
10. Co to jest błąd średniokwadratowy?  

background image

11. Opisz schemat klasyfikacji nadzorowanej.  

     Klasyfikacja treści zdjęcia metodą nadzorowaną polega na wyborze pewnych obszarów, które 
można uznać za reprezentacyjne dla określonych obiektów. W tym przypadku konieczna jest 
znajomość charakterystyki tych obiektów, którą należy pozyskać w wyniku analizy map, zdjęć 
satelitarnych itp. Klasy są zdefiniowane przez obserwatora jako wzorce, a ich liczba jest z góry 
znana. Nie wiadomo tylko ile pikseli znajduje się w danej klasie.  
      Wzorce przedstawiają tzw. pola treningowe  o określonej jaskrawości, wyznaczone na 
zdjęciach satelitarnych, a następnie identyfikowane i digitalizowane. Następnie nadaje się 
określonym polom nazwy obiektów, które one reprezentują np. grunty orne, lasy, zabudowania 
itp.  
     Następnie dla grupy pikseli, które znalazły się w danym polu treningowym określana jest 
średnia wartość jaskrawości w jednym lub kilku wybranych kanałach. 
     Wybór kanałów powinien być uporządkowany następującymi zasadami: 

•  do klasyfikacji należy wybrać kanały mniej skorelowane ze sobą, tak by każdy z nich wnosił 

inne informacje. 

•  należy wybierać najmniejszy z możliwych zestaw kanałów. 

 Stosowane są różne procedury klasyfikacji: 

•  minimalnej odległości 

      Piksel jest przyporządkowany do tej kategorii dla której odległość do obliczonej klasy wartości 
średniej jest najmniejsza. 

•  maxymalnego prawdopodobieństwa 

      Dla każdego piksela obliczane jest prawdopodobieństwo należenia do każdej z klas i piksel jest 
przydzielony do tej kategorii dla której jest największe prawdopodobieństwo.  

•  metoda równoległościanów 

Klasyfikacja nadzorowana schemat: 
1. Wybór i lokalizacja wzorców klas 
2. Definiowanie wzorców klas poprzez digitalizację pól treningowych 
3. Określenie charakterystyk liczbowych dla wzorców klas, tworzenie tzw. sygnatur 
4. klasyfikacja całego obrazu za pomocą wybranego algorytmu 

12. Wymień metody klasyfikacji.  

     Klasyfikacja treści zdjęcia metodą nadzorowaną polega na wyborze pewnych obszarów, które 
można uznać za reprezentacyjne dla określonych obiektów. W tym przypadku konieczna jest 
znajomość charakterystyki tych obiektów, którą należy pozyskać w wyniku analizy map, zdjęć 
satelitarnych itp. Klasy są zdefiniowane przez obserwatora jako wzorce, a ich liczba jest z góry 
znana. Nie wiadomo tylko ile pikseli znajduje się w danej klasie.  
      Wzorce przedstawiają tzw. pola treningowe  o określonej jaskrawości, wyznaczone na 
zdjęciach satelitarnych, a następnie identyfikowane i digitalizowane. Następnie nadaje się 
określonym polom nazwy obiektów, które one reprezentują np. grunty orne, lasy, zabudowania 
itp.  
 
Klasyfikacja nienadzorowana: 
Klasyfikacja ta wykorzystuje sposoby grupowania pikseli  

background image

     w przestrzeni wielospektralnej. 
     W tej metodzie klasyfikacji uwzględnia się wyłącznie informacje pozyskane za pomocą skanera 
o jaskrawości obiektów, natomiast nie bierze się po uwagę, żadnych danych pomocniczych.  
     Istota klasyfikacji nienadzorowanej jest umiejscowieniem w wielowymiarowej przestrzeni 
spektralnej wszystkich pikseli rozpatrywanego fragmentu zdjęcia.  
     Piksele te tworzą zbiór z różnymi ośrodkami zagęszczenia powstałymi w wyniku podobieństwa 
poszczególnych pikseli.   

 

13. Podaj sposoby przeprowadzania analizy dokładności klasyfikacji 
nadzorowanej.  

Końcowym etapem klasyfikacji obrazów jest analiza dokładności wyznaczenia poszczególnych klas. 
Oszacowanie dokładności wykonywanych procedur klasyfikacyjnych polega n porównaniu otrzymanych 
map tematycznych ze starannie dobranymi polami testowymi zlokalizowanymi w innych miejscach niż pola 
treningowe. Wynik klasyfikacji można także ocenić na podstawie interpretacji wizualnej. Polega ona na 
wizualnym porównaniu analizowanych klas z wynikami otrzymanymi w klasyfikacji wykonanej w zbliżonym 
terminie na innych obrazach użycie macierzy błędów, zwanej także macierzą rozbieżności. W oparciu o nią 
określa się, z jaką dokładnością piksele z pól testowych zostały przypisane do odpowiednich klas. W tym 
celu oblicza się całkowitą dokładność wykonawcy oraz błędy pominięcia i przeszacowania. Dokładność 
całkowita obliczana jest jako stosunek liczby pikseli sklasyfikowanych prawidłowo do całkowitej liczby 
pikseli. Liczbę pikseli zaklasyfikowanych prawidłowo do poszczególnych klas otrzymuje się odczytując 
wartości na przekątnej macierzy rozbieżności. Dokładność wykonawcy jest to stosunek liczby pikseli 
poprawnie sklasyfikowanych przez klasyfikator jako dana klasa do liczby wszystkich pikseli referencyjnych 
w tej klasie. Dokładność użytkownika jest to stosunek liczby pikseli, które zostały sklasyfikowane właściwie 
jako dana klasa, przez klasyfikator do tej klasy. 
Błąd pominięcia to procent pikseli, które wg. danych referencyjnych powinny należeć do wskazanej klasy, a 
zostały błędnie przyporządkowane do innych klas. Natomiast błąd przeszacowania to procent pikseli, które 
zostały poprawnie zaklasyfikowane do danej klasy wśród wszystkich pikseli do niej należących. Osiągnięcie 
dużej dokładności wymaga wykorzystanie odpowiedniej liczby pikseli do każdego z pól testowych. 
Innym sposobem wyznaczenia dokładności klasyfikacji jest użycie współczynnika kappa. Pozwala on 
określić, jak dobrze obydwie klasyfikacje do siebie pasują, z uwzględnieniem ich przypadkowej zgodności.   
Najpopularniejszym sposobem oceny dokładności klasyfikacji jest 

14. Co to jest histogram? 

 

a) ogólnie-Składa się z szeregu prostokątów umieszczonych na osi współrzędnych. Prostokąty te są z jednej 

strony wyznaczone przez przedziały klasowe (patrz: Szereg rozdzielczy) wartości cechy, natomiast ich 
wysokość jest określona przez liczebności (lub częstości, ewentualnie gęstość prawdopodobieństwa) 
elementów wpadających do określonego przedziału klasowego. 

b) w fotografii- to wykres słupkowy przedstawiający częstość występowania określonej wielkości. W przypadku fotografii 
(nie tylko cyfrowej) histogram pokazuje przykład punktów o różnej jasności na naszym zdjęciu. Nawiązując do 
tradycyjnego wykresu, to na osi poziomej mamy jasność punktów, od całkowicie czarnych - po lewej stronie, do 
intensywnie białych - po prawej. Każdej wartości jasności przypisany jest słupek o wysokości proporcjonalnej do liczby 
punktów o tej jasności. 

 

15. Wymień, opisz i przedstaw na rysunku rodzaje histogramów.  

histogram zwykły, skumulowany 

background image

Histogramy 2W - Zwykły. 

Ten prosty histogram prezentuje rozkładu liczności dla wybranej 

zmiennej (w przypadku wybrania więcej niż jednej zmiennej dla każdej zmiennej z listy 
zostanie utworzony osobny wykres). 

Histogramy 2W. 

Histogramy 2W (termin ten został po raz pierwszy użyty przez Pearsona, 

1895) stanowią graficzny sposób przedstawienia rozkładu liczebności wybranej(-ych) 
zmiennej(-ych), na którym kolumny (słupki) są wykreślane ponad przedziałami klasowymi, 
a wysokość kolumn jest proporcjonalna do liczebności klas. 

 

 

Histogram skumulowany to funkcja obliczona na podstawie histogramu w następujący 
sposób. Pierwszy element to ilość pikseli o odcieniu '0', a kolejne wartości to ilość pikseli 
o odcieniu  'n'  +  suma  pikseli  o  odcieniach  0  -  n-

1.  Jeżeli  histogram  jest  w  postaci 

znormalizowanej  (gęstość  rozkładu  prawdopodobieństwa)  to  histogram  skumulowany 
stanowi dystrybuantę rozkładu prawdopodobieństwa. 
c) wyliczanie histogramu skumulowanego -  cumsum 
d) tworzenie przekodowania LUT -  intlut 

 

Histogram skumulowany –czarny, histogram –czerwony 

 
- histogram jednowymiarowy, wielowymiarowy 
 
- histogram jednomodalny

, wielomodalny (ze względu na liczbę punktów esktremalnych 

background image

wyróżniamy jednomodalne ( jedna wartość dominująca) i wielomodalne ( kilka wartości 
dominujących) 
Jedomodalny: 

Rozkład mający tylko jedną wartości modalną (maksymalną). Typowym przykładem 
jest 

rozkład normalny

, który jest ponadto rozkładem 

symetrycznym

. Jest jednak wiele 

rozkładów jednomodalnych, które nie są symetryczne (np. rozkład dochodów zazwyczaj 
nie jest rozkładem symetrycznym lecz lewostronnie skośnym, patrz 

skośność

). 

 

 
Wielomodalny: 

 

Jest to rozkład, który ma wiele wartości modalnych (a więc dwa lub więcej maksima na 

wykresie funkcji gęstości rozkładu)

 

 

 

histogram symetryczny (ze względu na rodzaj zmienności: wyróżniamy tu rozkłady empiryczne 

symetryczne (mają oś symertriia po obu jej stronach rozkład ilości jest taki sam),  
 

asymetryczny

(rozkład ilości po obu stronach osi jest różny)

 Gdybyśmy podzielili rozkład na 

dwie połowy w punkcie średniej (lub mediany), wówczas rozkład wartości po obu stronach 
tego środkowego punktu nie byłby taki sam (tzn. nie byłby symetryczny), lecz musiałby 
być potraktowany jako "skośny".