odpowiedzi do koła

  1. Omów pojęcia: rozdzielczość spektralna, radiometryczna, przestrzenna i czasowa.

Rozdzielczość spektralna - liczba osobno rejestrowanych kanałów spektralnych.

Kanał spektralny – określony (wąski) zakres spektrum. elektromagnetycznego rejestrowany jako pojedynczy obraz

Systemy obrazujące w teledetekcji mają rozdzielczość spektralną od kilku do kilkuset kanałów (tzw. hiperspektralne).

spektralna - podająca specyficzny zakres długości fali promieniowania elektromagnetycznego, które może zapisać czujnik promieniowania; rozdzielczość spektralna jest podawana dla konkretnego systemu teledetekcyjnego poprzez wyszczególnienie, często specyficznych dla danego systemu, nazw kanałów i zakresów rejestrowanego w nich promieniowania,

radiometryczna - precyzująca liczbę poziomów, na które jest podzielony zakres sygnału odbieranego przez czujnik; rozdzielczość radiometryczna jest podawana w bitach (np. rozdzielczość 8-bitowa sygnalizuje możliwość zapisania przez czujnik 256 poziomów sygnału),

Rozdzielczość przestrzenna określana jest wielkością

najmniejszej rejestrowanej powierzchni terenu, przedstawianej jako najmniejszy homogeniczny element obrazu (piksel – picture element). W technicznym ujęciu rozdzielczość ta jest determinowana przez chwilowe pole widzenia detektora (IFOV )2 oraz wysokość lotu 3.

W przypadku wysokorozdzielczych sensorów (np. Ikonos, QuickBird) 4rozdzielczość ta waha się od 0,6 do 2 Instantaneous Field of View (chwilowe pole widzenia detektora). FOV – Field Of View (pole widzenia).

W praktycznym wymiarze im mniejszy piksel, tym zobrazowanie przedstawia więcej szczegółów, pociągając za sobą zwiększenie wielkości plików, co w przypadku badań prowadzonych na większych obszarach jest znaczącym utrudnieniem.

Dane techniczne pochodzą ze strony www.eurimage.com, http://eo1.usgs.gov/hyperion.php oraz domowych stron poszczególnych systemów satelitarnych.4 m, dla satelitów środowiskowych wartości te oscylują w granicach kilkudziesięciu – kilkuset metrów (np. Landsat ETM+ 15-60 m, SPOT HRVR 10-20 m, a SPOT Vegetation 1000 m), dla satelitów meteorologicznych wielkość piksela znacząco przekracza wartość kilometra (np. piksel Meteosat wynosi 2,5-5,0 km w punkcie nadirowym).

Rozdzielczość czasowa oznacza czas niezbędny do wykonania ponownego zobrazowania danego obszaru. Dla satelitów meteorologicznych jest on bardzo krótki (MSG – 15 min, Meteosat – 30 min), natomiast dla satelitów środowiskowych wynosi kilkanaście dni (Ikonos – 11 dni, Landsat – 16 dni, Hyperion 16 – dni).

  1. Wymień i scharakteryzuj znane ci struktury i formaty zapisu cyfrowych obrazów satelitarnych.

Format HDF (Hierarchical Data Format) – jest wymiarowym formatem plików używanych do przesyłania danych w postaci graficznej oraz numerycznej między komputerami. Format HDF zawiera kilka modułów danych: wielowymiarowe macierze, grafikę rastrową oraz tablice. Każdy z nich zawiera zespół zmiennych, które mogą być zapisywane, czytane oraz dodawane przez użytkownika. Format HDF jest samo opisujący co oznacza, że czytając plik z danymi nie musimy posiadać żadnej informacji o strukturze pliku. Pliki w formacie HDF mogą być wymieniane pomiędzy większością komputerów i systemów operacyjnych. Format HDF używany jest najczęściej dla danych satelitarnych.

HDF – hierarchiczny format zapisu danych naukowych, obrazowych i tekstowych (tabelarycznych) uporządkowanych w logiczną strukturę; wszystkie dane obrazowe w jednym pliku i towarzyszącym mu pliku z metadanymi; dane tekstowe obejmują na przykład dane referencyjne do korekcji geometrycznej i dane kalibracyjne do korekcji radiometrycznej; generalnie w systemach przetwarzania obrazów i GIS dane teledetekcyjne posiadają w nazwie dodatkowo oznaczenie źródła danych – ASTER-HDF, LANDSAT-HDF, MODIS-HDF; jest to z założenia format archiwizacyjny.

Format HDF został stworzony w NCSA (National Center for Supercomputing Applications). Jest dostępny za darmo, składa sie z bibliotek, narzędzi, aplikacji testujących, interfejsu Javy oraz stworzonego w Javie programu przeglądającego (HDFView).

HDF wspiera różne modele danych, m.in. tablice wielowymiarowe, obrazy rastrowe. Każdy model danych posiada inne narzędzia do obróbki oraz posiada własne API do czytania i edycji danych i metadanych. Cały czas powstają nowe modele danych.

Plik HDF może składać się z grupy połączonych obiektów, do których można się odwoływać pojedynczo bądź grupowo.

Format HDF wywodzi sie z wynalezionego przez NASA formatu CDF (Common Data Format).

DIMAP – to nowy format opisu danych geograficznych. Mimo, że był specjalnie zaprojektowany do danych obrazu, może także obsługiwać dane wektorowe. DIMAP został opracowany we współpracy z CNES, francuskiej agencji kosmicznej. Produkt SPOT w formacie DIMAP składa się z dwóch części: jedną z wizerunku i innych do opisu zdjęcia. Aby ułatwić życie użytkowników, Spot Image postanowił opracować format, który obsługuje wszystkie produkty Spot. Chociaż format ten przeznaczony był przede wszystkim dla produktów Spot, DIMAP jest otwartym formatem, który obsługuje produkty pochodzące z innych źródeł satelitarnych. DIMAP nie jest zastrzeżonym formatem i w związku z tym oddany do publicznego użytku. DIMAP jest produktem sprawiającym, że spot jest łatwiejszy w obsłudze. Aby wyświetlić opis informacji o produkcie, użytkownicy muszą po prostu kliknąć na pliku DIMAP. Rozwój nowych usług on-line był również kluczowym czynnikiem powstania nowego formatu. Dla wsparcia on-line, dostarczania danych, DIMAP pozwala użytkownikom na dostęp do informacji technicznej i metadanych, takich jak descrition produktu, numer referencyjny, data produkcji, warunki użytkowania i tak dalej. Dane obrazu są domyślnie zapisane w formacie GeoTIFF, w oparciu o Tagged Image File Format (TIFF). Format ten jest obsługiwany przez wszystkie komercyjne oprogramowanie, a zatem jest łatwy do integracji. Rozszerzenia Geographic (GEO) części formatu jest obsługiwane przez wszystkie oprogramowania GIS. W DIMAP dane GeoTIFF zawierają wszystkie informacje do projekcji map. Kody są opracowane w oparciu o EPSG parametrów geodezyjnych, które odnoszą się do World Geodetic System. W rzadkich przypadkach, gdy użytkownik jest w stanie przeczytać GeoTIFF, DIMAP udostępnia funkcję do wytwarzania surowców Band Interleaved przez Line format (BIL). Wszystkich informacji dotyczących wielkości obrazu, pasma spektralne i georeferencing zawarte są w metadanych części formatu. Metadane występują w formacie XML (Extensible Markup Language). XML jest podobny do HTML. Jego struktura jest lepiej zdefiniowana niż w HTML i umożliwia użytkownikom tworzenie własnych słów kluczowych i związanych z nimi wartości. Inne zalety XML jest to, że można ją odczytać bezpośrednio za pomocą standardowych przeglądarek internetowych i obsługuje arkusze stylów XSL . DIMAP to elastyczny format, dostosowujący się do konkretnego produktu przy użyciu funkcji "profil" koncepcji. Profil DIMAP jest opis produktu lub gamy produktów o identycznej funkcji. Istnieją dwa profile dla produktów spot: Sceny SPOT i SPOTView. SPOT profil Scene opisuje podstawowe produkty funkcji (satelita, datę nabycia, kąt widzenia, jasność, statystyki, itp.) oraz informacje dotyczące wyświetlania geometrii. Profil SPOTView opisuje tylko podstawowe funkcje produktu. XSL arkuszy stylów dynamicznie generują strony HTML i w zależności od profilu DIMAP jest używany, zapewniając w ten sposób, że wszystkie produkty Spot i innych produktów wyświetlane są automatycznie w ten sam sposób. DIMAP wymaga:
Przeglądarki dla XML oraz XSL metadanych pliku (np.Microsoft Internet Explorer lub Netscape Navigator 6),TIFF lub edytor zdjęć GeoTIFF do pliku obrazu. Najprostszym rozwiązaniem jest korzystanie z oprogramowania, które jest w stanie odczytać zarówno zdjęcia jak i pliki metadane.

CEOS – jest to prosty, tylko do odczytu, czytnik dla plików graficznych. Ten sterownik odczytuje tylko dane obrazu i nie może uchwycić wszystkich metadanych .

Główne cechy formatu:

Organizacja Medium

Średniej w formacie CEOS zawiera następujące pliki:

Format plików z danymi

Produktów w pliku danych są zorganizowane w następujący format:

  1. Wymień znane Ci teledetekcyjne systemy satelitarne i sensory rejestrujące zakres VNIR z podziałem na systemy HR (wysokiej rozdzielczości) i VHR (bardzo wysokiej rozdzielczości).

VHR - Very High Resolution – systemy obrazujące z pikselem terenowym równym lub mniejszym od 1m

VNIR:

a) VHR: IKONOS-2, QuickBird, WorldView-2, GeoEyE-1

b) HR: ALOS, Formosat-2, SPOT-5, RapidEye, Aster, CBERS-2

4. Przedstaw różnice w obrazowaniu wielospektralnym, superspektralnym i hiperspektralnym.

Obrazowanie wielospektralne (wielowidmowe) (multispektralne), superspektralne i hiperspektralne – techniki rejestracji obrazu będące uogólnieniem fotografii barwnej na pełną przestrzeń barw w zakresie światła widzialnego, a także mikrofal, dalekiej i bliskiej podczerwieni oraz ultrafioletu. Obraz wielospektralny składa się z wielu kanałów będących uogólnieniem kanałów barw podstawowych: R (red), G (green) i B (blue) na dowolne zakresy spektralne.

Idealny przyrząd do obrazowania wielospektralnego dokonuje w określonym przedziale współrzędnych i długości fal jednoczesnego pomiaru funkcji I (x,y), gdzie xy są współrzędnymi na obrazowanej powierzchni, λ jest długością fali elektromagnetycznej, zaś I jest natężeniem energii promieniowania przypadającym na przedział  Δx, Δy, Δλ wokół punktu  xy, λ.

Praktyczne realizacje powyższej idei, zależnie od przedziałów długości fali i rozdzielczości spektralnej, noszą różne nazwy[4]. W zależności od liczby kanałów spektralnych techniki obrazowania dzielimy umownie na:

Inne źródła[5] nie wprowadzają pojęcia obrazowania superspektralnego, zastępując je szerszym zakresem multispectral imaging, a przy tym definiują różnicę pomiędzy obrazem multispektralnym a hiperspektralnym, nie tylko w oparciu o liczbę kanałów, ale także ich ciągłość; obrazowanie hiperspektralne definiuje się jako możliwość uzyskania rozkładu natężeń w ciągłym zakresie długości fal, natomiast obraz multispektralny może obejmować rozdzielone fragmenty widma; w szczególności obraz multispektralny może być wykonywany przez wiele współpracujących ze sobą czujników fotometrycznych różnego typu – każdy związany z innym zakresem długości fal.

ZASTOSOWANIE

-W systemach zbierania informacji geograficznych, w tym zwłaszcza w Systemach Informacji o Terenie. Dane multispektralne pozwalają na zdobycie o wiele pełniejszej informacji o terenie, niż tradycyjna fotografia satelitarna.

-W meteorologii – pozwalają na badanie rozkładu koncentracji pary wodnej, a także rozkładów temperatur gruntu, wody i mas powietrza.

-Obrazy multispektralne i hiperspektralne są przydatne w badaniu rozkładu populacji roślin, w szczególności flory oceanicznej oraz drzewostanów na obszarach leśnych.

-W badaniach zabytkowych dzieł sztuki, w tym obrazów, książek obrazowanie wielospektralne jest niezastąpionym narzędziem nieinwazyjnego badania autentyczności oraz ukrytej treści dzieła.

-Inwigilacja, ratownictwo, poszukiwania obiektów

-Kryminalistyka

5. Wymień i krótko scharakteryzuj etapy detekcji i generowania obrazu satelitarnego.

Światło odbite od obiektów trafia do detektora naziemnego, lotniczego i satelitarnego.

Detektorem tym może być np. aparat fotograficzny lub skaner lotniczy czy satelitarny.

Skaner dzieli dopływające promieniowanie na różne zakresy w zależności od długości fali elektromagnetycznej. Pozyskane fale przechodzą etap luminancji.

Kolejnym etapem jest wybór poziomu przetwarzania geometrycznego.

Następnie sprowadza się obraz na poziom DN (Digital Number) przedstawiony s w postaci liczby cyfrowej.

Przetwarzanie obrazu wykonuje się poprzez zastosowanie odpowiednich operacji cyfrowego przetwarzania obrazów.

Wykorzystuje się operacje:

- punktowe: dotyczą pojedynczego piksela

- lokalne: dotyczą najbliższego otoczenia piksela i obejmują od kilku do kilku tysięcy pikseli

- globalne: dotyczą całego obrazu.

Następnym etapem jest wykonanie wielomianowych korekcji geometrycznych obrazów satelitarnych.

Wyróżniamy korekcje:

- typu „orto” (ścisłe parametryczne)

- wielomianowe (nieparametryczne)

6. Wymień i krótko omów znane Ci typy danych stosowane w zapisie obrazów satelitarnych (rodzaje słów binarnych i ich długości bitowe).

Dane typu bitowego- pliki binarne w formie bitmapy(siatka pikseli). Pozyskiwane na drodze skanowania

Obraz cyfrowy U jest dwuwymiarową macierzą o wymiarze W x S (368x286) gdzie każdy jej element U(i,j) jest nazywany pikselem. W czasie procesu wyświetlania obrazu np. na ekranie tworzona jest graficzna reprezentacja tej macierzy gdzie każdy piksel ma wartość powiązaną z odcieniem szarości (obraz monochromatyczny) lub kolorem. Zazwyczaj używa się kodowania ośmio bitowego dla obrazu w skali szarości (opisywany cyfrowo w granicach 0 (czerń) do 2 55 (biel) tg 28 = 256 poziomów szarości) i dwudziestocztero bitowego dla obrazu skali RGB ( 8 bitów na każdy kolor R- red - czerwony, G - green - zielony, B -blue - niebieski). Histogram h(k) jest funkcją którą możemy posłużyć sie w celu oceny liczebności piksli danego koloru k w całym obrazie. W najprostszej definicji h(k) = N gdzie N jest liczba danego koloru a k ={0..kmax} (kmax -liczba kolorów). W przypadku obrazów w skali szarości mamy więc kmax=256 czyli 256 kanałów do których mozemy przypisać liczbę wystąpień danego koloru. Jakosc obrazu cyfrowego określa się zazwyczaj za pomocą dwuch podstawowych parametrów:

• Rozdzielczość geometryczna - podawana przeważnie w jednostkach „dpi" czyli ilości

pikseli w linii obrazu na długości jednego cala

• Rozdzielczość radiometryczna - czyli z jaką dokładnością podaje się jasność piksela.

Zalezy ona od ilosci bitów przeznaczonych na zapis liczby okreslajacej jasnosc.

Najczesciej wykorzystuje się osiem bitów, czyli jeden bajt, co daje 256 stopni jasnosci,

czasem cztery bity co daje 16 stopni jasnosci, natomiast w niektórych profesjonalnych zastosowaniach dziesiec, dwanascie lub wiecej bitów.

Najpopularniejsze edytory rastrowe Aldus PhotoStyler, Adobe Photoshop, Corel Photo Paint, Dane trójwymiarowe nazywane są Wokselami Dane rastrowe charakteryzowane są tzw. Rozdzielczością obrazu wyrażoną zazwyczaj liczbą pikseli przypadającej na liczbę pikseli 1 cala( ppi-pixel per inch) i rozmiarem obrazu, czyli wymiarami matryzy rastrowej wyrażonej czasmai w nol na ppl(piel per line) . Jeśłi rozdzielczość wynosi 254 dpi wtedy wymiary jednego piksela wynoszą 0,1 x0,1mm gdy 1000x1000pikseli =>100x100 mm Obraz jedno bitowy reprezentuje dwie barwy, czarna i białą, piksel o głębokości 24 dysponuje możliwością 2 24 milionów odcieni.

Na stronie 11 z 23 macie przykłady nazw plików

http://zk.gik.pw.edu.pl/Edukacja/Wyklady/Rastry.pdf

7. Wymień rodzaje znanych Ci filtrów przestrzennych i podaj przykłady numeryczne.

Rodzaje filtrów

Efekt filtracji zależy od rodzaju filtru który zostanie do tego celu wykorzystany oraz od jego wielkości(tzw. rząd macierzy filtru). Ze względu na odmienne działanie różnych masek filtrów wyróżniamy:

Filtry dolnoprzepustowe

Działanie tego typu filtrów opiera się na odcinaniu(usuwaniu) elementów obrazu o wysokiej częstotliwości(szczegółów) i przepuszczaniu elementów o niskiej częstotliwości(ogólnych kształtów, bez szczegółów). Ponieważ większość szumów występujących w obrazach zawiera się w wysokich częstotliwościach, filtry te przeważnie wykorzystuje się właśnie do eliminacji zakłóceń. Właściwie dopasowując rząd macierzy filtru można usuwać zakłócenia różnej wielkości, ograniczając przy tym utratę szczegółów(wysokich częstotliwości) w odfiltrowywanym obrazie. Filtry dolnoprzepustowe to zazwyczaj filtry uśredniające z pewnymi wagami. Poniżej znajduje się kilka przykładów filtrów dolnoprzepustowych o macierzy trzeciego rzędu (wielkość maski 3x3):

Filtry górnoprzepustowe

Filtry te działają w sposób odwrotny do filtrów dolnoprzepustowych, tłumią one niskoczęstotliwościowe elementy obrazu, wzmacniają natomiast elementy o wysokich częstotliwościach (szczegóły). Wynikiem działania tego typu filtrów jest podkreślenie, uwypuklenie elementów obrazu o dużej częstotliwości poprzez zwiększenie ich jasności, koloru, itp. Dla obrazu jako całości efektem jest zazwyczaj zwiększenie kontrastu poprzez podkreślenie ostrych krawędzi obiektów. Poniżej znajduje się kilka filtrów górnoprzepustowych o macierzy trzeciego rzędu (wielkość maski 3x3):

Filtry statystyczne

Wyróżnia je fakt, iż nie posiadają stałej maski jak w przypadku innych filtrów. Nowe wartości pikseli są wyliczane na drodze sortowania pikseli obrazu źródłowego w obrębie maski. Po sortowaniu, w zależności od rodzaju filtru, wybierana jest wartość środkowa, maksymalna, bądź minimalna.

Filtr medianowy

Filtr medianowy jest przykładem filtru nieliniowego. Stosuje się go przede wszystkim do usuwania zakłóceń punktowych typu pieprz i sól, potrafi on wtedy usunąć szum przy minimalnej utracie jakości obrazu lub całkowicie bez strat. Wyliczanie wartości wyjściowej dla filtru medianowego 3 rzędu można przedstawić następująco:

Ponieważ wielkość maski wynosi 3x3, wiec w jej obrębie znajduje się 9 pikseli obrazu źródłowego (P0, P1, P2, P3, P4, P5, P6, P7, P8). Zależnie od poszczególnych wartości, w wyniku sortowania możliwy jest następujący rozkład posortowanych wartości : (P5, P8, P1, P2, P6, P4, P7, P0, P3). W przypadku filtru medianowego wartością wynikową będzie wartość środkowa, czyli P6 i ona właśnie jest przepisywana do tworzonego obrazu.

Filtr maksymalny i minimalny

Do obrazu wynikowego jest kopiowana minimalna lub maksymalna wartość przyjmowana przez punkty sąsiadujące z punktem "wybranym" przez środek maski. Filtrowi minimalnemu towarzyszy "erozja" (zmniejszenie) wielkości obiektów obrazu, maksymalnemu zaś - ich "dylatacja" (powiększenie).

Inne filtry

8. Wymień i opisz metody interpolacji wartości pikseli (resampling).

Elementarnym elementem obrazu cyfrowego podlegającym przetworzeniu jest piksel.

Pierwszym etapem przekształcenia jest transformacja współrzędnych środków

poszczególnych pikseli do położenia na obrazie wynikowym. W wyniku otrzymamy nieregularną

siatkę „nowych pikseli" (rys. 6.1). Obraz cyfrowy musi być podzielony na regularną siatkę

pikseli. W związku z tym drugim etapem jest tzw. „resampling” tzn. interpolacja jasności regularnej

siatki pikseli na podstawie nieregularnie rozłożonych „nowych pikseli”.

Metoda odwrotna polega na tym, że transformacja położenia środków pikseli dokonywana

jest w kierunku odwrotnym niż poprzednio. Środki pikseli obrazu wynikowego transformowane

są na obraz pierwotny. Następnie jasność przetransformowanego środka piksela jest

interpolowana na podstawie otaczających go pikseli obrazu pierwotnego. Wyinerpolowana

jasność przypisywana jest przetwarzanemu pikselowi obrazu wtórnego

Stosuje się różne metody interpolacji:

• najbliższego sąsiada (jasność piksela obrazu wynikowego równa jest jasności

najbliższego z przetransformowanych środków obrazu pierwotnego

• interpolacja ze zbioru kilku otaczających przetransformowanych środków obrazu

pierwotnego z wykorzystaniem jakiejś funkcji (np biliniowa, bisześcienna).

9. W jakim celu przeprowadza się korekcje geometryczne?

Korekcja radiometryczna usuwa efekty zakłóceń spowodowanych wadliwą pracą detektorów, wpływami atmosfery i topografii (zachmurzenie, różnice w oświetleniu wynikające z obiektów terenowych, np. cień rzucany przez góry). Korekcja geometryczna eliminuje zniekształcenia obrazu wynikające z ruchu sensorów oraz faktu rzutowania fragmentu powierzchni kuli ziemskiej (3D) na płaszczyznę (2D). Bardzo ważny w tym procesie jest wybór odpowiedniego odwzorowania kartograficznego i systemu odniesień przestrzennych. Niezbędna jest również tzw. ortorektyfikacja usuwająca zniekształcenia kształtów obiektów widocznych na obrazie spowodowane wpływem rzeźby terenu. Korekcja geometryczna zdjęć lotniczych i satelitarnych wymaga znajomości dokładnych współrzędnych wybranych punktów terenowych widocznych na zdjęciach.

10. Co to jest błąd średniokwadratowy?

11. Opisz schemat klasyfikacji nadzorowanej.

Klasyfikacja treści zdjęcia metodą nadzorowaną polega na wyborze pewnych obszarów, które można uznać za reprezentacyjne dla określonych obiektów. W tym przypadku konieczna jest znajomość charakterystyki tych obiektów, którą należy pozyskać w wyniku analizy map, zdjęć satelitarnych itp. Klasy są zdefiniowane przez obserwatora jako wzorce, a ich liczba jest z góry znana. Nie wiadomo tylko ile pikseli znajduje się w danej klasie.

Wzorce przedstawiają tzw. pola treningowe o określonej jaskrawości, wyznaczone na zdjęciach satelitarnych, a następnie identyfikowane i digitalizowane. Następnie nadaje się określonym polom nazwy obiektów, które one reprezentują np. grunty orne, lasy, zabudowania itp.

Następnie dla grupy pikseli, które znalazły się w danym polu treningowym określana jest średnia wartość jaskrawości w jednym lub kilku wybranych kanałach.

Wybór kanałów powinien być uporządkowany następującymi zasadami:

Stosowane są różne procedury klasyfikacji:

Piksel jest przyporządkowany do tej kategorii dla której odległość do obliczonej klasy wartości średniej jest najmniejsza.

Dla każdego piksela obliczane jest prawdopodobieństwo należenia do każdej z klas i piksel jest przydzielony do tej kategorii dla której jest największe prawdopodobieństwo.

Klasyfikacja nadzorowana schemat:

1. Wybór i lokalizacja wzorców klas

2. Definiowanie wzorców klas poprzez digitalizację pól treningowych

3. Określenie charakterystyk liczbowych dla wzorców klas, tworzenie tzw. sygnatur

4. klasyfikacja całego obrazu za pomocą wybranego algorytmu

12. Wymień metody klasyfikacji.

Klasyfikacja treści zdjęcia metodą nadzorowaną polega na wyborze pewnych obszarów, które można uznać za reprezentacyjne dla określonych obiektów. W tym przypadku konieczna jest znajomość charakterystyki tych obiektów, którą należy pozyskać w wyniku analizy map, zdjęć satelitarnych itp. Klasy są zdefiniowane przez obserwatora jako wzorce, a ich liczba jest z góry znana. Nie wiadomo tylko ile pikseli znajduje się w danej klasie.

Wzorce przedstawiają tzw. pola treningowe o określonej jaskrawości, wyznaczone na zdjęciach satelitarnych, a następnie identyfikowane i digitalizowane. Następnie nadaje się określonym polom nazwy obiektów, które one reprezentują np. grunty orne, lasy, zabudowania itp.

Klasyfikacja nienadzorowana:

Klasyfikacja ta wykorzystuje sposoby grupowania pikseli

w przestrzeni wielospektralnej.

W tej metodzie klasyfikacji uwzględnia się wyłącznie informacje pozyskane za pomocą skanera o jaskrawości obiektów, natomiast nie bierze się po uwagę, żadnych danych pomocniczych.

Istota klasyfikacji nienadzorowanej jest umiejscowieniem w wielowymiarowej przestrzeni spektralnej wszystkich pikseli rozpatrywanego fragmentu zdjęcia.

Piksele te tworzą zbiór z różnymi ośrodkami zagęszczenia powstałymi w wyniku podobieństwa poszczególnych pikseli.

13. Podaj sposoby przeprowadzania analizy dokładności klasyfikacji nadzorowanej.

Końcowym etapem klasyfikacji obrazów jest analiza dokładności wyznaczenia poszczególnych klas. Oszacowanie dokładności wykonywanych procedur klasyfikacyjnych polega n porównaniu otrzymanych map tematycznych ze starannie dobranymi polami testowymi zlokalizowanymi w innych miejscach niż pola treningowe. Wynik klasyfikacji można także ocenić na podstawie interpretacji wizualnej. Polega ona na wizualnym porównaniu analizowanych klas z wynikami otrzymanymi w klasyfikacji wykonanej w zbliżonym terminie na innych obrazach użycie macierzy błędów, zwanej także macierzą rozbieżności. W oparciu o nią określa się, z jaką dokładnością piksele z pól testowych zostały przypisane do odpowiednich klas. W tym celu oblicza się całkowitą dokładność wykonawcy oraz błędy pominięcia i przeszacowania. Dokładność całkowita obliczana jest jako stosunek liczby pikseli sklasyfikowanych prawidłowo do całkowitej liczby pikseli. Liczbę pikseli zaklasyfikowanych prawidłowo do poszczególnych klas otrzymuje się odczytując wartości na przekątnej macierzy rozbieżności. Dokładność wykonawcy jest to stosunek liczby pikseli poprawnie sklasyfikowanych przez klasyfikator jako dana klasa do liczby wszystkich pikseli referencyjnych w tej klasie. Dokładność użytkownika jest to stosunek liczby pikseli, które zostały sklasyfikowane właściwie jako dana klasa, przez klasyfikator do tej klasy.

Błąd pominięcia to procent pikseli, które wg. danych referencyjnych powinny należeć do wskazanej klasy, a zostały błędnie przyporządkowane do innych klas. Natomiast błąd przeszacowania to procent pikseli, które zostały poprawnie zaklasyfikowane do danej klasy wśród wszystkich pikseli do niej należących. Osiągnięcie dużej dokładności wymaga wykorzystanie odpowiedniej liczby pikseli do każdego z pól testowych.

Innym sposobem wyznaczenia dokładności klasyfikacji jest użycie współczynnika kappa. Pozwala on określić, jak dobrze obydwie klasyfikacje do siebie pasują, z uwzględnieniem ich przypadkowej zgodności.

Najpopularniejszym sposobem oceny dokładności klasyfikacji jest

14. Co to jest histogram?

a) ogólnie-Składa się z szeregu prostokątów umieszczonych na osi współrzędnych. Prostokąty te są z jednej strony wyznaczone przez przedziały klasowe (patrz: Szereg rozdzielczy) wartości cechy, natomiast ich wysokość jest określona przez liczebności (lub częstości, ewentualnie gęstość prawdopodobieństwa) elementów wpadających do określonego przedziału klasowego.

b) w fotografii- to wykres słupkowy przedstawiający częstość występowania określonej wielkości. W przypadku fotografii (nie tylko cyfrowej) histogram pokazuje przykład punktów o różnej jasności na naszym zdjęciu. Nawiązując do tradycyjnego wykresu, to na osi poziomej mamy jasność punktów, od całkowicie czarnych - po lewej stronie, do intensywnie białych - po prawej. Każdej wartości jasności przypisany jest słupek o wysokości proporcjonalnej do liczby punktów o tej jasności.

15. Wymień, opisz i przedstaw na rysunku rodzaje histogramów.

- histogram zwykły, skumulowany

Histogramy 2W - Zwykły. Ten prosty histogram prezentuje rozkładu liczności dla wybranej zmiennej (w przypadku wybrania więcej niż jednej zmiennej dla każdej zmiennej z listy zostanie utworzony osobny wykres).

Histogramy 2W. Histogramy 2W (termin ten został po raz pierwszy użyty przez Pearsona, 1895) stanowią graficzny sposób przedstawienia rozkładu liczebności wybranej(-ych) zmiennej(-ych), na którym kolumny (słupki) są wykreślane ponad przedziałami klasowymi, a wysokość kolumn jest proporcjonalna do liczebności klas.

Histogram skumulowany to funkcja obliczona na podstawie histogramu w następujący

sposób. Pierwszy element to ilość pikseli o odcieniu '0', a kolejne wartości to ilość pikseli

o odcieniu 'n' + suma pikseli o odcieniach 0 - n-1. Jeżeli histogram jest w postaci

znormalizowanej (gęstość rozkładu prawdopodobieństwa) to histogram skumulowany

stanowi dystrybuantę rozkładu prawdopodobieństwa.

c) wyliczanie histogramu skumulowanego - cumsum

d) tworzenie przekodowania LUT - intlut

Histogram skumulowany –czarny, histogram –czerwony

- histogram jednowymiarowy, wielowymiarowy

- histogram jednomodalny, wielomodalny (ze względu na liczbę punktów esktremalnych wyróżniamy jednomodalne ( jedna wartość dominująca) i wielomodalne ( kilka wartości dominujących)

Jedomodalny:

Rozkład mający tylko jedną wartości modalną (maksymalną). Typowym przykładem jest rozkład normalny, który jest ponadto rozkładem symetrycznym. Jest jednak wiele rozkładów jednomodalnych, które nie są symetryczne (np. rozkład dochodów zazwyczaj nie jest rozkładem symetrycznym lecz lewostronnie skośnym, patrz skośność).

Wielomodalny:

 Jest to rozkład, który ma wiele wartości modalnych (a więc dwa lub więcej maksima na wykresie funkcji gęstości rozkładu)

- histogram symetryczny (ze względu na rodzaj zmienności: wyróżniamy tu rozkłady empiryczne symetryczne (mają oś symertriia po obu jej stronach rozkład ilości jest taki sam),

asymetryczny(rozkład ilości po obu stronach osi jest różny) Gdybyśmy podzielili rozkład na dwie połowy w punkcie średniej (lub mediany), wówczas rozkład wartości po obu stronach tego środkowego punktu nie byłby taki sam (tzn. nie byłby symetryczny), lecz musiałby być potraktowany jako "skośny".


Wyszukiwarka

Podobne podstrony:
odpowiedzi do koła
odpowiedzi na temat 7 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 3 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 5 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 8 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 1 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 6 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 4 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 2 do kola, WSB, T. Wszeborowski
odpowiedzi na temat 9 do kola, WSB, T. Wszeborowski
cw 16 odpowiedzi do pytan id 1 Nieznany
Odpowiedzi do testu 1 poziom podstawowy id 332449
odpowiedzi do testu id 332437 Nieznany
GEOGRAFIA NA CZASIE 3 ODPOWIEDZI DO ĆWICZEŃ
Odpowiedzi do tego drugiego ca dałem i jest na 38 pytań, instytucje i źródła prawa w UE
odpowiedzi do test diagnostyczny I gimnazjum- J.Polski, Test diagnostyczny dla I gimnazjum

więcej podobnych podstron