Esittely latautuu. Ole hyvä ja odota

Esittely latautuu. Ole hyvä ja odota

Maa Kaukokartoituksen yleiskurssi

Samankaltaiset esitykset


Esitys aiheesta: "Maa Kaukokartoituksen yleiskurssi"— Esityksen transkriptio:

1 Maa-57.351 Kaukokartoituksen yleiskurssi
Luento 6: Visuaalinen tulkinta Mallintaminen Ohjattu luokittelu Ohjaamaton luokittelu

2 Tulkinta Visuaalinen tulkinta Ihminen suorittaa katsomalla kuvaa
Tietokoneen suorittama tulkinta Kohdetta kuvaava jatkuva muuttuja, esim. puuston kuutiotilavuus (mallintaminen) Kohdetta kuvaava kategoria eli diskreetti muuttuja (luokittelu)

3 Visuaalinen tulkinta Etsitään yhtenäisiä ja samankaltaisia alueita kuvilta Tunnistetaan eri alueet maastokohteiksi tai maankäyttöluokiksi Erotellaan sävyn, muodon, koon, tekstuurin, varjojen, ympäröivien kohteiden avulla

4 Vis 1: Havainto ja erottuminen
Sävyerot huomataan (erot joko teräviä tai asteittaisia) Objekti havaitaan kun suoraan havaittu sävyero on niin suuri että se erotetaan ympäristöstään Erottaminen riippuu havainnoijan kokemuksesta ja kuvalla olevien sävyerojen kontrastista Ei välttämättä virheetöntä havainto voi johtaa harhaan objekti erottuu huonosti ympäristöstään

5 Vis 2: Koon määrittäminen ja identifiointi
Oikea arvio kohteen koosta on oleellista oikean identifioinnin tekemiseksi Kohteen identifiointi voi perustua sen geometriaan (koko, muoto, korkeus, varjo), kohteen paikkaan tai sen kontekstiin (asiayhteys) Kohde on identifioitu, kun se voidaan nimetä

6 Vis 3: Analyysi ja johtopäätökset
Liitetään merkitys nimetylle kohteelle Määritetään kohteiden väliset yhteydet ja riippuvuudet

7 Sävy Kohteen sävy kuvaa suhteellista kirkkausarvoa kuvalla.
Sen perusteella pääasiassa tehdään kohteiden tunnistamista kuvalla Eri sävyisten kohteiden muoto, koko yms. erottuvat

8 Muoto Muodon perusteella voidaan määritellä mikä kohde on, esim
ihmisen tekemät kohteet ovat muodoltaan terävämpiä ja säännöllisempiä esim. tiet, rakennelmat luonnonkohteet rajoiltaan epäsäännöllisiä ja epämääräisiä

9 Koko Eri alueellisen erotuskyvyn kuvilla kohteet ovat eri kokoisia
Kohteiden koko suhteessa muihin kohteisiin auttaa tunnistamisessa

10 Kuvio Samankaltaista kohdetta on paljon, muodostuu kuvio
Voi päätellä jotain yksittäisistä kohteista tai alueesta

11 Tekstuuri / pinnan karkeus
Alueen / kohteen karkeus verrattuna instrumentin alueelliseen erotuskykyyn Jos tekstuuri on pienipiirteisempää, kohde näkyy tasaisena alueena Kuten avoalue viereisellä kuvalla

12 Varjot Voi auttaa kohteen tunnistamisessa ja koon määrittämisessä
Toisaalta estää alleen jäävän kohteen tunnistamisen

13 Yhteys muihin kohteisiin
Kohde voidaan tunnistaa ympäröivien kohteiden avulla, vaikka se ei itsessään olisikaan tunnistettava

14 Mallintaminen Määritetään kaukokartoitushavaintojen ja geofysikaalisen parametrin välinen yhteys Parametri jatkuva muuttuja Esimerkkejä puuston m3/ha, maaperän kosteus, veden suolaisuus Lähestymistapoja mallintamiseen Empiirinen Semi-empiirinen Teoreettinen

15 Empiirinen mallintaminen
Tehdään tilastollinen malli kaukokartoitushavaintojen x (selittävä muuttuja) ja geofysikaalisen parametrin y (selitettävä muuttuja) välille Yksinkertaisimmassa tapauksessa kyseessä on lineaarinen regressioanalyysi, yksi selittävä muuttuja: y = a0 + a1 * x Mallin kertoimet a määritetään minimoimalla virhettä mallilla estimoidun ye ja tunnetun y välillä Kertoimet a määrittävät vain muuttujien välisen yhteyden eivätkä vastaa mitään reaalimaailman ilmiötä

16 Empiirinen mallintaminen
Landsat ETM Ch5 vs. puuston pituus a0 = 9.13, a1 = -0.09 PIT = * DN RMSE = 1.22 m RMSE% = 61.0% PCC = -0.60 R2 = 35.8

17 Empiirinen mallintaminen
Landsat ETM Ch5 vs. puuston pituus, puuttomat alueet poistettu a0 = 7.70, a1 = -0.06 PIT = * DN RMSE = 0.62 m RMSE% = 21.7% PCC = 0.74 R2 = 54.9

18 Teoreettinen mallintaminen
Kuvataan sähkömagneettisen säteilyn vuorovaikutus kohteen kanssa käyttäen säteilynkuljetusteoriaa tai Maxwellin yhtälöitä Yleensä monimutkaisia, ts. paljon määritettäviä parametreja, joka haittaa mallien soveltamista käytäntöön Parametrit saattavat olla vaikeasti määritettävissä MIMICS: mikroaaltoalueen säteilyn käyttäytyminen puuston lehvästössä, tarvittavia parametrejä mm.: lehvästön paksuus, biomassa, lehtialaindeksi pienten oksien, neulasten ja lehtien koot, muodot asennot ja kosteus, rungoista korkeus, biomassa koot, esiintymistiheys, asennot, kosteus

19 Semi-empiirinen mallintaminen
Yhdistetään teoreettisten ja empiiristen mallien edut Osa mallin parametreistä määritetään kaukokartoitushavaintojen avulla Optisen alueen malli lumen peittämän alueen määrittämiseksi: SCA Lumen peittämä alue pikselistä (SCA) Mitattu reflektanssi Forest Metsän reflektanssi Snow Lumen reflektanssi Ground Maanpinnan reflektanssi t Metsän transmissiivisyys (läpäisy)

20 Semi-empiirinen mallintaminen
TKK/AVA:n semi-empiirinen metsän takaisinsironnan malli: 0(V,) mitattu takaisinsironta 0CAN takaisinsironta puustosta 0FLOOR latvuston vaimentama takaisinsironta maanpinnasta V puuston tilavuus  mittauskulma Mallin parametrit: a kasvillisuuden kosteus b maanpinnan sirontakerroin

21 Digitaalinen tulkinta: luokittelu
Sama tavoite kuin visuaalisessa tulkinnassa: luokitellaan pikselit eri luokkiin Tehdään numeerisesti Eri kanavien arvoihin perustuen Ohjelmilla / algoritmeilla

22 Luokittelu Hyödynnetään kuvan eri kanavilla olevaa spektristä tietoa => spektristä hahmotunnistusta Luokat: 1. lopulliset maankäyttöluokat 2. spektrisesti yhtenäiset alueet kuvalla yhtenäiset alueet: eri kanavilla kirkkausarvot samankaltaisia

23 Luokitteluprosessi 1. Mittaus: satelliitin keilain muodostaa käsiteltävät hahmot, kuvapikselit 2. Esikäsittely: eliminoidaan virheet radiometrinen ja geometrinen korjaus 3. Piirteiden valinta ja irrotus: valitaan osajoukko koko datasta, jossa on suurin informaatio (kanavasuhde, erotuskuvat pääkomponenttimuunnos)

24 Luokitteluprosessi 4. Esitysmuoto: 5. Tunnistus:
vektori (yksi pikseli kaikilla kanavilla/piirteillä) Pikseli: hahmovektori 5. Tunnistus: hahmot jaotellaan tunnettuihin tai tuntemattomiin luokkiin määritetään luokkien samankaltaisuutta määritetään luokittelun luotettavuus!!!

25 Informaatioluokka - lopullinen maankäyttöluokka
Luokittelun lopullinen tavoite Jos ei ole kyse maankäyttö-luokituksesta, voidaan puhua laajemmin informaatioluokista Esim. eri puutyypit, pellot, kivilajit, hakkuualueet, muuttuneet alueet, saastuneet alueet, lajien levinneisyyskartat

26 Spektraaliset luokat Yhtenäiset (tai lähes) pikseliryhmät
Yhtenäisiä myös eri kanavilla => samankaltainen spektri !: muoto kirkkausarvot

27 Luokittelu Yhdistetään spektraaliset luokat haluttuihin informaatioluokkiin. Harvoin kuitenkaan spektraalinen luokka suoraan vastaa haluttua lopullista luokkaa Vaikeaa koska: Kuvalta löytyy spektrisesti yhtenäisiä alueita, jotka eivät muodosta mitään haluttua lopullista luokkaa Lopullinen luokka voi koostua useista spektraalisista osaluokista.

28 Luokittelu 1. ohjattu (supervised) 2. ohjaamaton (unsupervised)

29 Ohjattu luokittelu Pohjaa kuvalta poimittaviin / osoitettaviin homogeenisiin edustaviin näytteisiin kustakin luokasta = opetusalue

30 Luokittelijan opetus Kerrotaan luokittelijalle millaisia eri luokkien spektraaliset ominaisuudet ovat Eli millaisia luokkien tyypilliset hahmovektorit ovat sekä näiden hajonta

31 Opetusalue Etsitään luokkia vastaavat alueet kuvalta ja nimetään ne kunkin luokan opetusalueiksi Hyvän opetusalueen valinta riippuu siitä kuinka paljon alueesta on muuta tietoa: aiempi luokittelumateriaali ja kartat ym. muut tiedot (peruskartta) maastokäynnit / inventoinnit eli kuinka tuttu alue on

32 Opetusalueet

33 Opetusalueiden keskiarvot kanavittain

34 Piirteiden valinta ja irrotus:
Valitaan käytettävät kanavat / piirteet (turha tieto pois!) Suhdekuvat, pääkomponentit, erotuskuvat Data, josta tulevat luokat erottuvat parhaiten toisistaan Mitä vähemmän dataa sen parempi! Kuvan eri kanavien lisäksi hahmovektori voi siis käsittää muitakin piirteitä, kuten vaikka lasketun NDVI:n yhtenä kanavana

35 Ohjattu luokittelu Opetusalueilla ohjataan luokitusta oikeaan suuntaan kohti haluttuja luokkia Muita alueita ”verrataan” (kaikilla kanavilla) opetusalueisiin ja luokitellaan ne spektraalisesti lähimpiin luokkiin

36 Ohjattu luokittelu 1. Ensin siis valitaan halutut informaatioluokat
esim. metsä, pelto, tie, vedet 2. Sitten määritellään spektraaliset alueet, jotka vastaavat näitä lopullisia luokkia 3. Muut pikselit luokitellaan näiden mukaan luokkiin TAI liian epävarmat luokitukset hylätään

37 Tulosten analysointi Minimoidaan luokitteluvirhe -> virheen estimointi on oleellinen osa luokittelua Määritettävä estimaatin luotettavuus Virhe estimoidaan luokittelemalla 1. tulkinta-alue, eli poimitut ja nimetyt alueet tulkinta-alueen luokitteluvirhettä ei kuitenkaan voi yleistää koskemaan koko kuvaa 2. testialue, joka on eri kuin opetusalueet

38 Koko kuvan tarkkuus - Testialueet
Testataan luokittelua testialueilla Eri alueita kuin alkuperäiset opetusalueet Testialueidenkin oltava täydellisiä ja edustavia (kaikki luokat ja kaikki luokan eri tyypit mukana) suurempia kuin opetusalueet

39 Virhematriisi Tarkkuutta arvioidaan virhematriisin avulla
Diagonaalilla oikein luokittuneet Muut ovat virheluokituksia Riveillä: mihin luokitellaan Sarakkeilla: mikä luokan pitäisi olla testialueiden mukaan eli ”oikea luokka”

40 Virhematriisi testialueen oikeat luokat
testialueen luokituksen tulokset

41 Luokituksen keskimääräinen tarkkuus
Diagonaalialkioiden summa jaettuna kaikkien lukumäärällä Miten luokat keskimäärin luokittuneet Keskiarvo kaikkein pikselien luokittelutarkkuudesta

42 Tuottajan tarkkuus / tulkintatarkkuus
Sarakkeiden oikein luokiteltujen määrä jaettuna luokan kokonaismäärällä (sarakesumma) Kertoo siitä, miten hyvin luokan testipikselit ovat luokittuneet

43 Käyttäjän tarkkuus kohdetarkkuus
Rivillä oikein luokittuneiden määrä jaettuna luokkaan luokiteltujen määrällä (rivisumma) Paljonko on luokiteltu luokkaan I myös muiden luokkien pikseleitä Kertoo todennäköisyyden, että luokkaan I luokiteltu pikseli todella kuuluu kyseiseen luokkaan

44 KHAT-arvo eli Kappakerroin
Luokitustuloksen ero satunnaiseen luokitteluun (keskim tarkkuus-kerroin)/(1-kerroin) kerroin = rivi- ja sarakesummien tulo Esim. KHAT= 0.70: luokittelu 70% satunnaista parempi

45 Maastoaineisto Maastohavainnot eli käynti alueella, esim. kuvioittainen metsäninventointi Aiemmat kartat huomioitava tekovuosi, onko alue muuttunut!! Mikä tahansa tieto alueelta auttaa Tärkeää olla jotain validointiaineistoa jolla arvioida tarkkuutta

46 ”Laatikkoluokittelija”
Määritetään kunkin luokan minimi- ja maksimiarvot kullakin kanavalla (laatikot) Luokitellaan kuvapikseli siihen luokka, jonka laatikon alueelle se osuu Jos osuu laatikoiden (min-max-välin) ulkopuolelle, hylätään Yksinkertainen ja nopea Ongelma: luokkien min ja max arvot leikkaavat yleensä usealla kanavalla

47 Muita ohjattuja luokittelumenetelmiä
Bayesin päätössääntö todennäköisyysteoreettinen menetelmä, etsitään sitä luokkaa joka parhaiten vastaa havaintoja Lähimmän naapurin päätössääntö perustuu hahmevektoreiden välisiin etäisyyksiin, useita eri versioita periaatteena että lähekkäin olevat hahmovektorit kuuluvat samaan luokkaan Diskriminanttifunktiot määritetään luokkien rajat

48 Bayesin päätössääntö Haetaan todennäköisintä luokkaa kullekin datajoukon pikselille Määritetään kullekin pikselille x todennäköisyys, että se kuuluu luokkaan wj Luokkia j: 1 , … , n Määritellään todennäköisyys luokalle wj (a posteriori todennäköisyys) että pikseli x kuuluu ko luokkaan: P( wj|x)

49 Bayesin päätössääntö P(wj|x) = luokan a posteriori todennäköisyys
p(x) = x:n yhteistiheysfunktio =  p(x|wj) * pi luokitellaan x luokkaan, jolle P(wj|x) on kaikkein suurin!

50 a posteriori todennäköisyyden laskentaan tarvitaan:
p(x|wj): luokan j todennäköisyys tietyn tyyppiselle pikselille x luokan j tiheysfunktio hahmovektorille x ilmaiseen hahmovektorin x ja luokan j opetusjoukon välisen etäisyyden kuinka paljon x kuuluu luokkaan j Pj: luokan j etukäteistodennäköisyys kuinka suuri osa kaikista pikseleistä kuuluu luokkaan j

51 Bayesin päätössääntö Yksinkertaisimmassa tapauksessa x luokitellaan siihen luokkaan jolla on suurin a posteriori todennäköisyys Jos virheluokittelusta on suuret vahingot, hylätään mieluummin kuin luokitellaan väärin! Hylkäyskynnys: lr Luokitellaan luokkaan j : w(x)=wj jos P(wj|x) = max P(wi|x) > 1-lr Hylätään: w(x)=w0 jos P(wj|x) = max P(wi|x) <= 1-lr

52 Päätöksen kustannus joka päätökseen liitetään kustannus, joka kuvaa päätöksen riskiä: eli miten suuri moka tehdään jos luokitellaan luokkaan i kun oikea luokka on j

53 Bayesin päätössääntö Yleisimässä tapauksessa mukaan otetaan kustannusfunktio Kustannus sille että luokitellaan luokkaan i kun oikea luokka on j Tehdään sellaisen päätökset, että keskimääräinen kustannus on mahdollisimman pieni

54 Suurimman uskottavuuden luokittelija (maximum likelihood classifier) MLC
Bayesin päätössääntö + parametrinen tiheysfunktio Parametrit estimoidaan opetusjoukon avulla Yleensä luokat oletetaan normaalijakautuneiksi, määritettävä luokille keskiarvovektorit ja kovarianssimatriisit Bayesin kaavassa käytetään luokan tiheysfunktion kaavana normaalijakauman tiheysfunktion kaavaa

55 Kanavan1 arvot Kanavan2 arvot a a a a a a a d d d d d d b c x ellipsin säde x = luokan keskiarvo

56 Mahalanobis-etäisyys
MLC voidaan toteuttaa myös näin: Gi(x)= -1/2(x-ui)TCi-1(x-ui) -(d/2)log(2p)-1/2log(|Ci|)+log(Pi) x=luokiteltavan pikselin arvo eri kanavilla ui=keskiarvovektori, määrittelee ellipsoidin sijainnin Ci=kovarianssi-matriisi, määrittelee hyperellipsoidin muodon ja orientoinnin Pi=a'priori todennäköisyys Pi=Bi/SBi Bi=bias, eli harha, etäisyys odotusarvosta Ti= luokan i kynnys

57 Kynnys Kynnysarvon avulla määritetään, kuuluuko pikseli luokkaan vaiko ei Kynnys määritetään keskihajonnan avulla hyperellipsi kyseisen luokkakeskiarvon ympärillä kuvan piirreavaruudessa. Jos pikseli on ellipsin sisäpuolella, ts. kynnysarvoa lähempänä, luokitellaan kuuluvaksi ko luokkaan. Pikselit, jotka eivät ole minkään luokan hyperellipsin sisäpuolella, hylätään.

58 Erikoistapaus Minimietäisyysluokittelija
Hahmovektori luokitellaan samaan luokkaan lähimmän luokkakeskiarvon mukaan silloin kuin kaikkien luokkien todennäköisyydet oletetaan yhtä suuriksi (kovarianssimatriisi on yksikkömatriisi) palaa lähimpään luokkakeskiarvoon

59 Lähimmän naapurin päätössääntö
Periaate: toisiaan lähellä olevat hahmovektorit kuuluvat samaan luokkaan Luokiteltavasta pikselistä eli hahmovektorista lasketaan etäisyydet kaikkiin opetusjoukon vektoreihin

60 lähimmän naapurin päätössääntö
Etäisyydet järjestetään pienimmästä suurimpaan 1-lähimmän naapurin päätössääntö: otetaan spektrisesti lähin suunnittelujoukon vektori luokiteltava vektori Kanavan x arvot Kanavan y arvot

61 k-, k,l- ja k,li-lähimmän naapurin päätössääntö
Haetaan k kpl lähimpiä suunnittelujoukon vektoreita Luokitellaan siihen luokkaan, jota sattuu eniten l: huonojen luokitusten hylkäämisen k kappaletta lähimpiä naapureita l on hylkäyskynnys ( l>k/2) k=5, l=2.5 eli pitää olla 3 samaa luokkaa ennen kuin hyväksytään Estää karkeat luokitteluvirheet Hylkäyskynnys l kaikille sama tai li kullekin luokalle oma

62 Parametrien k ja l valinta
k eli naapurien lukumäärä l eli hylkäyskynnys Valitaan kokeilemalla - > paljon laskentaa! Yhtä hahmovektoria luokiteltaessa lasketaan spektriset etäisyydet kaikkiin suunnittelujoukon vektoreihin

63 Laskennan määrää voidaan pienentää
Tiivistämällä dataa: poistetaan turhia vektoreita suunnittelujoukosta turha = ei vaikuta luokitukseen Relaatioiden avulla: luokitellaan joillakin alkuarvoilla k ja l määritetään hylättyjen hahmovektoreiden määrä väärinluokiteltujen hahmovektoreiden määrä suhteutetaan hylättyjen ja väärinluokiteltujen määrä muihin k ja l:n arvoihin

64 Diskriminanttifunktiot
Luokkien päätösalueiden sijasta määritetään alueiden välisiä päätösrajoja Oletetaan, että tunnetaan rajojen funktionaalinen muoto esim. suora Ei tehdä oletuksia datan jakaumasta Opetusvaihe: määritetään päätösrajojen parametrit opetusjoukon avulla Luokitteluvaihe: mille puolelle rajaa luokiteltava hahmovektori osuu

65 Lineaariset diskriminanttifunktiot
g(x)=w1x1 + w2x2 + …+wn-1xn-1 + wnxn + wn+1 =WTx Päätösraja on (hyper)taso n-ulotteisessa avaruudessa w=painovektori, joka määrittää tason orientoinnin wn+1 = kynnyspaino, etäisyys origosta Kullekin luokalle i oma gi(x)

66 Ohjaamaton luokitttelu
Ensin ryhmitellään spektraalisesti samankaltaiset alueet datalta Pohjataan vain kuvalta saataviin numeroarvoihin Tunnistetaan jälkikäteen luokiksi

67 Ohjaamaton luokittelu
Ei käytetä opetusalueita eikä etukäteistietoa Määritellään luontaisesti erottuvat (tilastolliset) ryhmät datasta Ryhmiä kutsutaan klustereiksi Ryhmien lukumäärä annetaan tai algoritmi määrittää Muita mahdollisia parametreja: luokkien tilastollinen erottuvuus ts. kuinka kaukana/lähellä eri luokat saavat olla toisistaan luokan sisäinen spektrien vaihtelu (sisäinen hajonta)

68 Ohjaamaton luokittelu
Ryhmän eli klusterin muodostavat joukko hahmovektoreita, jotka keskenään ovat riittävän samanlaisia Eri ryhmiin kuuluvat ovat riittävän erilaisia Etäisyys samaan ryhmään kuuluviin on pienempi kuin muihin Kriteerinä: minimoidaan ryhmien sisäistä hajontaa maksimoidaan ryhmien keskiarvovektorien välisiä etäisyyksiä

69 Samanlaisuusmitat Euklidinen etäisyys Mahalanobis etäisyys
x hahmovektori, m ryhmän keskiarvo Mahalanobis etäisyys A kovarianssi-matriisi, huomioidaan myös keskihajonta Hahmovektorien välinen kulma

70 Klusterointimenetelmät eli Ryhmittelymenetelmät
Yleisimmät parametriset menetelmät: k-means ISODATA perustuvat jälleen keskiarvovektoreihin ja hajontoihin

71 K-means Aluksi valitaan satunnaiset ryhmäkeskiarvot, esim 5 kappaletta. Luokitellaan muut pikselit lähimpien ryhmäkeski-arvojen mukaan Lasketaan uudet ryhmäkeskiarvot ryhmitellystä datasta Ryhmitellään data uudestaan uusien ryhmäkeskiarvojen mukaan. Iteroidaan, kunnes keskiarvot tai ryhmittelytulos ei muutu

72 ISODATA Modifioitu k-means-menetelmä
Ryhmiä voidaan iteroinnin kuluessa jakaa kahteen eri ryhmään tai yhdistellä läheisiä ryhmiä Ryhmiä jaetaan, kun ryhmien lukumäärä kaukana halutusta, ryhmän sisäinen hajonta suuri, ryhmän koko liian suuri Ryhmiä yhdistellään kun, ryhmien lukumäärä kaukana halutusta, jokin ryhmä liian pieni, kaksi ryhmää lähellä toisiaan

73 Ohjaamaton luokittelu - etuja
Koska spektriset erottuvuudet määrittävät luokat, saatetaan löytää sellaisia luokkia, joita alun perin ei osattu ajatella olevan olemassa Esim. kasvillisuustyyppien lisäksi myös kasvien terveys Opetus on myös usein mahdoton homma silloin kun luokkia on paljon

74 Luokkien erottuvuuden validointi
Ohjelmissa usein signature-editori jonka avulla voi laskea: luokkien yhtenäisyyttä luokkien välistä erottuvuutta Kannattaa tarkastella luokkien histogrammeja Jos ryhmän histogrammissa on jollain kanavalla useampi huippu se kannattaa jakaa useampaan ryhmään

75 Validoinnin jälkeen Tunnistetaan muodostetut ryhmät
Vastaavatko ne jotakin informaatioluokkaa, eli erottuivatko metsät pelloista ja vesistä Mikäli osa ryhmistä koostuu useammasta informaatioluokasta - poista kuvalta tulkitut ryhmät - ryhmittele loput uudelleen

76 Hybridi luokittelija Määritetään ensin klusteroimalla spektrisesti hyvin erottuvat alueet osakuvalta. Käytetään sitten näitä alueita varsinaisen luokittelun opetusalueena. Saadaan hyvät ja spektrisesti erottuvat opetusalueet Hyvä erityisesti silloin, kun yksittäisiin luokkiin sisältyy useita spektrisesti yhtenäisiä osaluokkia, mutta varsinainen kokonainen luokka on spektrisesti hajanainen.

77 SPOT-kuvan ryhmittely
Valkea ja ruskea vastaavat paljasta maata ja ihmisen tekemiä kohteita, pelto keltaista, tumman vihreä puustoa, vaalean vihreä muuta kasvillisuutta ja sininen vettä.


Lataa ppt "Maa Kaukokartoituksen yleiskurssi"

Samankaltaiset esitykset


Iklan oleh Google