Lataa esitys
Esittely latautuu. Ole hyvä ja odota
1
Maa-57.351 Kaukokartoituksen yleiskurssi
Luento 6: Visuaalinen tulkinta Mallintaminen Ohjattu luokittelu Ohjaamaton luokittelu
2
Tulkinta Visuaalinen tulkinta Ihminen suorittaa katsomalla kuvaa
Tietokoneen suorittama tulkinta Kohdetta kuvaava jatkuva muuttuja, esim. puuston kuutiotilavuus (mallintaminen) Kohdetta kuvaava kategoria eli diskreetti muuttuja (luokittelu)
3
Visuaalinen tulkinta Etsitään yhtenäisiä ja samankaltaisia alueita kuvilta Tunnistetaan eri alueet maastokohteiksi tai maankäyttöluokiksi Erotellaan sävyn, muodon, koon, tekstuurin, varjojen, ympäröivien kohteiden avulla
4
Vis 1: Havainto ja erottuminen
Sävyerot huomataan (erot joko teräviä tai asteittaisia) Objekti havaitaan kun suoraan havaittu sävyero on niin suuri että se erotetaan ympäristöstään Erottaminen riippuu havainnoijan kokemuksesta ja kuvalla olevien sävyerojen kontrastista Ei välttämättä virheetöntä havainto voi johtaa harhaan objekti erottuu huonosti ympäristöstään
5
Vis 2: Koon määrittäminen ja identifiointi
Oikea arvio kohteen koosta on oleellista oikean identifioinnin tekemiseksi Kohteen identifiointi voi perustua sen geometriaan (koko, muoto, korkeus, varjo), kohteen paikkaan tai sen kontekstiin (asiayhteys) Kohde on identifioitu, kun se voidaan nimetä
6
Vis 3: Analyysi ja johtopäätökset
Liitetään merkitys nimetylle kohteelle Määritetään kohteiden väliset yhteydet ja riippuvuudet
7
Sävy Kohteen sävy kuvaa suhteellista kirkkausarvoa kuvalla.
Sen perusteella pääasiassa tehdään kohteiden tunnistamista kuvalla Eri sävyisten kohteiden muoto, koko yms. erottuvat
8
Muoto Muodon perusteella voidaan määritellä mikä kohde on, esim
ihmisen tekemät kohteet ovat muodoltaan terävämpiä ja säännöllisempiä esim. tiet, rakennelmat luonnonkohteet rajoiltaan epäsäännöllisiä ja epämääräisiä
9
Koko Eri alueellisen erotuskyvyn kuvilla kohteet ovat eri kokoisia
Kohteiden koko suhteessa muihin kohteisiin auttaa tunnistamisessa
10
Kuvio Samankaltaista kohdetta on paljon, muodostuu kuvio
Voi päätellä jotain yksittäisistä kohteista tai alueesta
11
Tekstuuri / pinnan karkeus
Alueen / kohteen karkeus verrattuna instrumentin alueelliseen erotuskykyyn Jos tekstuuri on pienipiirteisempää, kohde näkyy tasaisena alueena Kuten avoalue viereisellä kuvalla
12
Varjot Voi auttaa kohteen tunnistamisessa ja koon määrittämisessä
Toisaalta estää alleen jäävän kohteen tunnistamisen
13
Yhteys muihin kohteisiin
Kohde voidaan tunnistaa ympäröivien kohteiden avulla, vaikka se ei itsessään olisikaan tunnistettava
14
Mallintaminen Määritetään kaukokartoitushavaintojen ja geofysikaalisen parametrin välinen yhteys Parametri jatkuva muuttuja Esimerkkejä puuston m3/ha, maaperän kosteus, veden suolaisuus Lähestymistapoja mallintamiseen Empiirinen Semi-empiirinen Teoreettinen
15
Empiirinen mallintaminen
Tehdään tilastollinen malli kaukokartoitushavaintojen x (selittävä muuttuja) ja geofysikaalisen parametrin y (selitettävä muuttuja) välille Yksinkertaisimmassa tapauksessa kyseessä on lineaarinen regressioanalyysi, yksi selittävä muuttuja: y = a0 + a1 * x Mallin kertoimet a määritetään minimoimalla virhettä mallilla estimoidun ye ja tunnetun y välillä Kertoimet a määrittävät vain muuttujien välisen yhteyden eivätkä vastaa mitään reaalimaailman ilmiötä
16
Empiirinen mallintaminen
Landsat ETM Ch5 vs. puuston pituus a0 = 9.13, a1 = -0.09 PIT = * DN RMSE = 1.22 m RMSE% = 61.0% PCC = -0.60 R2 = 35.8
17
Empiirinen mallintaminen
Landsat ETM Ch5 vs. puuston pituus, puuttomat alueet poistettu a0 = 7.70, a1 = -0.06 PIT = * DN RMSE = 0.62 m RMSE% = 21.7% PCC = 0.74 R2 = 54.9
18
Teoreettinen mallintaminen
Kuvataan sähkömagneettisen säteilyn vuorovaikutus kohteen kanssa käyttäen säteilynkuljetusteoriaa tai Maxwellin yhtälöitä Yleensä monimutkaisia, ts. paljon määritettäviä parametreja, joka haittaa mallien soveltamista käytäntöön Parametrit saattavat olla vaikeasti määritettävissä MIMICS: mikroaaltoalueen säteilyn käyttäytyminen puuston lehvästössä, tarvittavia parametrejä mm.: lehvästön paksuus, biomassa, lehtialaindeksi pienten oksien, neulasten ja lehtien koot, muodot asennot ja kosteus, rungoista korkeus, biomassa koot, esiintymistiheys, asennot, kosteus
19
Semi-empiirinen mallintaminen
Yhdistetään teoreettisten ja empiiristen mallien edut Osa mallin parametreistä määritetään kaukokartoitushavaintojen avulla Optisen alueen malli lumen peittämän alueen määrittämiseksi: SCA Lumen peittämä alue pikselistä (SCA) Mitattu reflektanssi Forest Metsän reflektanssi Snow Lumen reflektanssi Ground Maanpinnan reflektanssi t Metsän transmissiivisyys (läpäisy)
20
Semi-empiirinen mallintaminen
TKK/AVA:n semi-empiirinen metsän takaisinsironnan malli: 0(V,) mitattu takaisinsironta 0CAN takaisinsironta puustosta 0FLOOR latvuston vaimentama takaisinsironta maanpinnasta V puuston tilavuus mittauskulma Mallin parametrit: a kasvillisuuden kosteus b maanpinnan sirontakerroin
21
Digitaalinen tulkinta: luokittelu
Sama tavoite kuin visuaalisessa tulkinnassa: luokitellaan pikselit eri luokkiin Tehdään numeerisesti Eri kanavien arvoihin perustuen Ohjelmilla / algoritmeilla
22
Luokittelu Hyödynnetään kuvan eri kanavilla olevaa spektristä tietoa => spektristä hahmotunnistusta Luokat: 1. lopulliset maankäyttöluokat 2. spektrisesti yhtenäiset alueet kuvalla yhtenäiset alueet: eri kanavilla kirkkausarvot samankaltaisia
23
Luokitteluprosessi 1. Mittaus: satelliitin keilain muodostaa käsiteltävät hahmot, kuvapikselit 2. Esikäsittely: eliminoidaan virheet radiometrinen ja geometrinen korjaus 3. Piirteiden valinta ja irrotus: valitaan osajoukko koko datasta, jossa on suurin informaatio (kanavasuhde, erotuskuvat pääkomponenttimuunnos)
24
Luokitteluprosessi 4. Esitysmuoto: 5. Tunnistus:
vektori (yksi pikseli kaikilla kanavilla/piirteillä) Pikseli: hahmovektori 5. Tunnistus: hahmot jaotellaan tunnettuihin tai tuntemattomiin luokkiin määritetään luokkien samankaltaisuutta määritetään luokittelun luotettavuus!!!
25
Informaatioluokka - lopullinen maankäyttöluokka
Luokittelun lopullinen tavoite Jos ei ole kyse maankäyttö-luokituksesta, voidaan puhua laajemmin informaatioluokista Esim. eri puutyypit, pellot, kivilajit, hakkuualueet, muuttuneet alueet, saastuneet alueet, lajien levinneisyyskartat
26
Spektraaliset luokat Yhtenäiset (tai lähes) pikseliryhmät
Yhtenäisiä myös eri kanavilla => samankaltainen spektri !: muoto kirkkausarvot
27
Luokittelu Yhdistetään spektraaliset luokat haluttuihin informaatioluokkiin. Harvoin kuitenkaan spektraalinen luokka suoraan vastaa haluttua lopullista luokkaa Vaikeaa koska: Kuvalta löytyy spektrisesti yhtenäisiä alueita, jotka eivät muodosta mitään haluttua lopullista luokkaa Lopullinen luokka voi koostua useista spektraalisista osaluokista.
28
Luokittelu 1. ohjattu (supervised) 2. ohjaamaton (unsupervised)
29
Ohjattu luokittelu Pohjaa kuvalta poimittaviin / osoitettaviin homogeenisiin edustaviin näytteisiin kustakin luokasta = opetusalue
30
Luokittelijan opetus Kerrotaan luokittelijalle millaisia eri luokkien spektraaliset ominaisuudet ovat Eli millaisia luokkien tyypilliset hahmovektorit ovat sekä näiden hajonta
31
Opetusalue Etsitään luokkia vastaavat alueet kuvalta ja nimetään ne kunkin luokan opetusalueiksi Hyvän opetusalueen valinta riippuu siitä kuinka paljon alueesta on muuta tietoa: aiempi luokittelumateriaali ja kartat ym. muut tiedot (peruskartta) maastokäynnit / inventoinnit eli kuinka tuttu alue on
32
Opetusalueet
33
Opetusalueiden keskiarvot kanavittain
34
Piirteiden valinta ja irrotus:
Valitaan käytettävät kanavat / piirteet (turha tieto pois!) Suhdekuvat, pääkomponentit, erotuskuvat Data, josta tulevat luokat erottuvat parhaiten toisistaan Mitä vähemmän dataa sen parempi! Kuvan eri kanavien lisäksi hahmovektori voi siis käsittää muitakin piirteitä, kuten vaikka lasketun NDVI:n yhtenä kanavana
35
Ohjattu luokittelu Opetusalueilla ohjataan luokitusta oikeaan suuntaan kohti haluttuja luokkia Muita alueita ”verrataan” (kaikilla kanavilla) opetusalueisiin ja luokitellaan ne spektraalisesti lähimpiin luokkiin
36
Ohjattu luokittelu 1. Ensin siis valitaan halutut informaatioluokat
esim. metsä, pelto, tie, vedet 2. Sitten määritellään spektraaliset alueet, jotka vastaavat näitä lopullisia luokkia 3. Muut pikselit luokitellaan näiden mukaan luokkiin TAI liian epävarmat luokitukset hylätään
37
Tulosten analysointi Minimoidaan luokitteluvirhe -> virheen estimointi on oleellinen osa luokittelua Määritettävä estimaatin luotettavuus Virhe estimoidaan luokittelemalla 1. tulkinta-alue, eli poimitut ja nimetyt alueet tulkinta-alueen luokitteluvirhettä ei kuitenkaan voi yleistää koskemaan koko kuvaa 2. testialue, joka on eri kuin opetusalueet
38
Koko kuvan tarkkuus - Testialueet
Testataan luokittelua testialueilla Eri alueita kuin alkuperäiset opetusalueet Testialueidenkin oltava täydellisiä ja edustavia (kaikki luokat ja kaikki luokan eri tyypit mukana) suurempia kuin opetusalueet
39
Virhematriisi Tarkkuutta arvioidaan virhematriisin avulla
Diagonaalilla oikein luokittuneet Muut ovat virheluokituksia Riveillä: mihin luokitellaan Sarakkeilla: mikä luokan pitäisi olla testialueiden mukaan eli ”oikea luokka”
40
Virhematriisi testialueen oikeat luokat
testialueen luokituksen tulokset
41
Luokituksen keskimääräinen tarkkuus
Diagonaalialkioiden summa jaettuna kaikkien lukumäärällä Miten luokat keskimäärin luokittuneet Keskiarvo kaikkein pikselien luokittelutarkkuudesta
42
Tuottajan tarkkuus / tulkintatarkkuus
Sarakkeiden oikein luokiteltujen määrä jaettuna luokan kokonaismäärällä (sarakesumma) Kertoo siitä, miten hyvin luokan testipikselit ovat luokittuneet
43
Käyttäjän tarkkuus kohdetarkkuus
Rivillä oikein luokittuneiden määrä jaettuna luokkaan luokiteltujen määrällä (rivisumma) Paljonko on luokiteltu luokkaan I myös muiden luokkien pikseleitä Kertoo todennäköisyyden, että luokkaan I luokiteltu pikseli todella kuuluu kyseiseen luokkaan
44
KHAT-arvo eli Kappakerroin
Luokitustuloksen ero satunnaiseen luokitteluun (keskim tarkkuus-kerroin)/(1-kerroin) kerroin = rivi- ja sarakesummien tulo Esim. KHAT= 0.70: luokittelu 70% satunnaista parempi
45
Maastoaineisto Maastohavainnot eli käynti alueella, esim. kuvioittainen metsäninventointi Aiemmat kartat huomioitava tekovuosi, onko alue muuttunut!! Mikä tahansa tieto alueelta auttaa Tärkeää olla jotain validointiaineistoa jolla arvioida tarkkuutta
46
”Laatikkoluokittelija”
Määritetään kunkin luokan minimi- ja maksimiarvot kullakin kanavalla (laatikot) Luokitellaan kuvapikseli siihen luokka, jonka laatikon alueelle se osuu Jos osuu laatikoiden (min-max-välin) ulkopuolelle, hylätään Yksinkertainen ja nopea Ongelma: luokkien min ja max arvot leikkaavat yleensä usealla kanavalla
47
Muita ohjattuja luokittelumenetelmiä
Bayesin päätössääntö todennäköisyysteoreettinen menetelmä, etsitään sitä luokkaa joka parhaiten vastaa havaintoja Lähimmän naapurin päätössääntö perustuu hahmevektoreiden välisiin etäisyyksiin, useita eri versioita periaatteena että lähekkäin olevat hahmovektorit kuuluvat samaan luokkaan Diskriminanttifunktiot määritetään luokkien rajat
48
Bayesin päätössääntö Haetaan todennäköisintä luokkaa kullekin datajoukon pikselille Määritetään kullekin pikselille x todennäköisyys, että se kuuluu luokkaan wj Luokkia j: 1 , … , n Määritellään todennäköisyys luokalle wj (a posteriori todennäköisyys) että pikseli x kuuluu ko luokkaan: P( wj|x)
49
Bayesin päätössääntö P(wj|x) = luokan a posteriori todennäköisyys
p(x) = x:n yhteistiheysfunktio = p(x|wj) * pi luokitellaan x luokkaan, jolle P(wj|x) on kaikkein suurin!
50
a posteriori todennäköisyyden laskentaan tarvitaan:
p(x|wj): luokan j todennäköisyys tietyn tyyppiselle pikselille x luokan j tiheysfunktio hahmovektorille x ilmaiseen hahmovektorin x ja luokan j opetusjoukon välisen etäisyyden kuinka paljon x kuuluu luokkaan j Pj: luokan j etukäteistodennäköisyys kuinka suuri osa kaikista pikseleistä kuuluu luokkaan j
51
Bayesin päätössääntö Yksinkertaisimmassa tapauksessa x luokitellaan siihen luokkaan jolla on suurin a posteriori todennäköisyys Jos virheluokittelusta on suuret vahingot, hylätään mieluummin kuin luokitellaan väärin! Hylkäyskynnys: lr Luokitellaan luokkaan j : w(x)=wj jos P(wj|x) = max P(wi|x) > 1-lr Hylätään: w(x)=w0 jos P(wj|x) = max P(wi|x) <= 1-lr
52
Päätöksen kustannus joka päätökseen liitetään kustannus, joka kuvaa päätöksen riskiä: eli miten suuri moka tehdään jos luokitellaan luokkaan i kun oikea luokka on j
53
Bayesin päätössääntö Yleisimässä tapauksessa mukaan otetaan kustannusfunktio Kustannus sille että luokitellaan luokkaan i kun oikea luokka on j Tehdään sellaisen päätökset, että keskimääräinen kustannus on mahdollisimman pieni
54
Suurimman uskottavuuden luokittelija (maximum likelihood classifier) MLC
Bayesin päätössääntö + parametrinen tiheysfunktio Parametrit estimoidaan opetusjoukon avulla Yleensä luokat oletetaan normaalijakautuneiksi, määritettävä luokille keskiarvovektorit ja kovarianssimatriisit Bayesin kaavassa käytetään luokan tiheysfunktion kaavana normaalijakauman tiheysfunktion kaavaa
55
Kanavan1 arvot Kanavan2 arvot a a a a a a a d d d d d d b c x ellipsin säde x = luokan keskiarvo
56
Mahalanobis-etäisyys
MLC voidaan toteuttaa myös näin: Gi(x)= -1/2(x-ui)TCi-1(x-ui) -(d/2)log(2p)-1/2log(|Ci|)+log(Pi) x=luokiteltavan pikselin arvo eri kanavilla ui=keskiarvovektori, määrittelee ellipsoidin sijainnin Ci=kovarianssi-matriisi, määrittelee hyperellipsoidin muodon ja orientoinnin Pi=a'priori todennäköisyys Pi=Bi/SBi Bi=bias, eli harha, etäisyys odotusarvosta Ti= luokan i kynnys
57
Kynnys Kynnysarvon avulla määritetään, kuuluuko pikseli luokkaan vaiko ei Kynnys määritetään keskihajonnan avulla hyperellipsi kyseisen luokkakeskiarvon ympärillä kuvan piirreavaruudessa. Jos pikseli on ellipsin sisäpuolella, ts. kynnysarvoa lähempänä, luokitellaan kuuluvaksi ko luokkaan. Pikselit, jotka eivät ole minkään luokan hyperellipsin sisäpuolella, hylätään.
58
Erikoistapaus Minimietäisyysluokittelija
Hahmovektori luokitellaan samaan luokkaan lähimmän luokkakeskiarvon mukaan silloin kuin kaikkien luokkien todennäköisyydet oletetaan yhtä suuriksi (kovarianssimatriisi on yksikkömatriisi) palaa lähimpään luokkakeskiarvoon
59
Lähimmän naapurin päätössääntö
Periaate: toisiaan lähellä olevat hahmovektorit kuuluvat samaan luokkaan Luokiteltavasta pikselistä eli hahmovektorista lasketaan etäisyydet kaikkiin opetusjoukon vektoreihin
60
lähimmän naapurin päätössääntö
Etäisyydet järjestetään pienimmästä suurimpaan 1-lähimmän naapurin päätössääntö: otetaan spektrisesti lähin suunnittelujoukon vektori luokiteltava vektori Kanavan x arvot Kanavan y arvot
61
k-, k,l- ja k,li-lähimmän naapurin päätössääntö
Haetaan k kpl lähimpiä suunnittelujoukon vektoreita Luokitellaan siihen luokkaan, jota sattuu eniten l: huonojen luokitusten hylkäämisen k kappaletta lähimpiä naapureita l on hylkäyskynnys ( l>k/2) k=5, l=2.5 eli pitää olla 3 samaa luokkaa ennen kuin hyväksytään Estää karkeat luokitteluvirheet Hylkäyskynnys l kaikille sama tai li kullekin luokalle oma
62
Parametrien k ja l valinta
k eli naapurien lukumäärä l eli hylkäyskynnys Valitaan kokeilemalla - > paljon laskentaa! Yhtä hahmovektoria luokiteltaessa lasketaan spektriset etäisyydet kaikkiin suunnittelujoukon vektoreihin
63
Laskennan määrää voidaan pienentää
Tiivistämällä dataa: poistetaan turhia vektoreita suunnittelujoukosta turha = ei vaikuta luokitukseen Relaatioiden avulla: luokitellaan joillakin alkuarvoilla k ja l määritetään hylättyjen hahmovektoreiden määrä väärinluokiteltujen hahmovektoreiden määrä suhteutetaan hylättyjen ja väärinluokiteltujen määrä muihin k ja l:n arvoihin
64
Diskriminanttifunktiot
Luokkien päätösalueiden sijasta määritetään alueiden välisiä päätösrajoja Oletetaan, että tunnetaan rajojen funktionaalinen muoto esim. suora Ei tehdä oletuksia datan jakaumasta Opetusvaihe: määritetään päätösrajojen parametrit opetusjoukon avulla Luokitteluvaihe: mille puolelle rajaa luokiteltava hahmovektori osuu
65
Lineaariset diskriminanttifunktiot
g(x)=w1x1 + w2x2 + …+wn-1xn-1 + wnxn + wn+1 =WTx Päätösraja on (hyper)taso n-ulotteisessa avaruudessa w=painovektori, joka määrittää tason orientoinnin wn+1 = kynnyspaino, etäisyys origosta Kullekin luokalle i oma gi(x)
66
Ohjaamaton luokitttelu
Ensin ryhmitellään spektraalisesti samankaltaiset alueet datalta Pohjataan vain kuvalta saataviin numeroarvoihin Tunnistetaan jälkikäteen luokiksi
67
Ohjaamaton luokittelu
Ei käytetä opetusalueita eikä etukäteistietoa Määritellään luontaisesti erottuvat (tilastolliset) ryhmät datasta Ryhmiä kutsutaan klustereiksi Ryhmien lukumäärä annetaan tai algoritmi määrittää Muita mahdollisia parametreja: luokkien tilastollinen erottuvuus ts. kuinka kaukana/lähellä eri luokat saavat olla toisistaan luokan sisäinen spektrien vaihtelu (sisäinen hajonta)
68
Ohjaamaton luokittelu
Ryhmän eli klusterin muodostavat joukko hahmovektoreita, jotka keskenään ovat riittävän samanlaisia Eri ryhmiin kuuluvat ovat riittävän erilaisia Etäisyys samaan ryhmään kuuluviin on pienempi kuin muihin Kriteerinä: minimoidaan ryhmien sisäistä hajontaa maksimoidaan ryhmien keskiarvovektorien välisiä etäisyyksiä
69
Samanlaisuusmitat Euklidinen etäisyys Mahalanobis etäisyys
x hahmovektori, m ryhmän keskiarvo Mahalanobis etäisyys A kovarianssi-matriisi, huomioidaan myös keskihajonta Hahmovektorien välinen kulma
70
Klusterointimenetelmät eli Ryhmittelymenetelmät
Yleisimmät parametriset menetelmät: k-means ISODATA perustuvat jälleen keskiarvovektoreihin ja hajontoihin
71
K-means Aluksi valitaan satunnaiset ryhmäkeskiarvot, esim 5 kappaletta. Luokitellaan muut pikselit lähimpien ryhmäkeski-arvojen mukaan Lasketaan uudet ryhmäkeskiarvot ryhmitellystä datasta Ryhmitellään data uudestaan uusien ryhmäkeskiarvojen mukaan. Iteroidaan, kunnes keskiarvot tai ryhmittelytulos ei muutu
72
ISODATA Modifioitu k-means-menetelmä
Ryhmiä voidaan iteroinnin kuluessa jakaa kahteen eri ryhmään tai yhdistellä läheisiä ryhmiä Ryhmiä jaetaan, kun ryhmien lukumäärä kaukana halutusta, ryhmän sisäinen hajonta suuri, ryhmän koko liian suuri Ryhmiä yhdistellään kun, ryhmien lukumäärä kaukana halutusta, jokin ryhmä liian pieni, kaksi ryhmää lähellä toisiaan
73
Ohjaamaton luokittelu - etuja
Koska spektriset erottuvuudet määrittävät luokat, saatetaan löytää sellaisia luokkia, joita alun perin ei osattu ajatella olevan olemassa Esim. kasvillisuustyyppien lisäksi myös kasvien terveys Opetus on myös usein mahdoton homma silloin kun luokkia on paljon
74
Luokkien erottuvuuden validointi
Ohjelmissa usein signature-editori jonka avulla voi laskea: luokkien yhtenäisyyttä luokkien välistä erottuvuutta Kannattaa tarkastella luokkien histogrammeja Jos ryhmän histogrammissa on jollain kanavalla useampi huippu se kannattaa jakaa useampaan ryhmään
75
Validoinnin jälkeen Tunnistetaan muodostetut ryhmät
Vastaavatko ne jotakin informaatioluokkaa, eli erottuivatko metsät pelloista ja vesistä Mikäli osa ryhmistä koostuu useammasta informaatioluokasta - poista kuvalta tulkitut ryhmät - ryhmittele loput uudelleen
76
Hybridi luokittelija Määritetään ensin klusteroimalla spektrisesti hyvin erottuvat alueet osakuvalta. Käytetään sitten näitä alueita varsinaisen luokittelun opetusalueena. Saadaan hyvät ja spektrisesti erottuvat opetusalueet Hyvä erityisesti silloin, kun yksittäisiin luokkiin sisältyy useita spektrisesti yhtenäisiä osaluokkia, mutta varsinainen kokonainen luokka on spektrisesti hajanainen.
77
SPOT-kuvan ryhmittely
Valkea ja ruskea vastaavat paljasta maata ja ihmisen tekemiä kohteita, pelto keltaista, tumman vihreä puustoa, vaalean vihreä muuta kasvillisuutta ja sininen vettä.
Samankaltaiset esitykset
© 2024 SlidePlayer.fi Inc.
All rights reserved.