Maa-57.351 Kaukokartoituksen yleiskurssi Luento 6: Visuaalinen tulkinta Mallintaminen Ohjattu luokittelu Ohjaamaton luokittelu
Tulkinta Visuaalinen tulkinta Ihminen suorittaa katsomalla kuvaa Tietokoneen suorittama tulkinta Kohdetta kuvaava jatkuva muuttuja, esim. puuston kuutiotilavuus (mallintaminen) Kohdetta kuvaava kategoria eli diskreetti muuttuja (luokittelu)
Visuaalinen tulkinta Etsitään yhtenäisiä ja samankaltaisia alueita kuvilta Tunnistetaan eri alueet maastokohteiksi tai maankäyttöluokiksi Erotellaan sävyn, muodon, koon, tekstuurin, varjojen, ympäröivien kohteiden avulla
Vis 1: Havainto ja erottuminen Sävyerot huomataan (erot joko teräviä tai asteittaisia) Objekti havaitaan kun suoraan havaittu sävyero on niin suuri että se erotetaan ympäristöstään Erottaminen riippuu havainnoijan kokemuksesta ja kuvalla olevien sävyerojen kontrastista Ei välttämättä virheetöntä havainto voi johtaa harhaan objekti erottuu huonosti ympäristöstään
Vis 2: Koon määrittäminen ja identifiointi Oikea arvio kohteen koosta on oleellista oikean identifioinnin tekemiseksi Kohteen identifiointi voi perustua sen geometriaan (koko, muoto, korkeus, varjo), kohteen paikkaan tai sen kontekstiin (asiayhteys) Kohde on identifioitu, kun se voidaan nimetä
Vis 3: Analyysi ja johtopäätökset Liitetään merkitys nimetylle kohteelle Määritetään kohteiden väliset yhteydet ja riippuvuudet
Sävy Kohteen sävy kuvaa suhteellista kirkkausarvoa kuvalla. Sen perusteella pääasiassa tehdään kohteiden tunnistamista kuvalla Eri sävyisten kohteiden muoto, koko yms. erottuvat
Muoto Muodon perusteella voidaan määritellä mikä kohde on, esim ihmisen tekemät kohteet ovat muodoltaan terävämpiä ja säännöllisempiä esim. tiet, rakennelmat luonnonkohteet rajoiltaan epäsäännöllisiä ja epämääräisiä
Koko Eri alueellisen erotuskyvyn kuvilla kohteet ovat eri kokoisia Kohteiden koko suhteessa muihin kohteisiin auttaa tunnistamisessa
Kuvio Samankaltaista kohdetta on paljon, muodostuu kuvio Voi päätellä jotain yksittäisistä kohteista tai alueesta
Tekstuuri / pinnan karkeus Alueen / kohteen karkeus verrattuna instrumentin alueelliseen erotuskykyyn Jos tekstuuri on pienipiirteisempää, kohde näkyy tasaisena alueena Kuten avoalue viereisellä kuvalla
Varjot Voi auttaa kohteen tunnistamisessa ja koon määrittämisessä Toisaalta estää alleen jäävän kohteen tunnistamisen
Yhteys muihin kohteisiin Kohde voidaan tunnistaa ympäröivien kohteiden avulla, vaikka se ei itsessään olisikaan tunnistettava
Mallintaminen Määritetään kaukokartoitushavaintojen ja geofysikaalisen parametrin välinen yhteys Parametri jatkuva muuttuja Esimerkkejä puuston m3/ha, maaperän kosteus, veden suolaisuus Lähestymistapoja mallintamiseen Empiirinen Semi-empiirinen Teoreettinen
Empiirinen mallintaminen Tehdään tilastollinen malli kaukokartoitushavaintojen x (selittävä muuttuja) ja geofysikaalisen parametrin y (selitettävä muuttuja) välille Yksinkertaisimmassa tapauksessa kyseessä on lineaarinen regressioanalyysi, yksi selittävä muuttuja: y = a0 + a1 * x Mallin kertoimet a määritetään minimoimalla virhettä mallilla estimoidun ye ja tunnetun y välillä Kertoimet a määrittävät vain muuttujien välisen yhteyden eivätkä vastaa mitään reaalimaailman ilmiötä
Empiirinen mallintaminen Landsat ETM Ch5 vs. puuston pituus a0 = 9.13, a1 = -0.09 PIT = -0.09 * DN + 9.13 RMSE = 1.22 m RMSE% = 61.0% PCC = -0.60 R2 = 35.8
Empiirinen mallintaminen Landsat ETM Ch5 vs. puuston pituus, puuttomat alueet poistettu a0 = 7.70, a1 = -0.06 PIT = -0.06 * DN + 7.70 RMSE = 0.62 m RMSE% = 21.7% PCC = 0.74 R2 = 54.9
Teoreettinen mallintaminen Kuvataan sähkömagneettisen säteilyn vuorovaikutus kohteen kanssa käyttäen säteilynkuljetusteoriaa tai Maxwellin yhtälöitä Yleensä monimutkaisia, ts. paljon määritettäviä parametreja, joka haittaa mallien soveltamista käytäntöön Parametrit saattavat olla vaikeasti määritettävissä MIMICS: mikroaaltoalueen säteilyn käyttäytyminen puuston lehvästössä, tarvittavia parametrejä mm.: lehvästön paksuus, biomassa, lehtialaindeksi pienten oksien, neulasten ja lehtien koot, muodot asennot ja kosteus, rungoista korkeus, biomassa koot, esiintymistiheys, asennot, kosteus
Semi-empiirinen mallintaminen Yhdistetään teoreettisten ja empiiristen mallien edut Osa mallin parametreistä määritetään kaukokartoitushavaintojen avulla Optisen alueen malli lumen peittämän alueen määrittämiseksi: SCA Lumen peittämä alue pikselistä (SCA) Mitattu reflektanssi Forest Metsän reflektanssi Snow Lumen reflektanssi Ground Maanpinnan reflektanssi t Metsän transmissiivisyys (läpäisy)
Semi-empiirinen mallintaminen TKK/AVA:n semi-empiirinen metsän takaisinsironnan malli: 0(V,) mitattu takaisinsironta 0CAN takaisinsironta puustosta 0FLOOR latvuston vaimentama takaisinsironta maanpinnasta V puuston tilavuus mittauskulma Mallin parametrit: a kasvillisuuden kosteus b maanpinnan sirontakerroin
Digitaalinen tulkinta: luokittelu Sama tavoite kuin visuaalisessa tulkinnassa: luokitellaan pikselit eri luokkiin Tehdään numeerisesti Eri kanavien arvoihin perustuen Ohjelmilla / algoritmeilla
Luokittelu Hyödynnetään kuvan eri kanavilla olevaa spektristä tietoa => spektristä hahmotunnistusta Luokat: 1. lopulliset maankäyttöluokat 2. spektrisesti yhtenäiset alueet kuvalla yhtenäiset alueet: eri kanavilla kirkkausarvot samankaltaisia
Luokitteluprosessi 1. Mittaus: satelliitin keilain muodostaa käsiteltävät hahmot, kuvapikselit 2. Esikäsittely: eliminoidaan virheet radiometrinen ja geometrinen korjaus 3. Piirteiden valinta ja irrotus: valitaan osajoukko koko datasta, jossa on suurin informaatio (kanavasuhde, erotuskuvat pääkomponenttimuunnos)
Luokitteluprosessi 4. Esitysmuoto: 5. Tunnistus: vektori (yksi pikseli kaikilla kanavilla/piirteillä) Pikseli: hahmovektori 5. Tunnistus: hahmot jaotellaan tunnettuihin tai tuntemattomiin luokkiin määritetään luokkien samankaltaisuutta määritetään luokittelun luotettavuus!!!
Informaatioluokka - lopullinen maankäyttöluokka Luokittelun lopullinen tavoite Jos ei ole kyse maankäyttö-luokituksesta, voidaan puhua laajemmin informaatioluokista Esim. eri puutyypit, pellot, kivilajit, hakkuualueet, muuttuneet alueet, saastuneet alueet, lajien levinneisyyskartat
Spektraaliset luokat Yhtenäiset (tai lähes) pikseliryhmät Yhtenäisiä myös eri kanavilla => samankaltainen spektri !: muoto kirkkausarvot
Luokittelu Yhdistetään spektraaliset luokat haluttuihin informaatioluokkiin. Harvoin kuitenkaan spektraalinen luokka suoraan vastaa haluttua lopullista luokkaa Vaikeaa koska: Kuvalta löytyy spektrisesti yhtenäisiä alueita, jotka eivät muodosta mitään haluttua lopullista luokkaa Lopullinen luokka voi koostua useista spektraalisista osaluokista.
Luokittelu 1. ohjattu (supervised) 2. ohjaamaton (unsupervised)
Ohjattu luokittelu Pohjaa kuvalta poimittaviin / osoitettaviin homogeenisiin edustaviin näytteisiin kustakin luokasta = opetusalue
Luokittelijan opetus Kerrotaan luokittelijalle millaisia eri luokkien spektraaliset ominaisuudet ovat Eli millaisia luokkien tyypilliset hahmovektorit ovat sekä näiden hajonta
Opetusalue Etsitään luokkia vastaavat alueet kuvalta ja nimetään ne kunkin luokan opetusalueiksi Hyvän opetusalueen valinta riippuu siitä kuinka paljon alueesta on muuta tietoa: aiempi luokittelumateriaali ja kartat ym. muut tiedot (peruskartta) maastokäynnit / inventoinnit eli kuinka tuttu alue on
Opetusalueet
Opetusalueiden keskiarvot kanavittain
Piirteiden valinta ja irrotus: Valitaan käytettävät kanavat / piirteet (turha tieto pois!) Suhdekuvat, pääkomponentit, erotuskuvat Data, josta tulevat luokat erottuvat parhaiten toisistaan Mitä vähemmän dataa sen parempi! Kuvan eri kanavien lisäksi hahmovektori voi siis käsittää muitakin piirteitä, kuten vaikka lasketun NDVI:n yhtenä kanavana
Ohjattu luokittelu Opetusalueilla ohjataan luokitusta oikeaan suuntaan kohti haluttuja luokkia Muita alueita ”verrataan” (kaikilla kanavilla) opetusalueisiin ja luokitellaan ne spektraalisesti lähimpiin luokkiin
Ohjattu luokittelu 1. Ensin siis valitaan halutut informaatioluokat esim. metsä, pelto, tie, vedet 2. Sitten määritellään spektraaliset alueet, jotka vastaavat näitä lopullisia luokkia 3. Muut pikselit luokitellaan näiden mukaan luokkiin TAI liian epävarmat luokitukset hylätään
Tulosten analysointi Minimoidaan luokitteluvirhe -> virheen estimointi on oleellinen osa luokittelua Määritettävä estimaatin luotettavuus Virhe estimoidaan luokittelemalla 1. tulkinta-alue, eli poimitut ja nimetyt alueet tulkinta-alueen luokitteluvirhettä ei kuitenkaan voi yleistää koskemaan koko kuvaa 2. testialue, joka on eri kuin opetusalueet
Koko kuvan tarkkuus - Testialueet Testataan luokittelua testialueilla Eri alueita kuin alkuperäiset opetusalueet Testialueidenkin oltava täydellisiä ja edustavia (kaikki luokat ja kaikki luokan eri tyypit mukana) suurempia kuin opetusalueet
Virhematriisi Tarkkuutta arvioidaan virhematriisin avulla Diagonaalilla oikein luokittuneet Muut ovat virheluokituksia Riveillä: mihin luokitellaan Sarakkeilla: mikä luokan pitäisi olla testialueiden mukaan eli ”oikea luokka”
Virhematriisi testialueen oikeat luokat testialueen luokituksen tulokset
Luokituksen keskimääräinen tarkkuus Diagonaalialkioiden summa jaettuna kaikkien lukumäärällä Miten luokat keskimäärin luokittuneet Keskiarvo kaikkein pikselien luokittelutarkkuudesta
Tuottajan tarkkuus / tulkintatarkkuus Sarakkeiden oikein luokiteltujen määrä jaettuna luokan kokonaismäärällä (sarakesumma) Kertoo siitä, miten hyvin luokan testipikselit ovat luokittuneet
Käyttäjän tarkkuus kohdetarkkuus Rivillä oikein luokittuneiden määrä jaettuna luokkaan luokiteltujen määrällä (rivisumma) Paljonko on luokiteltu luokkaan I myös muiden luokkien pikseleitä Kertoo todennäköisyyden, että luokkaan I luokiteltu pikseli todella kuuluu kyseiseen luokkaan
KHAT-arvo eli Kappakerroin Luokitustuloksen ero satunnaiseen luokitteluun (keskim tarkkuus-kerroin)/(1-kerroin) kerroin = rivi- ja sarakesummien tulo Esim. KHAT= 0.70: luokittelu 70% satunnaista parempi
Maastoaineisto Maastohavainnot eli käynti alueella, esim. kuvioittainen metsäninventointi Aiemmat kartat huomioitava tekovuosi, onko alue muuttunut!! Mikä tahansa tieto alueelta auttaa Tärkeää olla jotain validointiaineistoa jolla arvioida tarkkuutta
”Laatikkoluokittelija” Määritetään kunkin luokan minimi- ja maksimiarvot kullakin kanavalla (laatikot) Luokitellaan kuvapikseli siihen luokka, jonka laatikon alueelle se osuu Jos osuu laatikoiden (min-max-välin) ulkopuolelle, hylätään Yksinkertainen ja nopea Ongelma: luokkien min ja max arvot leikkaavat yleensä usealla kanavalla
Muita ohjattuja luokittelumenetelmiä Bayesin päätössääntö todennäköisyysteoreettinen menetelmä, etsitään sitä luokkaa joka parhaiten vastaa havaintoja Lähimmän naapurin päätössääntö perustuu hahmevektoreiden välisiin etäisyyksiin, useita eri versioita periaatteena että lähekkäin olevat hahmovektorit kuuluvat samaan luokkaan Diskriminanttifunktiot määritetään luokkien rajat
Bayesin päätössääntö Haetaan todennäköisintä luokkaa kullekin datajoukon pikselille Määritetään kullekin pikselille x todennäköisyys, että se kuuluu luokkaan wj Luokkia j: 1 , … , n Määritellään todennäköisyys luokalle wj (a posteriori todennäköisyys) että pikseli x kuuluu ko luokkaan: P( wj|x)
Bayesin päätössääntö P(wj|x) = luokan a posteriori todennäköisyys p(x) = x:n yhteistiheysfunktio = p(x|wj) * pi luokitellaan x luokkaan, jolle P(wj|x) on kaikkein suurin!
a posteriori todennäköisyyden laskentaan tarvitaan: p(x|wj): luokan j todennäköisyys tietyn tyyppiselle pikselille x luokan j tiheysfunktio hahmovektorille x ilmaiseen hahmovektorin x ja luokan j opetusjoukon välisen etäisyyden kuinka paljon x kuuluu luokkaan j Pj: luokan j etukäteistodennäköisyys kuinka suuri osa kaikista pikseleistä kuuluu luokkaan j
Bayesin päätössääntö Yksinkertaisimmassa tapauksessa x luokitellaan siihen luokkaan jolla on suurin a posteriori todennäköisyys Jos virheluokittelusta on suuret vahingot, hylätään mieluummin kuin luokitellaan väärin! Hylkäyskynnys: lr Luokitellaan luokkaan j : w(x)=wj jos P(wj|x) = max P(wi|x) > 1-lr Hylätään: w(x)=w0 jos P(wj|x) = max P(wi|x) <= 1-lr
Päätöksen kustannus joka päätökseen liitetään kustannus, joka kuvaa päätöksen riskiä: eli miten suuri moka tehdään jos luokitellaan luokkaan i kun oikea luokka on j
Bayesin päätössääntö Yleisimässä tapauksessa mukaan otetaan kustannusfunktio Kustannus sille että luokitellaan luokkaan i kun oikea luokka on j Tehdään sellaisen päätökset, että keskimääräinen kustannus on mahdollisimman pieni
Suurimman uskottavuuden luokittelija (maximum likelihood classifier) MLC Bayesin päätössääntö + parametrinen tiheysfunktio Parametrit estimoidaan opetusjoukon avulla Yleensä luokat oletetaan normaalijakautuneiksi, määritettävä luokille keskiarvovektorit ja kovarianssimatriisit Bayesin kaavassa käytetään luokan tiheysfunktion kaavana normaalijakauman tiheysfunktion kaavaa
Kanavan1 arvot Kanavan2 arvot a a a a a a a d d d d d d b c x ellipsin säde x = luokan keskiarvo
Mahalanobis-etäisyys MLC voidaan toteuttaa myös näin: Gi(x)= -1/2(x-ui)TCi-1(x-ui) -(d/2)log(2p)-1/2log(|Ci|)+log(Pi) x=luokiteltavan pikselin arvo eri kanavilla ui=keskiarvovektori, määrittelee ellipsoidin sijainnin Ci=kovarianssi-matriisi, määrittelee hyperellipsoidin muodon ja orientoinnin Pi=a'priori todennäköisyys Pi=Bi/SBi Bi=bias, eli harha, etäisyys odotusarvosta Ti= luokan i kynnys
Kynnys Kynnysarvon avulla määritetään, kuuluuko pikseli luokkaan vaiko ei Kynnys määritetään keskihajonnan avulla hyperellipsi kyseisen luokkakeskiarvon ympärillä kuvan piirreavaruudessa. Jos pikseli on ellipsin sisäpuolella, ts. kynnysarvoa lähempänä, luokitellaan kuuluvaksi ko luokkaan. Pikselit, jotka eivät ole minkään luokan hyperellipsin sisäpuolella, hylätään.
Erikoistapaus Minimietäisyysluokittelija Hahmovektori luokitellaan samaan luokkaan lähimmän luokkakeskiarvon mukaan silloin kuin kaikkien luokkien todennäköisyydet oletetaan yhtä suuriksi (kovarianssimatriisi on yksikkömatriisi) palaa lähimpään luokkakeskiarvoon
Lähimmän naapurin päätössääntö Periaate: toisiaan lähellä olevat hahmovektorit kuuluvat samaan luokkaan Luokiteltavasta pikselistä eli hahmovektorista lasketaan etäisyydet kaikkiin opetusjoukon vektoreihin
lähimmän naapurin päätössääntö Etäisyydet järjestetään pienimmästä suurimpaan 1-lähimmän naapurin päätössääntö: otetaan spektrisesti lähin suunnittelujoukon vektori luokiteltava vektori Kanavan x arvot Kanavan y arvot
k-, k,l- ja k,li-lähimmän naapurin päätössääntö Haetaan k kpl lähimpiä suunnittelujoukon vektoreita Luokitellaan siihen luokkaan, jota sattuu eniten l: huonojen luokitusten hylkäämisen k kappaletta lähimpiä naapureita l on hylkäyskynnys ( l>k/2) k=5, l=2.5 eli pitää olla 3 samaa luokkaa ennen kuin hyväksytään Estää karkeat luokitteluvirheet Hylkäyskynnys l kaikille sama tai li kullekin luokalle oma
Parametrien k ja l valinta k eli naapurien lukumäärä l eli hylkäyskynnys Valitaan kokeilemalla - > paljon laskentaa! Yhtä hahmovektoria luokiteltaessa lasketaan spektriset etäisyydet kaikkiin suunnittelujoukon vektoreihin
Laskennan määrää voidaan pienentää Tiivistämällä dataa: poistetaan turhia vektoreita suunnittelujoukosta turha = ei vaikuta luokitukseen Relaatioiden avulla: luokitellaan joillakin alkuarvoilla k ja l määritetään hylättyjen hahmovektoreiden määrä väärinluokiteltujen hahmovektoreiden määrä suhteutetaan hylättyjen ja väärinluokiteltujen määrä muihin k ja l:n arvoihin
Diskriminanttifunktiot Luokkien päätösalueiden sijasta määritetään alueiden välisiä päätösrajoja Oletetaan, että tunnetaan rajojen funktionaalinen muoto esim. suora Ei tehdä oletuksia datan jakaumasta Opetusvaihe: määritetään päätösrajojen parametrit opetusjoukon avulla Luokitteluvaihe: mille puolelle rajaa luokiteltava hahmovektori osuu
Lineaariset diskriminanttifunktiot g(x)=w1x1 + w2x2 + …+wn-1xn-1 + wnxn + wn+1 =WTx Päätösraja on (hyper)taso n-ulotteisessa avaruudessa w=painovektori, joka määrittää tason orientoinnin wn+1 = kynnyspaino, etäisyys origosta Kullekin luokalle i oma gi(x)
Ohjaamaton luokitttelu Ensin ryhmitellään spektraalisesti samankaltaiset alueet datalta Pohjataan vain kuvalta saataviin numeroarvoihin Tunnistetaan jälkikäteen luokiksi
Ohjaamaton luokittelu Ei käytetä opetusalueita eikä etukäteistietoa Määritellään luontaisesti erottuvat (tilastolliset) ryhmät datasta Ryhmiä kutsutaan klustereiksi Ryhmien lukumäärä annetaan tai algoritmi määrittää Muita mahdollisia parametreja: luokkien tilastollinen erottuvuus ts. kuinka kaukana/lähellä eri luokat saavat olla toisistaan luokan sisäinen spektrien vaihtelu (sisäinen hajonta)
Ohjaamaton luokittelu Ryhmän eli klusterin muodostavat joukko hahmovektoreita, jotka keskenään ovat riittävän samanlaisia Eri ryhmiin kuuluvat ovat riittävän erilaisia Etäisyys samaan ryhmään kuuluviin on pienempi kuin muihin Kriteerinä: minimoidaan ryhmien sisäistä hajontaa maksimoidaan ryhmien keskiarvovektorien välisiä etäisyyksiä
Samanlaisuusmitat Euklidinen etäisyys Mahalanobis etäisyys x hahmovektori, m ryhmän keskiarvo Mahalanobis etäisyys A kovarianssi-matriisi, huomioidaan myös keskihajonta Hahmovektorien välinen kulma
Klusterointimenetelmät eli Ryhmittelymenetelmät Yleisimmät parametriset menetelmät: k-means ISODATA perustuvat jälleen keskiarvovektoreihin ja hajontoihin
K-means Aluksi valitaan satunnaiset ryhmäkeskiarvot, esim 5 kappaletta. Luokitellaan muut pikselit lähimpien ryhmäkeski-arvojen mukaan Lasketaan uudet ryhmäkeskiarvot ryhmitellystä datasta Ryhmitellään data uudestaan uusien ryhmäkeskiarvojen mukaan. Iteroidaan, kunnes keskiarvot tai ryhmittelytulos ei muutu
ISODATA Modifioitu k-means-menetelmä Ryhmiä voidaan iteroinnin kuluessa jakaa kahteen eri ryhmään tai yhdistellä läheisiä ryhmiä Ryhmiä jaetaan, kun ryhmien lukumäärä kaukana halutusta, ryhmän sisäinen hajonta suuri, ryhmän koko liian suuri Ryhmiä yhdistellään kun, ryhmien lukumäärä kaukana halutusta, jokin ryhmä liian pieni, kaksi ryhmää lähellä toisiaan
Ohjaamaton luokittelu - etuja Koska spektriset erottuvuudet määrittävät luokat, saatetaan löytää sellaisia luokkia, joita alun perin ei osattu ajatella olevan olemassa Esim. kasvillisuustyyppien lisäksi myös kasvien terveys Opetus on myös usein mahdoton homma silloin kun luokkia on paljon
Luokkien erottuvuuden validointi Ohjelmissa usein signature-editori jonka avulla voi laskea: luokkien yhtenäisyyttä luokkien välistä erottuvuutta Kannattaa tarkastella luokkien histogrammeja Jos ryhmän histogrammissa on jollain kanavalla useampi huippu se kannattaa jakaa useampaan ryhmään
Validoinnin jälkeen Tunnistetaan muodostetut ryhmät Vastaavatko ne jotakin informaatioluokkaa, eli erottuivatko metsät pelloista ja vesistä Mikäli osa ryhmistä koostuu useammasta informaatioluokasta - poista kuvalta tulkitut ryhmät - ryhmittele loput uudelleen
Hybridi luokittelija Määritetään ensin klusteroimalla spektrisesti hyvin erottuvat alueet osakuvalta. Käytetään sitten näitä alueita varsinaisen luokittelun opetusalueena. Saadaan hyvät ja spektrisesti erottuvat opetusalueet Hyvä erityisesti silloin, kun yksittäisiin luokkiin sisältyy useita spektrisesti yhtenäisiä osaluokkia, mutta varsinainen kokonainen luokka on spektrisesti hajanainen.
SPOT-kuvan ryhmittely Valkea ja ruskea vastaavat paljasta maata ja ihmisen tekemiä kohteita, pelto keltaista, tumman vihreä puustoa, vaalean vihreä muuta kasvillisuutta ja sininen vettä.