Maa Kaukokartoituksen yleiskurssi

Slides:



Advertisements
Samankaltaiset esitykset
DRAMATURGIAN PERUSKÄSITTEISTÖÄ
Advertisements

Vihreän liiton kesäpäivät 2006 Panu Laturi
Kotisivukoulutus Kirjastotalo Metso Osa 2 Kuvan lisäys ja muokkaaminen.
Laatu ja ympäristöjärjestelmät
JavaScript (c) Irja & Reino Aarinen, 2007
Tiedonhankinnan prosessit muutoksessa
Estimointi Laajennettu Kalman-suodin
Osaamisen ja sivistyksen parhaaksi Oppijan verkkopalveluiden hyväksymistestauksen raportointiohje Testitapauksen raportointi Havainnon raportointi.
Tietokanta.
Tilavuus.
Tilavuus.
Luotettavuus todennäköisyyskäsitteenä; vikaantumismallit
Osaamisen ja sivistyksen parhaaksi Oppijan verkkopalveluiden hyväksymistestauksen testausohjeet Yleisohjeet testaukseen Havaintoraportin täyttäminen.
Hypoteesin testeistä Testin valinta perustuu aina tutkimusongelmaan ja kuvailuun (joka perustuu mitta-asteikoihin) Testaus ei koskaan ole itsenäinen, vaan.
Graafisen esityksen laatiminen taulukkolaskentaohjelmalla (excel 2013)
AS Automaation signaalinkäsittelymenetelmät
AS Automaation signaalinkäsittelymenetelmät
Graafisen esityksen laatiminen taulukkolaskentaohjelmalla (excel 2007)
RSA – Julkisen avaimen salakirjoitusmenetelmä Perusteet, algoritmit, hyökkäykset Matti K. Sinisalo, FL.
Mittaustekniikka (3 op)
Ristiinvalidointi ja bootstrap-menetelmä
Syksy 2001Johdatus bioinformatiikkaan / T. Pasanen 1 7. Monirinnastus Geeni perhe: ryhmä läheisiä toisilleen sukua olevia geenejä, jotka koodaavat samankaltaisia.
2. Vuokaaviot.
Vain demonstraatio- käyttöön © Menetelmäopetuksen tietovaranto 1 / 8 Ristiintaulukointi Ristiintaulukointia käytetään tutkittaessa kahden luokittelu- tai.
1.a) f(x) = 2x(x2 – 3) = 0 2x = tai x2 – 3 = 0 x = tai x2 = 3
Digitaalinen kuvankäsittely
Analyysi Analyysi = kreik. irrottaa: hajottaa osiinsa, eritellä, jäsentää. voi käsitteellisesti tarkoittaa kahta erilaista asiaa: muotoanalyysi: miten.
Virhelähteet yksittäisten puiden latvusten ilmakuvamittauksessa Antti Mäkinen Maatalous-metsätieteellinen tiedekunta / Metsävarojen käytön laitos.
TEORIALÄHTÖINEN (eli MÄÄRÄLLINEN TUTKIMUSPROSESSI
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä 3 - Outi Somervuori Optimointiopin seminaari - Kevät 2010 The trouble with choice: Studing.
Paikkatiedon keruu ja muokkaus: kaukokartoitus
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä 11 - Teemu Mutanen Optimointiopin seminaari - Syksy 2005 / 1 Lisätiedon arvo.
Kuusela: Tietoaika Lähde: Kuusela 2000: 57.
C 1. Testaus on ”sarja toimintoja” Itse asiassa, testaus on vuorovaikutusta, jota rytmittää ohjelmiston arviointi. Vaikka on hyödyllistä tunnistaa sarja.
@ Leena Lahtinen OHJELMAN OSITTAMINEN LUOKKA ATTRIBUUTIT METODIT.
Todennäköisyyslaskenta
tilastollinen todennäköisyys
Opintojen mitoittaminen ja kuormitus Laura Hirsto KT, Pedagoginen yliopistonlehtori
2. a. Pareittain esittele kirjoittamasi esittelyteksti ja valitsemasi lehtijutut. 2. b. Tarkastelkaa yhdessä valitsemianne lehtijuttuja ja merkitkää juttuihin.
Muuttujien riippuvuus
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä # - Esitelmöijän nimi Optimointiopin seminaari - Syksy 2010 Lineaarinen.
5. Lineaarinen optimointi
Testaus Testaus Testauksella pyritään löytämään virheitä, jotka sitten korjataan. Yksittäinen testi on yleensä ohjelman suoritus (tietyillä.
Bayesilainen tilastoanalyysi - priorijakaumista
Tulkinnan perusteita Fysiologiset perusteet
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Mallinnusmenetelmät 5 – Emilia Partanen Optimointiopin seminaari - Syksy 2005 Mallinnusmenetelmät.
Kotitehtävän 21 ratkaisu Ensimmäisen havaintoaineiston luokittelu – Ryhmäkeskiarvot hakeutuvat niin, että ryhmään kuuluvat pisteet ovat mahdollisimman.
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä 17 – Tuomas Nummelin Optimointiopin seminaari - Syksy 2010 Tukivektorikoneet.
Silmän käyttäytymisen tutkimus ja sovellukset Veikko Surakka Tampere University Computer Human Interaction Group.
Standardointi tekee eri asteikollisista muuttujista vertailukelpoisia
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä 11 – Tuomas Nummelin Optimointiopin seminaari - Syksy 2010 Lokaalit uskottavuusmenetelmät.
Johdetun luokan olion alustus tMyn1 Johdetun luokan olion alustus määrätyillä arvoilla Kun ohjelmassa esiintyy johdetun luokan olion määrittely, järjestelmä.
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Ohjaamaton oppiminen– Heikki Vesterinen Optimointiopin seminaari - Syksy 2010 Ohjaamaton.
5. Fourier’n sarjat T
1 © Jukka Juslin Luokat, attribuutit ja metodit Yleistietoa: seuraavalla koulutusviikolla tarkempi käsittely.
1 Sensor Tasking and Control Jari Hassinen Riikka Asikainen
Robustius Yleinen idea: jokin pysyy muuttumattomana vaikka jotakin muutetaan.
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä 22 – Jussi Kangaspunta Optimointiopin seminaari - Syksy 2010 Ohjaamaton.
MapInfon tiedostot TAB – Tiedosto, jonka avulla tietokanta avataan MapInfossa. Tiedostossa tietoja kentistä ja koordinaattijärjestelmästä. DAT, XLS. TXT.
5. Datan käsittely – lyhyt katsaus Havaitsevan tähtitieteen peruskurssi I, luento Thomas Hackman.
UNIVERSITY OF TURKU LOGISTINEN REGRESSIOANALYYSI.
Määrällinen tutkimus.
18. Testaus.
Kuusela: Tietoaika Lähde: Kuusela 2000: 57.
VARIANSSIANALYYSI.
Monimuuttinimuuttuja-analyyseista
3 Suureyhtälöt Fysiikan tehtävän ratkaisu:
Kartan laadinta maastotyönä
Tilastollinen koneoppiminen -lyhyt oppimäärä-
Bayes-päättelyn kertausta
Esityksen transkriptio:

Maa-57.351 Kaukokartoituksen yleiskurssi Luento 6: Visuaalinen tulkinta Mallintaminen Ohjattu luokittelu Ohjaamaton luokittelu

Tulkinta Visuaalinen tulkinta Ihminen suorittaa katsomalla kuvaa Tietokoneen suorittama tulkinta Kohdetta kuvaava jatkuva muuttuja, esim. puuston kuutiotilavuus (mallintaminen) Kohdetta kuvaava kategoria eli diskreetti muuttuja (luokittelu)

Visuaalinen tulkinta Etsitään yhtenäisiä ja samankaltaisia alueita kuvilta Tunnistetaan eri alueet maastokohteiksi tai maankäyttöluokiksi Erotellaan sävyn, muodon, koon, tekstuurin, varjojen, ympäröivien kohteiden avulla

Vis 1: Havainto ja erottuminen Sävyerot huomataan (erot joko teräviä tai asteittaisia) Objekti havaitaan kun suoraan havaittu sävyero on niin suuri että se erotetaan ympäristöstään Erottaminen riippuu havainnoijan kokemuksesta ja kuvalla olevien sävyerojen kontrastista Ei välttämättä virheetöntä havainto voi johtaa harhaan objekti erottuu huonosti ympäristöstään

Vis 2: Koon määrittäminen ja identifiointi Oikea arvio kohteen koosta on oleellista oikean identifioinnin tekemiseksi Kohteen identifiointi voi perustua sen geometriaan (koko, muoto, korkeus, varjo), kohteen paikkaan tai sen kontekstiin (asiayhteys) Kohde on identifioitu, kun se voidaan nimetä

Vis 3: Analyysi ja johtopäätökset Liitetään merkitys nimetylle kohteelle Määritetään kohteiden väliset yhteydet ja riippuvuudet

Sävy Kohteen sävy kuvaa suhteellista kirkkausarvoa kuvalla. Sen perusteella pääasiassa tehdään kohteiden tunnistamista kuvalla Eri sävyisten kohteiden muoto, koko yms. erottuvat

Muoto Muodon perusteella voidaan määritellä mikä kohde on, esim ihmisen tekemät kohteet ovat muodoltaan terävämpiä ja säännöllisempiä esim. tiet, rakennelmat luonnonkohteet rajoiltaan epäsäännöllisiä ja epämääräisiä

Koko Eri alueellisen erotuskyvyn kuvilla kohteet ovat eri kokoisia Kohteiden koko suhteessa muihin kohteisiin auttaa tunnistamisessa

Kuvio Samankaltaista kohdetta on paljon, muodostuu kuvio Voi päätellä jotain yksittäisistä kohteista tai alueesta

Tekstuuri / pinnan karkeus Alueen / kohteen karkeus verrattuna instrumentin alueelliseen erotuskykyyn Jos tekstuuri on pienipiirteisempää, kohde näkyy tasaisena alueena Kuten avoalue viereisellä kuvalla

Varjot Voi auttaa kohteen tunnistamisessa ja koon määrittämisessä Toisaalta estää alleen jäävän kohteen tunnistamisen

Yhteys muihin kohteisiin Kohde voidaan tunnistaa ympäröivien kohteiden avulla, vaikka se ei itsessään olisikaan tunnistettava

Mallintaminen Määritetään kaukokartoitushavaintojen ja geofysikaalisen parametrin välinen yhteys Parametri jatkuva muuttuja Esimerkkejä puuston m3/ha, maaperän kosteus, veden suolaisuus Lähestymistapoja mallintamiseen Empiirinen Semi-empiirinen Teoreettinen

Empiirinen mallintaminen Tehdään tilastollinen malli kaukokartoitushavaintojen x (selittävä muuttuja) ja geofysikaalisen parametrin y (selitettävä muuttuja) välille Yksinkertaisimmassa tapauksessa kyseessä on lineaarinen regressioanalyysi, yksi selittävä muuttuja: y = a0 + a1 * x Mallin kertoimet a määritetään minimoimalla virhettä mallilla estimoidun ye ja tunnetun y välillä Kertoimet a määrittävät vain muuttujien välisen yhteyden eivätkä vastaa mitään reaalimaailman ilmiötä

Empiirinen mallintaminen Landsat ETM Ch5 vs. puuston pituus a0 = 9.13, a1 = -0.09 PIT = -0.09 * DN + 9.13 RMSE = 1.22 m RMSE% = 61.0% PCC = -0.60 R2 = 35.8

Empiirinen mallintaminen Landsat ETM Ch5 vs. puuston pituus, puuttomat alueet poistettu a0 = 7.70, a1 = -0.06 PIT = -0.06 * DN + 7.70 RMSE = 0.62 m RMSE% = 21.7% PCC = 0.74 R2 = 54.9

Teoreettinen mallintaminen Kuvataan sähkömagneettisen säteilyn vuorovaikutus kohteen kanssa käyttäen säteilynkuljetusteoriaa tai Maxwellin yhtälöitä Yleensä monimutkaisia, ts. paljon määritettäviä parametreja, joka haittaa mallien soveltamista käytäntöön Parametrit saattavat olla vaikeasti määritettävissä MIMICS: mikroaaltoalueen säteilyn käyttäytyminen puuston lehvästössä, tarvittavia parametrejä mm.: lehvästön paksuus, biomassa, lehtialaindeksi pienten oksien, neulasten ja lehtien koot, muodot asennot ja kosteus, rungoista korkeus, biomassa koot, esiintymistiheys, asennot, kosteus

Semi-empiirinen mallintaminen Yhdistetään teoreettisten ja empiiristen mallien edut Osa mallin parametreistä määritetään kaukokartoitushavaintojen avulla Optisen alueen malli lumen peittämän alueen määrittämiseksi: SCA Lumen peittämä alue pikselistä (SCA) Mitattu reflektanssi Forest Metsän reflektanssi Snow Lumen reflektanssi Ground Maanpinnan reflektanssi t Metsän transmissiivisyys (läpäisy)

Semi-empiirinen mallintaminen TKK/AVA:n semi-empiirinen metsän takaisinsironnan malli: 0(V,) mitattu takaisinsironta 0CAN takaisinsironta puustosta 0FLOOR latvuston vaimentama takaisinsironta maanpinnasta V puuston tilavuus  mittauskulma Mallin parametrit: a kasvillisuuden kosteus b maanpinnan sirontakerroin

Digitaalinen tulkinta: luokittelu Sama tavoite kuin visuaalisessa tulkinnassa: luokitellaan pikselit eri luokkiin Tehdään numeerisesti Eri kanavien arvoihin perustuen Ohjelmilla / algoritmeilla

Luokittelu Hyödynnetään kuvan eri kanavilla olevaa spektristä tietoa => spektristä hahmotunnistusta Luokat: 1. lopulliset maankäyttöluokat 2. spektrisesti yhtenäiset alueet kuvalla yhtenäiset alueet: eri kanavilla kirkkausarvot samankaltaisia

Luokitteluprosessi 1. Mittaus: satelliitin keilain muodostaa käsiteltävät hahmot, kuvapikselit 2. Esikäsittely: eliminoidaan virheet radiometrinen ja geometrinen korjaus 3. Piirteiden valinta ja irrotus: valitaan osajoukko koko datasta, jossa on suurin informaatio (kanavasuhde, erotuskuvat pääkomponenttimuunnos)

Luokitteluprosessi 4. Esitysmuoto: 5. Tunnistus: vektori (yksi pikseli kaikilla kanavilla/piirteillä) Pikseli: hahmovektori 5. Tunnistus: hahmot jaotellaan tunnettuihin tai tuntemattomiin luokkiin määritetään luokkien samankaltaisuutta määritetään luokittelun luotettavuus!!!

Informaatioluokka - lopullinen maankäyttöluokka Luokittelun lopullinen tavoite Jos ei ole kyse maankäyttö-luokituksesta, voidaan puhua laajemmin informaatioluokista Esim. eri puutyypit, pellot, kivilajit, hakkuualueet, muuttuneet alueet, saastuneet alueet, lajien levinneisyyskartat

Spektraaliset luokat Yhtenäiset (tai lähes) pikseliryhmät Yhtenäisiä myös eri kanavilla => samankaltainen spektri !: muoto kirkkausarvot

Luokittelu Yhdistetään spektraaliset luokat haluttuihin informaatioluokkiin. Harvoin kuitenkaan spektraalinen luokka suoraan vastaa haluttua lopullista luokkaa Vaikeaa koska: Kuvalta löytyy spektrisesti yhtenäisiä alueita, jotka eivät muodosta mitään haluttua lopullista luokkaa Lopullinen luokka voi koostua useista spektraalisista osaluokista.

Luokittelu 1. ohjattu (supervised) 2. ohjaamaton (unsupervised)

Ohjattu luokittelu Pohjaa kuvalta poimittaviin / osoitettaviin homogeenisiin edustaviin näytteisiin kustakin luokasta = opetusalue

Luokittelijan opetus Kerrotaan luokittelijalle millaisia eri luokkien spektraaliset ominaisuudet ovat Eli millaisia luokkien tyypilliset hahmovektorit ovat sekä näiden hajonta

Opetusalue Etsitään luokkia vastaavat alueet kuvalta ja nimetään ne kunkin luokan opetusalueiksi Hyvän opetusalueen valinta riippuu siitä kuinka paljon alueesta on muuta tietoa: aiempi luokittelumateriaali ja kartat ym. muut tiedot (peruskartta) maastokäynnit / inventoinnit eli kuinka tuttu alue on

Opetusalueet

Opetusalueiden keskiarvot kanavittain

Piirteiden valinta ja irrotus: Valitaan käytettävät kanavat / piirteet (turha tieto pois!) Suhdekuvat, pääkomponentit, erotuskuvat Data, josta tulevat luokat erottuvat parhaiten toisistaan Mitä vähemmän dataa sen parempi! Kuvan eri kanavien lisäksi hahmovektori voi siis käsittää muitakin piirteitä, kuten vaikka lasketun NDVI:n yhtenä kanavana

Ohjattu luokittelu Opetusalueilla ohjataan luokitusta oikeaan suuntaan kohti haluttuja luokkia Muita alueita ”verrataan” (kaikilla kanavilla) opetusalueisiin ja luokitellaan ne spektraalisesti lähimpiin luokkiin

Ohjattu luokittelu 1. Ensin siis valitaan halutut informaatioluokat esim. metsä, pelto, tie, vedet 2. Sitten määritellään spektraaliset alueet, jotka vastaavat näitä lopullisia luokkia 3. Muut pikselit luokitellaan näiden mukaan luokkiin TAI liian epävarmat luokitukset hylätään

Tulosten analysointi Minimoidaan luokitteluvirhe -> virheen estimointi on oleellinen osa luokittelua Määritettävä estimaatin luotettavuus Virhe estimoidaan luokittelemalla 1. tulkinta-alue, eli poimitut ja nimetyt alueet tulkinta-alueen luokitteluvirhettä ei kuitenkaan voi yleistää koskemaan koko kuvaa 2. testialue, joka on eri kuin opetusalueet

Koko kuvan tarkkuus - Testialueet Testataan luokittelua testialueilla Eri alueita kuin alkuperäiset opetusalueet Testialueidenkin oltava täydellisiä ja edustavia (kaikki luokat ja kaikki luokan eri tyypit mukana) suurempia kuin opetusalueet

Virhematriisi Tarkkuutta arvioidaan virhematriisin avulla Diagonaalilla oikein luokittuneet Muut ovat virheluokituksia Riveillä: mihin luokitellaan Sarakkeilla: mikä luokan pitäisi olla testialueiden mukaan eli ”oikea luokka”

Virhematriisi testialueen oikeat luokat testialueen luokituksen tulokset

Luokituksen keskimääräinen tarkkuus Diagonaalialkioiden summa jaettuna kaikkien lukumäärällä Miten luokat keskimäärin luokittuneet Keskiarvo kaikkein pikselien luokittelutarkkuudesta

Tuottajan tarkkuus / tulkintatarkkuus Sarakkeiden oikein luokiteltujen määrä jaettuna luokan kokonaismäärällä (sarakesumma) Kertoo siitä, miten hyvin luokan testipikselit ovat luokittuneet

Käyttäjän tarkkuus kohdetarkkuus Rivillä oikein luokittuneiden määrä jaettuna luokkaan luokiteltujen määrällä (rivisumma) Paljonko on luokiteltu luokkaan I myös muiden luokkien pikseleitä Kertoo todennäköisyyden, että luokkaan I luokiteltu pikseli todella kuuluu kyseiseen luokkaan

KHAT-arvo eli Kappakerroin Luokitustuloksen ero satunnaiseen luokitteluun (keskim tarkkuus-kerroin)/(1-kerroin) kerroin = rivi- ja sarakesummien tulo Esim. KHAT= 0.70: luokittelu 70% satunnaista parempi

Maastoaineisto Maastohavainnot eli käynti alueella, esim. kuvioittainen metsäninventointi Aiemmat kartat huomioitava tekovuosi, onko alue muuttunut!! Mikä tahansa tieto alueelta auttaa Tärkeää olla jotain validointiaineistoa jolla arvioida tarkkuutta

”Laatikkoluokittelija” Määritetään kunkin luokan minimi- ja maksimiarvot kullakin kanavalla (laatikot) Luokitellaan kuvapikseli siihen luokka, jonka laatikon alueelle se osuu Jos osuu laatikoiden (min-max-välin) ulkopuolelle, hylätään Yksinkertainen ja nopea Ongelma: luokkien min ja max arvot leikkaavat yleensä usealla kanavalla

Muita ohjattuja luokittelumenetelmiä Bayesin päätössääntö todennäköisyysteoreettinen menetelmä, etsitään sitä luokkaa joka parhaiten vastaa havaintoja Lähimmän naapurin päätössääntö perustuu hahmevektoreiden välisiin etäisyyksiin, useita eri versioita periaatteena että lähekkäin olevat hahmovektorit kuuluvat samaan luokkaan Diskriminanttifunktiot määritetään luokkien rajat

Bayesin päätössääntö Haetaan todennäköisintä luokkaa kullekin datajoukon pikselille Määritetään kullekin pikselille x todennäköisyys, että se kuuluu luokkaan wj Luokkia j: 1 , … , n Määritellään todennäköisyys luokalle wj (a posteriori todennäköisyys) että pikseli x kuuluu ko luokkaan: P( wj|x)

Bayesin päätössääntö P(wj|x) = luokan a posteriori todennäköisyys p(x) = x:n yhteistiheysfunktio =  p(x|wj) * pi luokitellaan x luokkaan, jolle P(wj|x) on kaikkein suurin!

a posteriori todennäköisyyden laskentaan tarvitaan: p(x|wj): luokan j todennäköisyys tietyn tyyppiselle pikselille x luokan j tiheysfunktio hahmovektorille x ilmaiseen hahmovektorin x ja luokan j opetusjoukon välisen etäisyyden kuinka paljon x kuuluu luokkaan j Pj: luokan j etukäteistodennäköisyys kuinka suuri osa kaikista pikseleistä kuuluu luokkaan j

Bayesin päätössääntö Yksinkertaisimmassa tapauksessa x luokitellaan siihen luokkaan jolla on suurin a posteriori todennäköisyys Jos virheluokittelusta on suuret vahingot, hylätään mieluummin kuin luokitellaan väärin! Hylkäyskynnys: lr Luokitellaan luokkaan j : w(x)=wj jos P(wj|x) = max P(wi|x) > 1-lr Hylätään: w(x)=w0 jos P(wj|x) = max P(wi|x) <= 1-lr

Päätöksen kustannus joka päätökseen liitetään kustannus, joka kuvaa päätöksen riskiä: eli miten suuri moka tehdään jos luokitellaan luokkaan i kun oikea luokka on j

Bayesin päätössääntö Yleisimässä tapauksessa mukaan otetaan kustannusfunktio Kustannus sille että luokitellaan luokkaan i kun oikea luokka on j Tehdään sellaisen päätökset, että keskimääräinen kustannus on mahdollisimman pieni

Suurimman uskottavuuden luokittelija (maximum likelihood classifier) MLC Bayesin päätössääntö + parametrinen tiheysfunktio Parametrit estimoidaan opetusjoukon avulla Yleensä luokat oletetaan normaalijakautuneiksi, määritettävä luokille keskiarvovektorit ja kovarianssimatriisit Bayesin kaavassa käytetään luokan tiheysfunktion kaavana normaalijakauman tiheysfunktion kaavaa

Kanavan1 arvot Kanavan2 arvot a a a a a a a d d d d d d b c x ellipsin säde x = luokan keskiarvo

Mahalanobis-etäisyys MLC voidaan toteuttaa myös näin: Gi(x)= -1/2(x-ui)TCi-1(x-ui) -(d/2)log(2p)-1/2log(|Ci|)+log(Pi) x=luokiteltavan pikselin arvo eri kanavilla ui=keskiarvovektori, määrittelee ellipsoidin sijainnin Ci=kovarianssi-matriisi, määrittelee hyperellipsoidin muodon ja orientoinnin Pi=a'priori todennäköisyys Pi=Bi/SBi Bi=bias, eli harha, etäisyys odotusarvosta Ti= luokan i kynnys

Kynnys Kynnysarvon avulla määritetään, kuuluuko pikseli luokkaan vaiko ei Kynnys määritetään keskihajonnan avulla hyperellipsi kyseisen luokkakeskiarvon ympärillä kuvan piirreavaruudessa. Jos pikseli on ellipsin sisäpuolella, ts. kynnysarvoa lähempänä, luokitellaan kuuluvaksi ko luokkaan. Pikselit, jotka eivät ole minkään luokan hyperellipsin sisäpuolella, hylätään.

Erikoistapaus Minimietäisyysluokittelija Hahmovektori luokitellaan samaan luokkaan lähimmän luokkakeskiarvon mukaan silloin kuin kaikkien luokkien todennäköisyydet oletetaan yhtä suuriksi (kovarianssimatriisi on yksikkömatriisi) palaa lähimpään luokkakeskiarvoon

Lähimmän naapurin päätössääntö Periaate: toisiaan lähellä olevat hahmovektorit kuuluvat samaan luokkaan Luokiteltavasta pikselistä eli hahmovektorista lasketaan etäisyydet kaikkiin opetusjoukon vektoreihin

lähimmän naapurin päätössääntö Etäisyydet järjestetään pienimmästä suurimpaan 1-lähimmän naapurin päätössääntö: otetaan spektrisesti lähin suunnittelujoukon vektori luokiteltava vektori Kanavan x arvot Kanavan y arvot

k-, k,l- ja k,li-lähimmän naapurin päätössääntö Haetaan k kpl lähimpiä suunnittelujoukon vektoreita Luokitellaan siihen luokkaan, jota sattuu eniten l: huonojen luokitusten hylkäämisen k kappaletta lähimpiä naapureita l on hylkäyskynnys ( l>k/2) k=5, l=2.5 eli pitää olla 3 samaa luokkaa ennen kuin hyväksytään Estää karkeat luokitteluvirheet Hylkäyskynnys l kaikille sama tai li kullekin luokalle oma

Parametrien k ja l valinta k eli naapurien lukumäärä l eli hylkäyskynnys Valitaan kokeilemalla - > paljon laskentaa! Yhtä hahmovektoria luokiteltaessa lasketaan spektriset etäisyydet kaikkiin suunnittelujoukon vektoreihin

Laskennan määrää voidaan pienentää Tiivistämällä dataa: poistetaan turhia vektoreita suunnittelujoukosta turha = ei vaikuta luokitukseen Relaatioiden avulla: luokitellaan joillakin alkuarvoilla k ja l määritetään hylättyjen hahmovektoreiden määrä väärinluokiteltujen hahmovektoreiden määrä suhteutetaan hylättyjen ja väärinluokiteltujen määrä muihin k ja l:n arvoihin

Diskriminanttifunktiot Luokkien päätösalueiden sijasta määritetään alueiden välisiä päätösrajoja Oletetaan, että tunnetaan rajojen funktionaalinen muoto esim. suora Ei tehdä oletuksia datan jakaumasta Opetusvaihe: määritetään päätösrajojen parametrit opetusjoukon avulla Luokitteluvaihe: mille puolelle rajaa luokiteltava hahmovektori osuu

Lineaariset diskriminanttifunktiot g(x)=w1x1 + w2x2 + …+wn-1xn-1 + wnxn + wn+1 =WTx Päätösraja on (hyper)taso n-ulotteisessa avaruudessa w=painovektori, joka määrittää tason orientoinnin wn+1 = kynnyspaino, etäisyys origosta Kullekin luokalle i oma gi(x)

Ohjaamaton luokitttelu Ensin ryhmitellään spektraalisesti samankaltaiset alueet datalta Pohjataan vain kuvalta saataviin numeroarvoihin Tunnistetaan jälkikäteen luokiksi

Ohjaamaton luokittelu Ei käytetä opetusalueita eikä etukäteistietoa Määritellään luontaisesti erottuvat (tilastolliset) ryhmät datasta Ryhmiä kutsutaan klustereiksi Ryhmien lukumäärä annetaan tai algoritmi määrittää Muita mahdollisia parametreja: luokkien tilastollinen erottuvuus ts. kuinka kaukana/lähellä eri luokat saavat olla toisistaan luokan sisäinen spektrien vaihtelu (sisäinen hajonta)

Ohjaamaton luokittelu Ryhmän eli klusterin muodostavat joukko hahmovektoreita, jotka keskenään ovat riittävän samanlaisia Eri ryhmiin kuuluvat ovat riittävän erilaisia Etäisyys samaan ryhmään kuuluviin on pienempi kuin muihin Kriteerinä: minimoidaan ryhmien sisäistä hajontaa maksimoidaan ryhmien keskiarvovektorien välisiä etäisyyksiä

Samanlaisuusmitat Euklidinen etäisyys Mahalanobis etäisyys x hahmovektori, m ryhmän keskiarvo Mahalanobis etäisyys A kovarianssi-matriisi, huomioidaan myös keskihajonta Hahmovektorien välinen kulma

Klusterointimenetelmät eli Ryhmittelymenetelmät Yleisimmät parametriset menetelmät: k-means ISODATA perustuvat jälleen keskiarvovektoreihin ja hajontoihin

K-means Aluksi valitaan satunnaiset ryhmäkeskiarvot, esim 5 kappaletta. Luokitellaan muut pikselit lähimpien ryhmäkeski-arvojen mukaan Lasketaan uudet ryhmäkeskiarvot ryhmitellystä datasta Ryhmitellään data uudestaan uusien ryhmäkeskiarvojen mukaan. Iteroidaan, kunnes keskiarvot tai ryhmittelytulos ei muutu

ISODATA Modifioitu k-means-menetelmä Ryhmiä voidaan iteroinnin kuluessa jakaa kahteen eri ryhmään tai yhdistellä läheisiä ryhmiä Ryhmiä jaetaan, kun ryhmien lukumäärä kaukana halutusta, ryhmän sisäinen hajonta suuri, ryhmän koko liian suuri Ryhmiä yhdistellään kun, ryhmien lukumäärä kaukana halutusta, jokin ryhmä liian pieni, kaksi ryhmää lähellä toisiaan

Ohjaamaton luokittelu - etuja Koska spektriset erottuvuudet määrittävät luokat, saatetaan löytää sellaisia luokkia, joita alun perin ei osattu ajatella olevan olemassa Esim. kasvillisuustyyppien lisäksi myös kasvien terveys Opetus on myös usein mahdoton homma silloin kun luokkia on paljon

Luokkien erottuvuuden validointi Ohjelmissa usein signature-editori jonka avulla voi laskea: luokkien yhtenäisyyttä luokkien välistä erottuvuutta Kannattaa tarkastella luokkien histogrammeja Jos ryhmän histogrammissa on jollain kanavalla useampi huippu se kannattaa jakaa useampaan ryhmään

Validoinnin jälkeen Tunnistetaan muodostetut ryhmät Vastaavatko ne jotakin informaatioluokkaa, eli erottuivatko metsät pelloista ja vesistä Mikäli osa ryhmistä koostuu useammasta informaatioluokasta - poista kuvalta tulkitut ryhmät - ryhmittele loput uudelleen

Hybridi luokittelija Määritetään ensin klusteroimalla spektrisesti hyvin erottuvat alueet osakuvalta. Käytetään sitten näitä alueita varsinaisen luokittelun opetusalueena. Saadaan hyvät ja spektrisesti erottuvat opetusalueet Hyvä erityisesti silloin, kun yksittäisiin luokkiin sisältyy useita spektrisesti yhtenäisiä osaluokkia, mutta varsinainen kokonainen luokka on spektrisesti hajanainen.

SPOT-kuvan ryhmittely Valkea ja ruskea vastaavat paljasta maata ja ihmisen tekemiä kohteita, pelto keltaista, tumman vihreä puustoa, vaalean vihreä muuta kasvillisuutta ja sininen vettä.