Älykkäät järjestelmät

Slides:



Advertisements
Samankaltaiset esitykset
Komponenttien rakenteellinen tärkeys
Advertisements

Laatu ja ympäristöjärjestelmät
Ohjelmiston tekninen suunnittelu
Olio-ohjelmoinnin perusteet luento 3: Muuttujista ja funktioista Sami Jantunen LTY/Tietotekniikan osasto.
JavaScript (c) Irja & Reino Aarinen, 2007
Estimointi Laajennettu Kalman-suodin
Luotettavuus todennäköisyyskäsitteenä; vikaantumismallit
Hypoteesin testeistä Testin valinta perustuu aina tutkimusongelmaan ja kuvailuun (joka perustuu mitta-asteikoihin) Testaus ei koskaan ole itsenäinen, vaan.
KANTATAAJUINEN BINÄÄRINEN SIIRTOJÄRJESTELMÄ AWGN-KANAVASSA
Laskuharjoitus 9 AS Automaation signaalinkäsittelymenetelmät Sumea säätö Geneettiset algoritmit.
AS Automaation signaalinkäsittelymenetelmät
AS Automaation signaalinkäsittelymenetelmät
@ Leena Lahtinen OHJELMAN OSITTAMINEN LUOKKA ATTRIBUUTIT METODIT.
OHJELMOINTITAITO ICT02D 12 ECTS. OPINTOJAKSON TOTEUTUS  KESTO: –  PÄIVÄOPISKELIJAT: – KAKSI LUOKAA (SUOMI) –YKSI LUOKKA (ENGLANTI)
(Joskus puhutaan myös komponenttitestauksesta.) Pienin kokonaisuus, joka on järkevä testata erikseen. ● Perinteisesti yksittäinen aliohjelma. ● Olio-ohjelmien.
Mittaustekniikka (3 op)
1.1. Itseisarvo * luvun etäisyys nollasta E.2. Poista itseisarvot
Syksy 2001Johdatus bioinformatiikkaan / T. Pasanen 1 7. Monirinnastus Geeni perhe: ryhmä läheisiä toisilleen sukua olevia geenejä, jotka koodaavat samankaltaisia.
Tiedon esittäminen.
2. Vuokaaviot.
Tiedonhakumenetelmät Helena Ahonen-Myka Kevät 2004, osa 9 Merkkijonohahmon etsintä selaamalla.
Virhelähteet yksittäisten puiden latvusten ilmakuvamittauksessa Antti Mäkinen Maatalous-metsätieteellinen tiedekunta / Metsävarojen käytön laitos.
Kalakantojen arviointi (KALAT22)
Elliptiset jakaumat Esitys 6 kpl Tuomas Nikoskinen Työn saa tallentaa ja julkistaa Aalto-yliopiston avoimilla verkkosivuilla. Muilta.
Kuusela: Tietoaika Lähde: Kuusela 2000: 57.
C 1. Testaus on ”sarja toimintoja” Itse asiassa, testaus on vuorovaikutusta, jota rytmittää ohjelmiston arviointi. Vaikka on hyödyllistä tunnistaa sarja.
@ Leena Lahtinen OHJELMAN OSITTAMINEN LUOKKA ATTRIBUUTIT METODIT.
© Conformiq Software Ltd. | The Future of Software Testing Kuormitustestaus.
tilastollinen todennäköisyys
Toistorakenne Toistorakennetta käytetään ohjelmissa sellaisissa tilanteissa, joissa jotain tiettyä ohjelmassa tapahtuvaa toimenpidekokonaisuutta halutaan.
OHJELMOINTITAITO ICT02D 12 ECTS. OPINTOJAKSON TOTEUTUS  KESTO: –  AVOIMEN OPISKELIJAT: – YKSI LUOKA (SUOMI) – LUOKKA ICT02O-1.
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä 9 – Henri Hytönen Optimointiopin seminaari - Kevät 2007 Kaoottiset attraktorit
6. Relaatioalgebra ja relaatiokalkyyli
@ Leena Lahtinen Toistorakenne Ohjelmassa toistetaan tiettyjä toimenpiteitä monta kertaa peräkkäin Toisto noudattaa sille kuuluvia tarkkoja standardoituja.
Muuttujien riippuvuus
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä # - Esitelmöijän nimi Optimointiopin seminaari - Syksy 2010 Lineaarinen.
1 Ohjelmointikielten varhaishistoria Esa-Matti Miettinen
5. Lineaarinen optimointi
Rinnakkaisuus Järjestelmässä, jossa voi olla useita prosesseja rinnakkain suorituksessa voi tulla tilanteita, joissa prosessien suoritusta täytyy kontrolloida.
Bayesilainen tilastoanalyysi - priorijakaumista
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä 9 - Jaakko Niemi Optimointiopin seminaari - Syksy 2005 / 1 Virittäminen (Tuning) s
Kotitehtävän 21 ratkaisu Ensimmäisen havaintoaineiston luokittelu – Ryhmäkeskiarvot hakeutuvat niin, että ryhmään kuuluvat pisteet ovat mahdollisimman.
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä 17 – Tuomas Nummelin Optimointiopin seminaari - Syksy 2010 Tukivektorikoneet.
Menetelmä Markowitzin mallin parametrien estimointiin (aihe-esittely)
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä 2 - Jirka Poropudas Optimointiopin seminaari - Kevät 2005 / 1 Bayes-verkoista s
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Esitelmä 11 – Tuomas Nummelin Optimointiopin seminaari - Syksy 2010 Lokaalit uskottavuusmenetelmät.
S ysteemianalyysin Laboratorio Aalto-yliopiston teknillinen korkeakoulu Ohjaamaton oppiminen– Heikki Vesterinen Optimointiopin seminaari - Syksy 2010 Ohjaamaton.
Toistorakenne Toistorakennetta käytetään ohjelmissa sellaisissa tilanteissa, joissa jotain tiettyä ohjelmassa tapahtuvaa toimenpidekokonaisuutta halutaan.
Refaktorointi ”Te olette tehneet tätä ennenkin”. Mitä on refaktorointi? (1/2) prosessi ohjelmakoodin laadun parantamiseksi ohjelman sisäisen rakenteen.
1 © Jukka Juslin Luokat, attribuutit ja metodit Yleistietoa: seuraavalla koulutusviikolla tarkempi käsittely.
1 Sensor Tasking and Control Jari Hassinen Riikka Asikainen
Tilastollinen testaus Mann-Whitneyn –testiä voidaan käyttää hyvin pienille n 2 ≤ 8 keskikokoisille 9 ≤ n 2 ≤ 20 suurille n 2 ≥ 20 otoksille –voidaan käyttää.
S ysteemianalyysin Laboratorio Teknillinen korkeakoulu Esitelmä # - Esitelmöijän nimi Optimointiopin seminaari - Syksy 2000 / 1 Potentiaalien kertaus ja.
2/2001 Tietojärjestelmät ja Systeemisuunnittelu Luennoitsija: Tapio Lammi
Sosiaalinen pääoma sosiaaliset verkostot, luottamus, vuorovaikutus
5. Datan käsittely – lyhyt katsaus Havaitsevan tähtitieteen peruskurssi I, luento Thomas Hackman.
Toistorakenne Toistorakennetta käytetään ohjelmissa sellaisissa tilanteissa, joissa jotain tiettyä ohjelmassa tapahtuvaa toimenpidekokonaisuutta halutaan.
UNIVERSITY OF TURKU LOGISTINEN REGRESSIOANALYYSI.
Pasi Tuominen MARC21 -tietuejoukkojen deduplikointi.
Määrällinen tutkimus.
Toistorakenne Toistorakennetta käytetään ohjelmissa sellaisissa tilanteissa, joissa jotain tiettyä ohjelmassa tapahtuvaa toimenpidekokonaisuutta halutaan.
Syventävä matematiikka 2. kurssi
VARIANSSIANALYYSI.
Monimuuttinimuuttuja-analyyseista
Kritiikin alkulähteillä
Tilastollinen koneoppiminen -lyhyt oppimäärä-
KANTATAAJUINEN BINÄÄRINEN SIIRTOJÄRJESTELMÄ AWGN-KANAVASSA
OHJELMOINTITAITO ICT02D 12 ECTS.
OHJELMOINTITAITO ICT02D 12 ECTS.
Matematiikan oppimisvaikeudet
Esityksen transkriptio:

Älykkäät järjestelmät Tapio Grönfors Seppo Lammi Erkki Pesonen kevät 2003

Hahmontunnistus Mitä se on ? Hahmontunnistus voidaan laajasti määritellä seuraavasti: Se on joukko menetelmiä, joilla luonnollisista kohteista kuten kuvista, puheesta tms. tunnistetaan joitakin mielekkäitä (olio)luokkia. (E. Oja: 'Neuraalilaskennan perusteet', 1996.) engl. Pattern recognition; ruots. Mönsterigenkänning;

Hahmontunnistus perustuu hahmojen samanlaisuuteen Peruskysymys: "Milloin hahmo x muistuttaa riittävästi hahmoa y, jotta ne kuuluvat samaan luokkaan?” Hahmontunnistus on fyysisistä prosesseista tai kohteista tehtyjen mittausten kuvaus ja analysointi. Tavoitteena on käsitellä reaalimaailman havaintoja tietokoneella. hahmo = todellisten kohteitten ideaalinen malli

Ihmisen vahvuudet hahmontunnistajana Pitkä ajanjakso havaintojen analysointiin Kyky havaita olennaiset asiat Tehokas tietojenkäsittelylaitteisto Eläimetkin tekevät hahmontunnistusta erittäin tehokkaasti, joten mitään korkeampaa älyä tämä toiminta ei vaadi?

Hahmontunnistuksen sovellusaloja … Dokumenttien käsittely, esimerkkinä optinen merkkienluku (OCR). Teollisuus- ja prosessiautomaatio, esimerkkeinä painettujen piirien automatisoitu visuaalinen laadunvarmistus, paperin laadunvarmistus. Lääketieteellinen kuva-ja signaalianalyysi, esimerkkeinä verisolujen automatisoitu luokittelu mikroskooppikuvien perusteella, automaattinen verenpaineen mittaus. Puheen- ja puhujantunnistus, esimerkkeinä koneiden ohjaus puhekomentojen avulla, käyttäjän identifiointi ja valvonta. Kaukokartoitus, robotiikka ja avaruustekniikka, esimerkkinä maaston luokittelu metsä-tyyppeihin sateliittikuvien perusteella. …

Hahmontunnistusprosessin vaiheita 1: mittaukset ja esikäsittely Aisteina anturit, esimerkiksi termopari, ultraäänikide, kamera tai mikroaaltokeilain Anturit kerää raakadatan fyysisestä maailmasta Esikäsittely pyrkii eliminoimaan häiriöt (kuvausvirheet, kohinan) ja kaventamaan informaatiokaistan olennaiseen

Hahmontunnistusprosessin vaiheita 2: piirteiden valinta ja erotus Käytössä oleva tietomäärä on suuri, halutaan poistaa tunnistusprosessin kannalta tarpeeton! Piirteiden valinta: kaikista piirteistä (esim. satelliittikuvan kanavista) valitaan sellainen osajoukko joka riittää tehtävän ratkaisemiseen Muunnoksen avulla voidaan tietomäärän kokoa supistaa; hahmon sisältämä informaatiomäärä on pystyttävä tiivistämään mahdollisimman tehokkaasti olennaiseen Ihmisen suorittama hahmontunnistus perustuu muutamiin tärkeimpiin ominaisuuksiin  pyritään samaan

Hahmontunnistusprosessin vaiheita 3: Piirteiden esitysmuodon valinta Tarvitaan tietorakenne piirteiden tallettamiseksi: Vektori (signaali), piirrevektorit Matriisi (digitaalinen kuva) Monimutkaisempia puu- ja verkkorakenteet Yksittäinen piirre voidaan ajatella numeeriseksi suureeksi

Hahmontunnistuksen vaiheita 4: varsinainen tunnistus Hahmot jaotellaan joko tunnettuihin (ohjattu luokittelu) tai tuntemattomiin luokkiin (ohjaamaton luokittelu) Mitataan jollain menetelmällä hahmojen saman- tai erikaltaisuuksia Oleellista on myös määrittää tunnistuksen luotettavuus!

Hahmontunnistuksen lähestymistapoja Laaja joukko erilaisia menetelmiä, joista tärkeimpiä: Tilastollinen eli päätösteoreettinen hahmontunnistus Rakenteellinen eli syntaktinen hahmontunnistus Tietämyspohjainen hahmontunnistus Käytönnön sovelluksissa käytetään eri menetelmien yhdistelmiä (mm. syntaksiohjattu tilastollinen hahmontunnistus, sumea tilastollinen hahmontunnistus). Engl.: The classification model

Tilastollisen ja rakenteellisen hahmontunnistuksen eroja Tilastollinen havainnot numeerisia, tyyppillisesti vektorimuotoisia esityksiä luokittelu perustuu (lineaariseen) tilastolliseen päätösteoriaan neuroverkot ’laajentaa’ tilastollista hahmontunnistusta epälineaarisella päätösteorialla Rakenteellinen havainnot symbolisia esityksiä, joilla vektoria yleisempi rakenne, kuten graafi luokittelu perustuu rakenteen selvittämiseen esimerkiksi kieliopillisella jäsentämisellä voidaan kuvata symbolien suhdetta toisiinsa

Luokittelu Hahmo liitetään siitä tehtyjen havaintojen (mittausten, syötteiden, inputs) perusteella johonkin ennaltamäärättyyn luokkaan. Luokka on diskreetti satunnaismuuttuja. Esim. Käsikirjoitettujen numerojen liittäminen niitä vastaviin luokkiin 0,1,…,9 ja NaN. Käytönnöllinen ongelma esimerkiksi ääntenlaskennassa vaalilipuista: periaatteessa ääretön määrä hahmoja luokiteltava vain äärelliseen, yleensä pieneen määrään eri luokkia. (Sallittu) vaihtelun suuruus samaan luokkaan kuuluvien hahmojen välillä vs. eroavaisuudet eri luokkiin kuuluvien hahmojen välillä! engl. Classification; classification -- assigning an input to a category

Hahmontunnistuksen luotettavuudesta Mikä on ’kustannus’ jos viallinen tuote luokitellaan ehjäksi vs. ehjä tuote luokitellaan vialliseksi, lääketieteellinen diagnostiikka, yms. todellinen luokka todellinen luokka ennustettu luokka ennustettu luokka Kumpi luokittimista parempi: Vasen luokitin tuottaa 291 oikeaa luokitusta ehjälle tuotteelle ehjäksi ja vain 7 viallista tuotetta se luokittelee ehjäksi, vastaavasti se luokittelee 384 ehjää tuotetta vialliseksi (väärin siis) ja asianmukaisesti 318 viallista tuotetta vialliseksi. Luokitin luokittelee siis paljon ehjiä tuotteita viallisiksi, joka on esimerkiksi teollisessa tuotannossa yleensä kallista mutta sairausdiagnostiikassa ei välttämättä huono juttu.Oikeanpuoleisessa luokittimessa virheiden kokonaismäärä näyttää pienemmeltä, mutta todellisten positiivisten tapausten luokitus ei enää onnistu yhtä hyvin. true positive (TP):tuote ehjä ja hahmontunnistus luokittelee sen ehjäksi true negative (TN):tuote viallinen ja hahmontunnistus luokittelee sen vialliseksi false positive (FP):tuote viallinen, mutta hahmontunnistus luokittelee sen ehjäksi false negative (FN):tuote ehjä, mutta hahmontunnistus luokittelee sen vialliseksi

Hahmontunnistuksen herkkyys ja tarkkuus Luokittimen herkkyys (sensitivity): oikeiden positiivisten tulosten suhteellinen osuus kaikista oikeasti positiivisista tapauksista true positive rate Esim. 291 / (291 + 384), 581 / (582 + 122) Luokittimen tarkkuus (specificity): oikeiden negatiivisten tulosten suhteellinen osuus kaikista negatiivisista tapauksista true negative rate Esim. 318 / (318 + 7), 203 / (203 + 94)

Lisää herkkyydestä ja tarkkuudesta Kaikki arvot suhdelukuja [0,1] Väärien positiivisten osuus: false positive rate (väärien positiivisten osuus) = 1 – tarkkuus (oikeiden positiivisten osuus)+(väärien negatiivisten osuus) = 1 (oikeiden negatiivisten osuus)+(väärien positiivisten osuus) = 1

Toimintaominaiskäyrä (ROC-käyrä) receiver operating characteristic curve Oletetaan että olemassa parametri t, joka vaikuttaa luokittimen herkkyyteen ja tarkkuuteen  tutkimalla luokittimen luokittelukykyä eri parametrin arvoilla voidaan piirtää kaksiulotteinen graafinen kuvaaja true positive rate ja false positive rate arvojen käyttäytymisestä

ROC-käyrä Hyödytön luokitin: ROC-käyrä kulkee diagonaalisuorana pisteiden (0,0) ja (1,1) välillä Ideaaliluokitin: ROC-käyrä kulkee pisteestä (0,0) pystysuorasti pisteeseen (0,1) ja sitten vaakasuorasti pisteeseen (1,1)

Luokittimen laadusta ideaali parempi huonompi lantinheitto

Piirteet Hahmoon voi liittyä periaatteessa hyvin suuri määrä havaittavia tai mitattavia ominaisuuksia, joita voidaan käyttää syötteinä luokittelussa. Kaikki eivät kuitenkaan vaikuta luokitteluun. Hahmon luokitteluun valittuja syötteitä kutsutaan piirteiksi. engl. Features

Piirreirroitus engl. Feature extraction Piirreirroitus (tai piirre-erotus) on kaikille hahmontunnistustehtäville yhteinen vaihe, jossa määritetään hahmoja karakterisoivat ominaisuudet (l. piirteet), joita käytetään luokitteluun. Piirteiden valintaan ja irroitukseen kiinnitetään vähemmän huomiota kuin hahmontunnistuksen muihin menetelmiin. engl. Feature extraction

Hahmontunnistus on mallinnusprosessi Reaalimaailmasta luodaan hahmon muodossa (yksinkertaistettu, approksimoiva) malli, joka on vuorovaikutuksessa siihen piirteidensä (inputs) ja luokituksen (outputs) välityksellä. Mallin ydin on piirteet ja luokat liittävä luokittelija.

Piirrevektori ja piirreavaruus Luokittelussa tarvittavien – mahdollisesti erityyppisten – piirteiden yhdistelmää kutsutaan piirrevektoriksi. Kukin d-ulotteinen piirrevektori on tällöin piste d-ulotteidessa piirreavaruudessa . Piirrevektori on d-ulotteinen satunnaisvektori, jolla oletetaan olevan jatkuva jakauma (ellei toisin mainita) engl. Feature vectors; engl. Feature space

Piirteiden ongelmat Piirteiden tulisi olla sellaiset, joiden hajonta samalla hahmolla olisi mahdollisimman pieni, mutta joiden poikkeama eri hahmojen piirteistä mahdollisimman suuri. Ongelmanasettelut: ”How to avoid high sensitivity of irrelevant features?”,”How do we determine how good a subset of features are?”,”How do we search for the best set of features?” Piirteiden on sisällettävä informaatiota, joka poistaa epävarmuutta!

Luokista ja hahmoista Todennäköisyydet Luokan c prioritodennäköisyys (prior probability) Luokan c posterioritodennäköisyys (posterior probbability) piirrevektorin arvolla d Piirrä kuva!

Entropia ja informaatio Entropia kuvaa sekä epävarmuuden määrää että informaation määrä: järjestelmän tapausten keskimääräinen informaatio mitattavan suureen epävarmuus Energian kaltainen perussuure (jolla lisäksi läheinen suhde energiaan termodynamiikan kautta) Informaatioteoreettinen entropia eli haje

Diskreetin järjestelmän entropia perustuu tulosvaihtoehtojen esiintymistodennäköisyyksiin pi, N eri tulosvaihtoehtoa,  pi = 1 jos logaritmin kantaluku on 2, yksikkö on bit, jos kantaluku e, yksikkö on nat ja jos kantaluku 10, yksikkö on dit Hyvin epätodennäköisen tapahtuman sisältämä informaatio on suuri

Binaaridatan entropia Entropia saa suurimman arvonsa kun sanomien/tapahtumien/luokkien todennäköisyydet ovat yhtäsuuria.

Entropian muita ominaisuuksia entropia voi saada vain ei-negatiivisia arvoja entropia saa arvon nolla, jos jokin mahdollisista tapauksista on täysin varma muiden ollessa täysin mahdottomia (informaatio puuttuu varmassa tapauksessa) entropia ei lisäänny täysin mahdottoman tapauksen lisäämisestä kaikkien tapauksien joukkoon entropia on jatkuva tapausten järjestysten vaihtaminen ei vaikuta entropiaan (vaihdannaisuus) entropia on suurimmillaan eri tapausten yhtä suurilla todennäköisyyksillä (maksimientropia)

Piirteiden valinta Usein yksittäisen piirteen merkitys on vähäinen. Laskennallisesti suuri joukko heikkoja tai merkityksettömiä piirteitä on tehoton ratkaisu, voi aiheuttaa myös ennakoimattomia luokitusongelmia (kohina, distortio, ...). Exhaustive methods Stepwise selection Feature combination Huom! Yksittäinen piirre voi joskus olla tosin dominoiva! engl. Feature selection

Exhaustive methods Ainoa ehdottomasti varma menetelmä löytää parhaat piirteet, mutta koska brute force, usein laskennallisesti mahdoton! Systemaattisesti läpikäydään kaikki mallin piirteiden osajoukot ja kullekkin osajoukolle: Laaditaan luokittelija Käyttäen erillistä testiaineistoa määritellään sen luokituskyky (virhe) Tallennetaan osajoukko jolla paras luokituskyky (pienin virhe) Ongelmia suuri piirreavaruus d (kombinatorinen räjähdys) ylioppiminen testiaineistolle, yleisyys kuitenkin katoaa

Stepwise selection Laskennallista kuormaa voidaan vähentää valitsemalla piirteitä yksitellen: Eteenpäinvalinta (Forward selection): Valitaan paras piirre ja sen jälkeen valitaan se yksittäinen piirre joka eniten lisää luokituskykyä; toistetaan niin kauan kuin luokituskykyä voidaan parantaa. Taaksepäin eliminointi (Backward elimination): Jäljellä olevasta joukosta poista se piirre joka pienentää luokituskykyä vähiten (tai jonka poistaminen jopa parantaa sitä); toisteaan niin kauan kuin haluttu luokituskyky saadaan. Molemma yllämainitut ovat heuristisia menetelmiä ja eivät voi taata optimaalisuutta!

Luokituksen malli tilastollisessa hahmontunnistuksessa Luokitus koostuu kahdesta peräkkäisestä vaiheesta, jotka on toteutettu itsenäisinä järjestelminä: piirreirrotus ja luokittelu. Kuvaus d-ulotteisesta piirreavaruudesta c-ulotteiseen luokkien joukkoon. engl. The standard classification model

Yksinkertainen luokittelija Luokitin on yksinkertaisesti funktio, joka kertoo arvauksen siitä mistä luokasta piirrevektori on peräisin! Luokittelutehtävä voidaan muotoilla matemaattisesti ja ratkaista matriisi- ja todennäköisyyslaskennan välineillä. Tässä yhteydessä otamme intuitiivisemman katsauksen välineisiin ilman todistuksia. Matemaattinen esitys löytyy mm. http://www.rni.helsinki.fi/opetus/hahmo02/

Tilastollisten luokittimien perustyypit Tilastollisen hahmontunnistuksen luokittimet jaetaan kahteen perustyyppiin: Parametrinen luokittelija, tyypillisin esimerkki on Bayesin luokittelija, joka kuten kaikki parametriset luokittimet, perustuu tilastolliseen malliin, jossa oletetaan tunnetuksi luokkien hahmovektoreiden todelliset todennäköisyysjakaumat. Samoin oletetaan tunnetuksi luokkien esiintymistodennäköisyydet. Ei-parametrinen luokittelija, tyypillisin esimerkki on lähimmän naapurin luokittelija. Siinä ei oleteta tunnetuksi mitään luokkien todellisesta tiheysfunktioista, vaan ainoastaan opetusjoukko, joka sisältää näytteitä kustakin luokasta.

Erotinfunktio ja Bayesin luokitin discriminant function Bayesin luokitin g erotinfunktiolla Dk: arg max on funktio, joka palauttaa sen argumentin k arvon, jolla arg max funktion sisällä oleva k:n funktio saavuttaa maksiminsa arg max palauttaa indeksiltään numeerisesti pienimmän maksimoivista argumenteista (tasapelitilanteessa!) arg min voidaan määritellä vastaavasti minimin avulla

Bayesin luokitin Vaatimuksena on että tunnetaan luokkien posterioritodennäköisyydet piirrearvaruudessa P(c|d) Luokitin arvaa piirrevektorin X olevan peräisin käytettävissä olevan tiedon nojalla todennäköisimmästä luokasta, eli siitä, jonka posterioritodennäköisyys on suurin

Esimerkkiluokitin Luokat w1 ja w2: luokka w1 valitaan piirrevektorin arvoilla alueella r1 ja luokka w2 alueella r2 esim. x = pituus ja w1 = ”nainen”, w2 = ”mies”

Päätösrajat engl. Decision boundaries Hahmon luokittelija jakaa piirreavaruuden päätösalueiksi kutsuttuihin osiin. Kaikki samaan päätösalueeseen kuuluvat piirrevektorit kuuluvat samaan luokkaan. Päätösalueita erottaa päätösrajoiksi kutsutut pinnat. Päätösalueiden muoto voi olla hyvinkin kompleksinen! engl. Decision boundaries

Lineaariset luokittimet Lineaarisen luokittimen päätöspinta oletetaan lineaariseksi (esim. suora), mikä helpottaa luokittimen rakentamista. Lineaarinen luokitinfunktio: missä X on d-ulotteinen piirrevektori, W on d-ulotteinen piirrevektori Lineaarinen luokitin voidaan ajatella verkkona toisistaan riippumattomia luokittimia luokille k = 1,…,c sisätulo kynnysfunktio! Neuroverkot

Fisherin lineaarinen erotin Menetelmässä piirreavaruuden datapisteet projisoidaan 1-ulotteiselle suoralla. Piirrevektori voi silti olla moniulotteinen. Luokat oletetaan normaalisti jakautuneiksi. Suoran määrittelee vektori W, jolle projisoimalla piirrevektori X, saadaan pisteen sijainti y suoralla. Toiveena on, että jakamalla suora kahteen osaan kohtisuoralla pinnalla, saadaan parhaiten erotteleva kahden luokan välinen lineaarinen päätöspinta!

Fisherin lineaarisen erottimen esimerkki engl.: Fisher linear discriminant

Mallin sovitus Mallin sovituksessa verrataan luokiteltavaa (kohinaista) hahmoa (kohinattomiin) malleihin, jotka on valittu edustaviksi esimerkeiksi kustakin luokasta. Vertaillaan eroavuuksia tai vastaavuuksia, päätös samankaltaisuudesta tehdään niiden pohjalta engl. Template matching

Esimerkki mallin sovituksesta Oikeanpuolisten sarakkeiden 16 x 16 pistematriisinumeroita verrataan vasemman sarakkeen kohinattomiin malleihin. Vertailu voidaan tehdä joko laskemalla vastaavuudet (musta hahmossa – musta mallissa, valkea hahmossa – valkea mallissa) tai eroavuudet (musta hahmossa kun mallissa valkea ja päinvastoin). Tehokas menetelmä kun ainoat muutokset hahmossa johtuu kohinasta (ns. additive noise), mutta toimii huonosti jos hahmosssa vääristymää l. distortiota (kallistumia, kiertymiä, rypistymiä, siirtymiä, ...).

Pienimmän etäisyyden luokittimet Oletetaan x tuntemattoman hahmon piirrevektoriksi ja vektorit m1, m2, …, mc malleiksi eli ”täydellisiksi”, kohinattomiksi piirrevektoreiksi, joista kukin edustaa yhtä luokista 1, 2, …, c. Tällöin voidaan määritellä tuntemattoman hahmon ja mallin etäisyys (l. normi): Dk = || x – mk || Pienimmän etäisyyden luokitin laskee etäisyydet Dk kaikkien mallien (1,…,k) ja tuntemattoman hahmon piirrevektorin välillä ja valitsee luokaksi pienimmän etäisyyden luokan (pienimmän virheen luokan). engl. Minimum-distance classifiers

Etäisyysmitat/-funktiot Etäisyyden eli normin määrittelemiseen on useita eri tapoja joita kutsutaan metriikoiksi, tässä etäisyysmitoiksi. Hamming: Eroavien bittien määrä kahdessa bittivektorissa (piirreavaruudessa) Manhattan: Kahden pisteen välinen etäisyys mitattuna suorakulmaisia akseleita pitkin (piirreavaruudessa) Mieti: the moves of a rook in chess Euclidean: Suoran viivan pituus kahden pisteen välillä (piirreavaruudessa) Mahalanobis: Kovariansiin liittyvä etäisyys elliptisessä avaruudessa Mahalanobiksen edut: koordinaattiakselien skaalaus, piirteiden välinen riippumattomuus, ylilineaariset päätösrajat

Etäisyydestä yleisemmin Periaatteessa samankaltaisuus/ erinlaisuus voi perustua mihin informaatioon tahansa! Yleensä käytetään seuraavia pelisääntöjä: refleksiivisyys d(X,X)=0, eli hahmon etäisyys itseensä on olematon symmetrisyys d(X,Y) = d(Y,X) kolmioepäyhtälö d(X,Y)  d(X,Z) + d(Z,Y) Etäisyysmitan d(X,Y) avulla voidaan piirrevektorit järjestää jonkin piirreavaruuden pisteen suhteen järjestykseen.

Etäisyysmitoista binaarisille arvojoukoille Yksittäinen piirre on 0 tai 1 (bitti); piirrevektorit X,Y  [0,1]k Verrataan piirrevektoreita piirteittäin i = 0,…,k-1 a on lukumäärä esiintymistä Xi = 1 ja Yi = 1 b on lukumäärä esiintymistä Xi = 0 ja Yi = 1 c on lukumäärä esiintymistä Xi = 1 ja Yi = 0 d on lukumäärä esiintymistä Xi = 0 ja Yi = 0 Binaaristen piirrevektorien etäisyys voidaan ilmaista eritavoin lukumäärien a, b, c ja d suhteina.

Etäisyysmitoista binaarisille arvojoukoille Yksinkertainen täsmäys Jaccard etäisyys Dice etäisyys

Yleinen Minkovskin eli L-metriikka Yleinen muoto josta johdettavissa muut p=1 (Manhattan eli kortteli) p=2 (Euklidinen)

Päätösrajat pienimmän etäisyyden luokittimessa Pienimmän etäisyyden luokittimessa nämä päätösrajat ovat pisteitä, jotka ovat yhtä etäällä kahdesta tai useammasta luokan sovitettavasta mallista (template). Euklidisessa metriikassa tämä tarkoittaa että päätösrajat ovat viivoja ja tasoja, erityisesti kohtisuorassa kahta luokan mallia yhdistävästä suorasta.

k-lähimmän naapurin luokitin idea: piirrevektorin X luokaksi arvataan se luokka c mikä esiintyy useimmiten piirrevektorin k lähimmän mallivektorin ympäristössä periaatteeltaan yksinkertainen, suhteellisen robustinen, mutta laskennaltaan kompleksinen 1-lähimmän naapurin luokitin tutustuttiin edellä k-NN-classifier

k-lähimmän naapurin luokitin Opetusjoukko luokiteltuja hahmovektoreja muodostaa itsessään luokittelijan (tilastollisia jakaumi yms. ei tarvita). Intuitiivinen tausta niiden käyttöön luokittelijana on, että lähellä (jollakin metriikalla) olevat tunnistamattomat havainnot kuuluvat samaan luokkaan.

Enemmistö ratkaisee the majority vote Tutkitaan mihin luokkaan enemmistö tuntemattoman piirrevektorin X k-lähimmästä naapurista kuuluu. Nimetään tuntematon X enemmistön mukaan kuuluvaksi luokkaan c.

Edellytyksiä hyvälle k-lähimmän naapurin luokittelijalle Naapurikoko k yleensä pariton (ja usein k=3). Siis, k pitää olla riittävän suuri, jotta virheluokittelun todennäköisyys minimoituu sekä k pitää olla riittävän pieni (suhteessa opetusaineiston kokoon), jotta naapuruston pisteet ovat riittävän läheltä antaakseen luotettavan arvion todellisesta luokasta. Luokitetun aineiston (opetusaineiston) tulee olla suuri  hyvät hakualgoritmit.

Yksinkertaisen luokittelijan rajoitukset Piirteet eivät sisällä (riittävästi) informaatiota hahmojen erottelemiseksi luokkiin: etsi ja/tai valitse paremmat piirteet Jotkin piirteet (joiden tarkoitus on mitata hahmon eri ominaiuuksia) ovat keskenään riippuvia tai toisiinsa vaikuttavia, siten että ne pyrkivät vaihtelemaan yhdessä: valitse riippumattomat piirteet, valitse toinen metriikka, tarkista skaalaus Piirreavaruuteen ei synny yhtenäisiä päätösalueita (syystä tai toisesta, yleensä jakautuu hyvin moniin aliluokkiin): uudelleensuunnittele piirrejoukko

Yksinkertaisen luokittelijan rajoitukset Euklidisten etäisyysmittojen lineaariset päätösrajat eivät ole riittäviä erottamaan luokkia toisistaan: uudelleensuunnittele piirrejoukko, valitse metriikka joka pystyy ylilineaarisiin päätösrajoihin (esim. Mahalanobis), neuraalilaskennan menetelmät (myöhemmin kurssissa) Yhtä “luonnollista” luokkaa vastaa usea piirreavaruuteen jakautunut aliluokka: käytä ryvästysmenetelmiä etsimään aineistossa olevat aliluokat ja etsi niiden vastineet luokille

Luokittelijan muodostaminen Useita lähestymistapoja Jos jokaisen luokan piirrevektorien todennäköisyysjakaumat tunnetaan, voidaan soveltaa ns. Bayesin luokittelusääntöä , joka minimoi virheluokituksen riskin tai todennäköisyyden. Useimmiten piirteiden oletetaan noudattavan normaalijakaumaa. Usean piirteen tapauksessa tarvitaan monen muuttujan todennäköisyysjakaumia  laskennallisesti hyvin työlästä. Jos todennäköisyysjakaumia ei tunneta, mutta opetusjoukossa riittävästi näytteitä (prototyyppejä) kunkin luokan hahmoista on, voidaan jakaumat oppia (estimoida). Mikäli jakauman periaatteellinen muoto tunnetaan, riittää pelkästään jakaumien parametrien oppiminen (keskiarvot ja hajonnat). Jos jakaumia ei tunneta ja näytteitä opetusjoukossa on liian vähän luotettavaa estimointia varten, on turvauduttava ei-parametrisiin menetelmiin. Luokitin pyritään oppimaan suoraan opetusjoukosta ja täten suoraan määräämään piirreavaruuden päätöspinnat. Tunnettu esimerkki on k:n lähimmän naapurin menetelmä.

Mallin validointi Luokittelijan hyvyys (=keskeinen ominaisuus!) määräytyy sen virhesuhteen (engl. error rate) mukaan. Luokittelija testataan aineistolla jonka hahmovektorien luokat on tunnettu ja verrataan tulosta! engl. Validation

Mallin validointimentelmiä testing on the training data: Testiaineistona käytetään mallin muodostuksessa käytettyä opetusaineistoa. Hyvä ’välttämätön ehto’ on että malli luokittaa hyvin opetusaineistonsa. holdout method: Käytetään erillistä testiaineistoa jakamalla opetusaineisto ennen opetusta kahteen osaan, joista toista ei käytetä opettamiseen. Hyvä, mutta vaatii aineistolta enemmän kokoa. k-fold cross-validation: Jaetaan opetusaineisto k yhtäsuureen osaan, joista k-1 käytetään opettamiseen ja 1 testaamiseen toistaen opetetus-/testausvaiheet k kertaa. Hyvä, joskin aikaavievä.

Oppiminen esimerkeistä Learning the mean vector: Jos käytettävissä on samaan luokkaan kuuluvat piirrevektorit {x(1),x(2),...,x(n)} (opetusjoukko, näytteet), voidaan malli muodostaa keskiarvoistamalla m(n) = [x(1) + x(2) + ... + x(n)]/n Sequential learning: Malli voi olla myös asteittain tarkentuva (uusia samaan luokkaan kuuluvia piirrevektoreita ilmaantuu lisää), jolloin m(n+1) = (n/n+1) m(n) + (1/n+1) x(n+1) engl.Learning from examples

Klusterointi eli ryvästäminen Muodostaako opetusjoukko luonnollisia ryhmittymiä, jotka vastaavat tiettyä luokkaa? Yhteenkuuluvia piirrevektoreita voidaan etsiä klusteroinilla eli ryvästämisellä: The k-means procedure The fuzzy-k-means procedure * The sequential-k-means procedure * Self-organizing feature maps The problem of finding subclasses in a set of examples from a given class is called unsupervised learning. The problem is easiest when the feature vectors for examples in a subclass are close together and form a cluster. engl. Clustering

The k-means procedure Oletetaan että opetusjoukossa on n piirrevektoria x1,x2,...,xn, jotka voidaan ryvästää k ryppääseen, jossa k < n. Klusterin i keskiarvo (keskipiste) olkoon vektori mi. Jos klusterit eli ryväkset ovat hyvin erottuvia, voidaan ne erotella pienimmän etäisyyden luokittimella. Seuraavalla algoritmilla: Arvaa alkuarvot klusterien keskiarvoille m1,m2,...,mk REPEAT Käytä keskiarvoja mi luokittelemaan piirrevektorit x1,x2,...,xn FOR i = 1 TO k Korvaa mi kaiklla klusteriin i kuuluvien piirrevektorien keskiarvolla UNTIL yhdenkään klusterin keskiarvo mi ei muutu

Aineiston opittavuus Swingler (1996), menetelmä perustuu informaatioteoriaan ja entropiaan  molemminpuolisen informaation ja entropian suhde paljastaa aineiston opittavuuden. Luokkien todennäköisyydet P(yi) ja entropia-arvo: Luokan yi ehdollinen entropia, kun se kuuluu piirrevektorille xi :

Molemminpuolinen informaatio ja opittavuus Opittavuussuhde (välillä 0..1): Arvon ollessa lähellä ylärajaa 1, on aineisto hyvin opittavaa

Aineiston sironta Siermala, 1999 Kiinnittää Swinglerin suhdetta paremmin huomion tapausten sijoittumiseen piirreavaruudessa! Sironnan laskenta: valitaan opetusaineiston piirrevektoreista satunnainen aloitustapaus, laskuri a = 0 valitaan (halutulla metriikalla) tapauksen lähin naapuritapaus ja poistetaan edellinen tapaus jos lähin naapuritapaus on eri luokassa, kasvatetaan laskuria a yhdellä palataan kohtaan 2, kunnes aineisto on läpikäyty Tulkinta: aineisto jossa luokat ovat täysin sekaisin, on paljon vaihtelua eli lukua a kasvaa suureksi aineisto jossa luokat ovat sijoittuneet piirreavaruuteen paikallisesti eri alueille, vaihtelua on vähän (aluokkien määrä)

Osio vaihtuu … Hahmontunnistuksen menetelmien edelleenkehitys ja soveltaminen: koneoppiminen (machine learning): luokittelujen tai toimintojen automaattinen oppiminen esimerkeistä tiedonlouhinta/-jalostus (data mining): suurissa data-aineistoissa ilmenevien säännönmukaisuuksien automaattinen havaitseminen neuroverkot: yksinkertaistettujen hermosolumallien motivoima menetelmien perhe