• Nem Talált Eredményt

Mesterséges intelligencia I

N/A
N/A
Protected

Academic year: 2022

Ossza meg "Mesterséges intelligencia I"

Copied!
57
0
0

Teljes szövegt

(1)

Mesterséges intelligencia I

5. Előadás

(2)

Tartalom

Alakfelismerés

Feltételes valószínűség

Bayes-formula

Teljes valószínűség tétele

Bayes tétel

(3)

Tartalom

Veszteség függvény

Diszkriminancia függvény

ROC görbe

(4)

Alakfelismerés

adott objektumoknak egy halmaza és osztályoknak egy halmaza

minden objektumot soroljunk be valamelyik osztályba

minden objektumnak vannak tulajdonságai

 minden objektumhoz tulajdonság vektor fogunk definiálni

(5)

Alakfelismerés

a tulajdonság vektor általában véletlentől függő értékekből épül fel

ha ez a vektor n dimenziós  n dimenziós teret feszít ki

k osztályunk van  k részre partícionálni a teret (felosztani) (tulajdonságtér felosztása (döntési = ) diszkriminancia függvénnyel)

(6)

Alakfelismerés

ahová mutat a vektor  abba az osztályba tartozik

hogy csináljunk ilyen felosztást?

a felosztásnak milyen a jósága?

példák: számfelismerő, pénzfeldobás, orvos diagnosztikai, nyomtatott irányítószámok felismerése

(7)

Feltételes valószínűség

Példa: (pénz feldobás) A, B: események

A: ≥ 4 (4-et, vagy annál nagyobbat dobunk)

B: páros

(8)

Példa

(9)

Bayes-formula

(10)

Teljes valószínűség tétele

B1, B2,…, Bn  teljes eseményrendszert alkot (egyesítésük a teljes eseményt adja)

(11)

Példa

(dobás)

A : 4 - e t , v a g y a n n á l t ö b b e t d o b t u n k B : p á r o s

B : p á r a t l a n

A : 1 - e t , 2 - ő t , v a g y 3 - a t d o b t u n k

(12)

Bayes tétel

A Bayes-formulában a nevezőt a teljes valószínűség tételével adjuk meg:

(13)

Példa

(hamis-eredeti érme feldobása)

1 szabályos pénz

1 hamis pénz

feldobtuk a pénzt – fejet, vagy írást kaptunk

hamis, vagy szabályos (eredeti) pénzt dobtunk fel?

(14)

Példa (orvosi diagnosztika)

tegyük fel, hogy valamilyen betegség a népesség 0.005-nél fordul elő

van egy tesztünk, amelyik a betegséget 99%

valószínűséggel jelzi

sajnos a tesz 0.05 valószínűséggel hamis

pozitív eredményt ad (azaz nincs betegség, de jelzi)

(15)

osztályok  beteg, nem beteg

tulajdonság egy elemű vektor 

tünet (elemei: beteg – 0, egészséges - 1)

tudjuk: A : b e t e g

B : p o z i t í v t e s z t

A : e g é s z s é g e s B : n e g a t í v t e s z t P ( A ) = 0 . 0 0 5

P ( A ) = 0 . 9 9 5

( m i v e l t e l j e s e s e m é n y r e n d s z e r t a l k o t n a k )

P ( B | A ) = 0 . 9 9 P ( B | A ) = 0 . 0 1

P ( B | A ) = 0 . 0 5 e g e s z s é g e s , m é g i s p o z i t í v

P ( B | A ) = 0 . 9 5 e g e s z s é g e s , é s n e g a t í v i s a t e s z t b e t e g é s p o t i t í v e r e d m é n y t i s k a p

b e t e g , m é g i s n e g a t í v a t e s z t j e

(16)

kiszámítandó:

P ( A | B ) = ? P ( A | B ) = ?

h a p o z i t í v , m i a v a l ó s z í n ű s é g e , h o g y b e t e g

h a p o z i t í v , m i a v a l ó s z í n ű s é g e , h o g y e g é s z s é g e s P ( B ) = ? t e l j e s v a l ó s z í n ű s é g t é t e l e a l a p j á n a k ö v e t k e z ő :

(17)

Megoldás

(18)

Példa

Számfelismerés

0 és 1 számok osztályozása

magasságuk azonos

szélességük 1 és 8 között lehet

(diszkrét valószínűségi változók)

(19)

0: 4 széles: 0.2 1: 2 széles: 0.1

5 széles: 0.3 3 széles: 0.2

6 széles: 0.2 4 széles: 0.3

7 széles: 0.2 5 széles: 0.3

8 széles: 0.1 6 széles: 0.1

(diszkrét eloszlás) (diszkrét eloszlás)

(20)

Kérdés?

jön egy szám – lemérjük a szélességét – milyen szám jöhetett?

P (1) – 1-es írásának valószínűsége

P (0) – 0 írásának valószínűsége

(21)

4, 5, és 6 széles számok érkezése esetén kérdéses (mert ha 2 vagy 3 érkezik, biztos, hogy 1-es volt, ha pedig 7, vagy 8 érkezik, biztos, hogy 0-as volt)

(22)

1 2 3 4 5 6 7 8

j e l ö l é s : 0 1 0 . 1

0 . 2 0 . 3

(23)
(24)
(25)
(26)
(27)
(28)

a hiba valószínűségét minimalizáljuk!!!

mi a valószínűsége annak, hogy hibát követünk el?

(azaz mennyi a valószínűsége annak, hogy nem találjuk el a megfelelő számot?)

(29)
(30)

a.priori P(A) – osztályok előfordulási valószínűsége

a.posteriori P(A|B) – feltételes valószínűség

(31)

d dimenziós tulajdonság vektor

c osztály : ω1, ω2, …, ωc

ismerjük:

P(ω1), P(ω2), …, P(ωc) – a.priori valószínűség (osztályba esés valószínűsége)

P(ωj) – j-edik osztályba esés valószínűsége

P(x| ω1), P(x| ω2), …, P(x| ωc) – osztályokhoz tartozó eloszlás P(x| ωj) – j-edik osztályhoz tartozó sűrűség függvény

Bayes-formula adja az a.posteriori valószínűségeket (a legnagyobbat választom) (ez a választás a lehető

legkisebb hibát eredményezi)

(32)
(33)

Veszteség függvény

(risk = kockázat)

veszteség mátrix (négyzetes mátrix)

αi – döntésünk

ωj – ténylegesen melyik osztályból származott

λi j – az ára annak, hogy azt mondjuk, hogy az i osztályból érkezett, holott a j-ből.

(34)

a döntéseket súlyozhatjuk!

(például sokkal súlyosabb az, ha egy beteg ember kap negatív leletet, mintha egy

egészséges ember kapna pozitívat)

ha azt az osztályt választottuk, amiből való (i

= j), akkor 0 a veszteségünk

(35)

ha i ≠ j, akkor ≠0

0

0 0

r o s s z d ö n t é s - a z i t t á l l ó é r t é k e k 0 - t ó l k ü l ö n b ö z ő e k - á l l h a t m i n d e h o l 1 - e s - e k k o r m i n d e n o s z t á l y t é v e s z t é s u g y a n a k k o r a v e s z t e s é g g e l j á r

- á l l h a t n a k k ü l ö n b ö z ő é r t é k e k , h a a v e s z t e s é g e k e t s ú l y o z z u k

i = j j ó d ö n t é s ( 0 - á k )

(36)

Átlagos veszteség

a veszteség várható értékét kockázatnak nevezzük. (Risk) (Bayes kockázat)

a veszteség várható értékét kell minimalizálni!

(37)

2 osztály esetén:

α1  ω1 osztály választása esetén

α2  ω2 osztály választása esetén

veszteség:

a kisebb kockázatút választom!

(38)

Vegyük úgy, hogy ω1-et választottuk, azaz

(39)

ha a veszteséget nem súlyozzuk, akkor a veszteség mátrixban ahol i = j  0

különben  1

(ezért használható a fenti egyszerűsítés)

Bayes-döntés – a posteriori valószínűség

a nagyobbat választom (a lenti esetben ω1-

et)

(40)

(a posteriorik helyére Bayes)

(41)
(42)

ha a < reláció áll fönt, akkor ω1-et választom, különben ω2- őt.

minimális átlagos veszteséget biztosítja, tehát

ilyen térfelosztást kellene találni!  diszkriminancia függvény

minden osztályhoz definiálunk egy függvényt

azt az osztályt fogjuk választani, amihez tartozó függvényérték a legnagyobb

amelyik térrészbe esik, abba az osztályba fogjuk sorolni

(43)

Diszkriminancia függvény

(határfelületek meghatározása)

gi (x)

gi (x) > gj (x) i ≠ jαi lenne a választásunk, ωi osztályból származónak tartanánk

diszkriminancia függvény lehet:

(44)

posteriori

Bayes- féle döntési függvény

(45)

veszteség függvény

veszteség mátrix – azt választjuk, ahol a veszteségfüggvény minimális

ezen függvények metszéspontjaival lehet leírni a határoló felületeket (a térfelosztást)

(46)

2 osztály esetén

g1 (x), g2 (x) a posterior valószínűség

g1 (x) > g2 (x) az 1. osztályba soroljuk az x objektumot

(47)
(48)

Tegyük fel, hogy egyváltozós

normális eloszlásról van szó.

(49)
(50)

Példa

többváltozós normális eloszlás

Két osztály, mindkettőnek 4-4 pontja ismert:

(2,6), (3,4), (3,8), (4,6)

(1,-2), (3,-4), (3,0), (5,-2)

Ekkor  1,  1,  2,  2, továbbá a

mátrixinverzek kiszámíthatók, azonos

a.priori valószínű-ségek mellett a döntési felület:

x = 3,514 - 1,125y + 0,1825y2

(51)

ROC görbe

(receiver operating charasteristic)

alkalmazás: jelérzékelés

zajos körülmények között (Gauss eloszlás) mérünk jeleket.

ha van jel, 2 a várható érték, ha nincs, 1 (vagyis P(x|i) = N(i,2)).

megkülönböztethetőség:

(52)
(53)

Példa

radar

ω1 – nincs jel 2 osztály, egydimenziós eset  2 részre partícionálni az

ω2 – van jelegyenest: R1-re, és R2-re

hibavalószínűségek

(54)

4 definíciót vezettek be radarok esetén:

találat: P (x > x* | ω2)

- x*-nál nagyobb értéket mértünk

- ω2 –ből jött a jel

hamis riasztás: P (x > x* | ω1)

- másodfajú hiba

- téves pozitív lelet, azaz hamisan azt mondjuk, hogy van jel, holott nincs

(55)

tévesztés: P (x < x* | ω2)

elsőfajú hiba

pozitív tünet fel nem ismerése

helyes elvetés: P (x < x* | ω1)

(56)

különböző d értékekhez tartozó ROC görbék

- sok kísérlet esetén a valószínűségek x*

függvényében becsülhetők: ROC görbék

- minél nagyobb a különbség a két várható érték között, annál magasabban van a görbe

(57)

Hivatkozások

KAPCSOLÓDÓ DOKUMENTUMOK

A mesterséges intelligencia kutatása so- rán cél jellegű megközelítés (MI = cél) törté- nik akkor, ha az alap- vagy alkalmazott kutatás tárgya maga a

A rezolúció hatékonyságának növelése: rezolúciós stratégiák, szélességi keresés, támogató halmaz startégiája, lineáris input stratégia, ősre korlátozott

Hogyan is kellene értelmezni egy ilyen viselkedést? Természetes következménye-e a szövetség az egyes játékosok optimális stratégiáinak egy többjátékos

Vegyük észre, hogy az optimális kereső egy olyan speciális A-algoritmus, ahol a heurisztika minden csúcs esetén nulla.. Ez persze azt is jelenti, hogy a

• Tehát minden -re valamelyik problémája, mondjuk -ben már részekre van bontva, azaz van olyan redukciós operátor, amelyik -t épp ezekre a részproblémákra

elhelyezését (elméleti rész az 1.4 fejezetben) Karakterek kézzel történő leírása esetén a karakterek gyakran eltérnek az ideális standard sablontól. A feladat a

A Neurális hálózatok könyv a mesterséges intelligencia témakörhöz és a Mesterséges intelligencia könyvhöz képest is egy szűk szakterülettel foglalkozik, és bár

Mivel a táblán nincs mód a gráfot többször felrajzolni, a szemlélte- tés csak úgy oldható meg, hogy ugyanabban az ábrában írjuk át a csúcs státusát.. Így a hallg atóság