Ugrás a tartalomhoz

Becsléselmélet

Ellenőrzött
A Wikipédiából, a szabad enciklopédiából

A becsléselmélet a matematikai statisztika egyik jelentős területe, mely egy adott minta alapján a sokaságra vonatkozóan állapít meg érték(ek)et. A regressziószámításban a lineáris regresszió meghatározásában játszik szerepet. A hétköznapi életben korlátozott észlelési vagy mintavételezési lehetőségek esetén van jelentősége a megalapozott becsléseknek. A paraméterbecslés során valószínűség-eloszlások jellemző mennyiségeit határozzák meg, illetve műszaki területeken jellemző az alsó és felső határ vagyis a konfidenciaintervallum becslése.

A becslés folyamata

[szerkesztés]

A becsléselmélet lényege hogy egy lehetőleg könnyen előállítható becslést nyújtson. A becslést gyakran egy optimális állapot megállapítására alkalmazzák, amely nem minden esetben lehetséges.

Valószínűség eloszlás megállapítása

[szerkesztés]

Cramér–Rao alsó korlát alkalmazása

[szerkesztés]
  • A Cramér–Rao alsó korlát segítségével gyenge feltételek mellett is megállapítható alsó korlát a λ paraméter torzítatlan becsléseinek szórásnégyzetére.

Becslési modell kiválasztása

[szerkesztés]
  • Ezután a nagyszámú lehetőség közül egy becslési modell alkalmazható, vagy akár ki is alakítható.

Döntéselmélet

[szerkesztés]

A döntéselméletben a legvalószínűbb vagy legkedvezőbb lehetőségek meghatározása a cél. A lehetőségek bekövetkeztét trendek, valamint múltbeli tapasztalatok alapján becsülik meg (összeegyeztethető a paraméterek és minták fogalmával).

Minimax elv

[szerkesztés]

A statisztikai döntéselmélet minimax elve szerint az az optimális választás, ami minimalizálja a maximális veszteséget. Felfogható a minimális nyereség maximalizálásaként is. Legyen paraméter, és legyen a paraméter becslése . Jelölje a rizikófüggvényt, ami rendszerint a veszteségfüggvény integrálja. A becslés minimax, ha

A döntéselmélet egy alternatív elmélete a Bayes-becslés használatán alapul, ami a a becsülni kívánt paraméter feltételezett a priori eloszlásának ismeretében minimalizálja az a posteriori rizikót:

Játékelmélet

[szerkesztés]

A játékelmélet a matematika egyik interdiszciplináris ága, azzal a kérdéssel foglalkozik, hogy mi az optimális viselkedés olyan helyzetekben, ahol minden résztvevő döntéseinek eredményét befolyásolja a többiek lehetséges választása, vagyis a játékelmélet a stratégiai problémák elmélete. A becsléselmélet néhány játékelméleti aspektusa:

  • Például egyazon sokaságból, eltérő időpontban és/vagy módszerrel vett minták hogyan befolyásolják egymást, és ezt a hatást hogyan lehet csökkenteni.
  • A valós életben a statisztikai mintavétellel kapcsolatos eljárások a megfigyelő hatása révén (potenciálisan) befolyásolják a minták környezetét, és ezzel a torzítással számolni kell.
  • A becslési modell választásánál lehetséges kevert stratégia alkalmazása, tehát a modellek alkalmazását is egy függvénnyel adjuk meg.

Bayes-elmélet

[szerkesztés]

A természettudományos kutatások során nélkülözhetetlen az induktív logika alkalmazása: a megfigyelésekből nyert adatokból kell az adott jelenséget kiváltó okra következtetni, ennek helyességét valószínűsíteni. Thomas Bayes jegyzetei alapján Richard Price (1763) majd továbbfejlesztve Pierre-Simon de Laplace (1812) tettek közzé úttörőként induktív logikát alkalmazó statisztikai eljárást.

Bayes-tétel

[szerkesztés]

A Bayes-tétel a valószínűségszámításban egy feltételes valószínűség és a fordítottja között állít fel kapcsolatot.

A tétel legegyszerűbb formájában azt állítja, hogy ha ismert az A és B események valószínűsége, és a P(B|A) feltételes valószínűség, akkor

P(A)-t az A esemény a priori, P(A|B)-t az a posteriori valószínűségének is nevezik; a szokásos értelmezésben A valamiféle hipotézis, B egy megfigyelhető esemény, és tétel azt adja meg, hogyan erősíti vagy gyengíti az esemény megfigyelése a hipotézis helyességébe vetett hitünket.

A tétel hasonló formában általánosítható sűrűségfüggvényekre és valószínűségi mértékekre is.

Bayes-döntés

[szerkesztés]

A Bayes-döntés optimális vagyis a hibavalószínűsége minimális.

Legyen a döntés tartománya olyan, hogy -ra teljesüljön -nél. pont akkor eleme a döntési tartománynak, ha megfigyelés esetén az hipotézis feltételes valószínűsége a legnagyobb. A -ok páronként diszjunktaknak választhatók, például úgy, hogy nem egyértelmű esetben az alacsonyabb indexűt választják. Ekkor a döntés függvény:

Ezt nevezik Bayes-döntésnek, vagy maximum a posteriori döntésnek.

Bayes-statisztika

[szerkesztés]

Bayes-tételén alapuló Bayes-statisztika átfogóbb szemléletével az 1940-es évektől kezdődően[1] egyre nagyobb teret hódít. A klasszikus statisztika követői közül többen bírálták - elsősorban a külső információk felhasználása, és szubjektív valószínűségek megjelenése miatt. A Bayes-statisztika minden fellelhető információt felhasznál, és ezeket kombinálja a meglévő mintavétel eredményével. A szubjektív benyomások egzakt kezelésére kínál megoldást. A bayes szemléletű becslésnél a becsülni kívánt paraméter nem egy rögzített érték, hanem valószínűségi változó.

A bayesi statisztika tartalmazza speciális esetként (a külső információk teljes hiánya) a klasszikus elméletet. A Bayes-tételnek az átfogalmazott formája mindenféle statisztikai modellnél alkalmazható, az összefüggés ugyanakkor áttekinthető. Éppen emiatt (egyszerűség és az egységesség) egyre szélesebb körű az alkalmazása.

Pontbecslés

[szerkesztés]

Legkisebb négyzetek módszere

[szerkesztés]

A Legkisebb négyzetek módszer alkalmazása nem feltételezi a sokasági eloszlás ismeretét, de azt igen, hogy formalizált összefüggésünk van a jelenség leírására, amit modellnek neveznek. A legkisebb négyzetek módszere ennek a modellnek a paramétereit úgy határozza meg, hogy a tényleges és becsült paraméterrel illesztett modellek négyzetes eltérése, azaz az eltérések négyzetösszege minimális legyen. A módszer a tényleges megfigyelések és a (minta alapján) becsült modell négyzetes távolságát minimálja. A négyzetösszeg minimálás eszköze a szélsőérték-számítás.

Momentumok módszere

[szerkesztés]

A Momentumok módszere általában az eloszlások paramétereinek becslésére szolgál, akkor alkalmazzák ha a minta eloszlásának sok ismeretlen paramétere van. Egy ismert típusú sokasági eloszlás paraméterei és momentumai függvényszerű kapcsolatba hozhatók egymással. A momentumok módszere olyan sokasági paramétereket keres, amelyek mellett a sokaság és a minta megfelelő paraméterei megegyeznek. Ekkor a tapasztalati momentumok a mintából kiszámíthatóak, mivel egyenlővé tehetőek a paraméterekkel kifejezett sokasági momentumokkal (k-adik), majd az említett összefüggésből következtetni lehet a sokasági paraméterekre. A módszer konzisztens becslőfüggvényeket eredményez.

A számítás lépései: A centrális határeloszlás-tétel alapján a minta k-dik tapasztalati momentuma jó becslése az ismeretlen eloszlás k-dik momentumának. A bal oldal a mintából kiszámolható, míg a jobb oldalon álló mennyiség az ismeretlen paraméter (vektor) függvénye. A módszer alapján a k=1-től kezdve annyi egyenlőséget írnak fel, ahányból az ismeretlen paraméterek egyértelműen kifejezhető, ezáltal kapható meg a becslés. Általában annyi egyenletre van szükség, ahány ismeretlen paraméter van.

Blackwellizálás

[szerkesztés]

Rao-Blackwell-Kolmogorov tétel alkalmazása, mely módszer alkalmas torzítatlan becslés konstruálására úgy, hogy egy egyszerű torzítatlan becslést egy elégséges statisztika segítségével korrigálnak. Általában n elemű minta alapján.

Blackwellizálás lépései: 1. A becsülni kívánt paraméterre egyszerű torzítatlan becslést adnak, gyakran csak az első (néhány) mintaelem felhasználásával. Ennek jele T. Ez az egyszerő becslés sokszor indikátortól függ, mert felismerhető, hogy a becsülni kívánt paraméter valaminek a valószínűsége. Például az Ind(p) eloszlásnál p=Pp(X1=1), p2= Pp(X1=1, X2=1), p(1-p)= Pp(X1=1, X2=0). A megfelelő torzítatlan becslések: T1=I(X1=1), T2=I(X1=1, X2=1), T3=I(X1=1, X2=0). 2. Keresnek egy S (minél egyszerűbb) elégséges statisztikát. 3. Felírják a V=E(T|S) becslést. Ez a feltételes várható érték nem függ az ismeretlen paramétertől, mivel S elégséges. Másrészt ez is torzítatlan becslés, ami hatásosabb az eredeti T-nél (hogy mennyivel, az bizonytalan). V maga is valószínűségi változó, az S-nek függvénye: ha S a k értéket veszi fel, akkor V értéke E(T|S=k).

Legnagyobb valószínűség (Maximum Likelihood) módszer

[szerkesztés]

A Legnagyobb valószínűség módszer ismert sokasági eloszlást tételez fel, és alkalmas arra hogy e sokasági eloszlás ismeretlen paraméterét (vagy paramétereit) becsülje. A likelihood függvény azt mutatja meg hogy adott (rögzített) eloszlás és különböző paraméterértékek esetén mennyire valószerű, hogy éppen a szóban forgó minta adódik a mintavétel eredményeképp. A függvény ismeretében olyan ismeretlen paramétert (paramétereket) kell keresni, amely(ek) mellett ez a függvény a maximumát veszi fel. A módszer nem eredményez minden esetben torzítatlan becslőfüggvényt, viszont mindig konzisztens és aszimptotikusan hatásos becslőfüggvényt eredményez, normális határeloszlással.

Parzen-Rosenblatt módszer

[szerkesztés]

Tapasztalati eloszlás függvény nem deriválható, mivel a megfigyelt paraméterek általában pontszerűek. Ha azonban az adott érték körüli kicsi szórású folytonos eloszlásúnak is tekinthető (ez az eloszlás a magfüggvény). A keletkező folytonos keverék eloszlásnak a deriváltja jól közelíti a sűrűségfüggvényt.

Egy ƒ(x) sűrűségfüggvényből vett minta esetén, ahol a k(y) magfüggvény egyenesen korlátos és yk(y) határértéke 0 a végtelenben, valamint hn olyan számsorozat, ahol : és : akkor aszimptotikusan torzítatlan, konzisztens becslést mutat a ƒ(x) minden folytonossági pontjában.

Intervallumbecslés

[szerkesztés]

Konfidenciaintervallum

[szerkesztés]

Az intervallumbecslések egyik módszere a konfidenciaintervallum használata. A konfidenciaintervallum intervallum értékű becslést ad egy paraméterre: valószínűleg ezek közé a korlátok közé esik. Ez sok esetben jobb, mint egyetlen becsült értéket adni. Az α paraméter egy előzetesen megadott értékére a becsült paraméter 1-α valószínűséggel esik az intervallumba. Ezt az 1-α szintet sokszor százalékban adják meg; például 95% tipikus. A több dimenziós megbízhatósági tartomány a konfidenciaintervallum általánosítása. Ez nemcsak a becslés hibájának felmérésére alkalmas, hanem arra is, hogy kimutassa: ha egy paramétert nem sikerült elég pontosan megbecsülni, akkor a többi paramétert is pontatlanul becsülték-e meg.

Becslések tulajdonságai

[szerkesztés]

Kismintás mérési kritériumok

[szerkesztés]
  • Becslés standard hibája (Se) a becslőfüggvény valamennyi lehetséges mintán felvett értékeiből számított szórásnégyzetet mintavételi szórásnégyzetnek, ennek négyzetgyökét pedig a becslőfüggvény illetve a becslés standard hibájának nevezzük.
  • A relatív hatásfok két torzítatlan becslőfüggvény szórásnégyzetét hányados formában hasonlítja össze. Megmutatja, hogy a egy becslőfüggvény szórásnégyzete hány százaléka a egy másik becslőfüggvényének.
  • Az Abszolút hatásosság esetén egy becslőfüggvény szórásnégyzetét az MVUE szórásnégyzetéhez hasonlítják.
  • Átlagos négyzetes hiba (Mean Square Error=MSE) egy mutatószám mely a szórásnégyzet és a torzítás együttes figyelembevételére alkalmas. Torzítatlan becslőfüggvények esetén az átlagos négyzetes hiba megegyezik a szórásnégyzettel.
  • A plauzibilitás egyetlen adat hitelességét (értelmezési intervallumba esését) vizsgálja.

Nagymintás mérési kritériumok

[szerkesztés]
  • A konzisztencia azt jelenti, hogy a megfigyelések számának növelésével nő a becslés pontossága, vagyis a becsült érték körüli ingadozás-variancia csökken. Legyen egy paraméter becslése , ekkor
  • Torzítatlanság: torzítatlannak nevezünk egy becslőfüggvényt, ha annak várható értéke megegyezik a becsülni kívánt sokasági jellemzővel. Egyoldali és a kétoldali ellenhipotézissel vizsgálható.
  • Aszimptotikus torzítatlanság: ha a mintanagysággal végtelenbe tartva a torzítás eltűnik, akkor azt mondjuk, hogy a megfelelő becslőfüggvény aszimptotikusan torzítatlan.
  • Torzítás mérőszáma:
  • A hatásosság azt mutatja, hogy a torzítatlan becslések között a szórás mennyire számottevő mértékű. Két egyaránt torzítatlan becslés közül az a hatásosabb, amelyre a négyzetes közép eltérés kisebb.
    • Unicitás: Hatásos becslés T1, T2 torzítatlan statisztika esetén
  • Az aszimptotikus hatásosság két becslőfüggvény nagymintás varianciáinak viszonyát jelenti. Amelyik becslőfüggvénynek kisebb a varianciája, az aszimptotikusan hatásosabb, ha pedig valamely becslőfüggvénynek minden más becslőfüggvénynél kisebb a nagymintás varianciája, akkor ezt a becslőfüggvényt aszimptotikusan minimális varianciájú (hatásos) becslőfüggvénynek nevezik.

Jegyzetek

[szerkesztés]
  1. A német tankok problémája néven ismert becslés meglepően jó eredményei adták a motivációt a Bayes-statisztika alkalmazására és továbbfejlesztésére. Részletek magyarul Archiválva 2016. február 28-i dátummal a Wayback Machine-ben, angolul.

Források

[szerkesztés]

Kapcsolódó szócikkek

[szerkesztés]