Matematika | Felsőoktatás » Matematika szigorlat

Alapadatok

Év, oldalszám:2001, 26 oldal

Nyelv:magyar

Letöltések száma:95

Feltöltve:2010. április 24.

Méret:162 KB

Intézmény:
-

Megjegyzés:

Csatolmány:-

Letöltés PDF-ben:Kérlek jelentkezz be!



Értékelések

Nincs még értékelés. Legyél Te az első!

Tartalmi kivonat

TARTALOM 1./ Esemény, eseménytér, műveletek eseményekkel A valószínűség matematikai fogalma A klasszikus valószínűségi mező. 2 2./ A feltételes valószínűség, a szorzási tétel, a teljes valószínűség tétele, a Bayes-tétel5 3./ A diszkrét valószínűségi változó A várható érték, a szórás Valószínűségi változók együttes és peremeloszlásai. A korrelációs együttható7 4./ Nevezetes diszkrét eloszlások Binominális eloszlás Poisson eloszlás Hipergeometrikus eloszlás 10 5./ Folytonos valószínűségi változó Az eloszlásfüggvény, a sűrűségfüggvény A várható érték, a szórás12 6./ Nevezetes folytonos eloszlások: egyenletes eloszlás, exponenciális eloszlás, normális eloszlás 14 7./ A Csebisev-egyenlőtlenség, a nagy számok törvénye 16 8./ Statisztikai mintavétel A statisztikai mintavétel jellemzői: empirikus várható érték, medián, terjedelem, empirikus eloszlásfüggvény, hisztogramok, tapasztalati

szórásnégyzet.17 9./ Statisztikai becslések: a pontbecslés módszere, konfidencia-intervallum, a várható érték becslése, a szórás becslése .19 10./ Statisztikai hipotézisek vizsgálata; u-próba, t-próba, F-próba, illeszkedésvizsgálat, homogenitásvizsgálat.22 11./ Korreláció és regressziószámítás: a legkisebb négyzetek módszere, a statisztikai modell25 1./ Esemény, eseménytér, műveletek eseményekkel. A valószínűség matematikai fogalma. A klasszikus valószínűségi mező. Esemény, eseménytér fogalma Esemény Valamely kísérlet egy lehetséges, az összes többitől megkülönböztethető kimenetelét eseménynek nevezzük. Ha adott esemény további rész-eseményekre már nem bontható, úgy elemi eseménynek, egyébként összetett eseménynek nevezzük. Az eseményeket rendszerint az A, B, C stb. szimbólumokkal jelöljük Ha egy esemény a kísérlet során biztosan bekövetkezik, azt biztos eseménynek, amelyik soha nem következik

(következhet) be, azt lehetetlen eseménynek nevezzük. A lehetetlen esemény jele általában a 0 , a biztos eseményé az I szimbólum. Eseménytér Valamely kísérlet összes lehetséges kimenetelének halmazát eseménytérnek nevezzük, és általában a Q szimbólummal jelöljük. Fentiek alapján könnyen belátható, hogy Q bekövetkezése biztos esemény. Műveletek eseményekkel A kísérlet eseményeire a halmazelméletnél megismert műveleteket alkalmazhatjuk. Összeg A és B esemény A ∪ B összegén azt az eseményt értjük, amikor A és B közül legalább az egyik (de esetleg mindkettő) bekövetkezik. A továbbiakban az egyszerűség kedvéért az A+B szimbólumot fogom használni. Szorzat A és B esemény A ∩ B szorzatán (metszetén) azt az eseményt értjük, amikor mind A mind B esemény egyaránt bekövetkezik. A továbbiakban az egyszerűség kedvéért az AB vagy A*B szimbólumot fogom használni. Komplementer A halmazelméletben megismerthez hasonlóan

A esemény komplementere a teljes eseménytér azon elemeit jelentik, ahol A nem teljesül. Jele: A Különbség A - B különbség A halmaznak az a része, amelyre B nem teljesül. Másik gyakori jelölése: A B Teljes eseményrendszer A és B eseményeket egymást kizáróknak nevezzük akkor, ha egyszerre nem következhetnek be, vagyis szorzatuk nulla. Ha Q eseményterét olyan A 1 , A 2 , . A n események alkotják, melyek egymást páronként kizárják, ugyanakkor A 1 +A 2 +.+A n = I , azaz összegük biztos esemény, úgy Q={A 1 , A 2 ,A n } eseményhalmazt teljes eseményrendszernek nevezzük. 2 Boole-algebra Az események ugyanazoknak az algebrai törvényszerűségeknek tesznek eleget, mint amelyet a halmazoknál megismertünk. Ha erre az eseményalgebrára teljesülnek az alábbi feltételek, akkor Boole-algebrának nevezzük. • legyenek értelmezve a szorzat és az összeg kétváltozós műveletek • legyen egy kitüntetett I eleme (alaphalmaz vagy eseménytér)

• teljesüljenek az alábbi axiómák A+A=a A+B=B+A A+(B+C)=(A+B)+C A*A=A A*B=BA A(BC)=(AB)C=ABC -- A+0=A A+I=I -- A *A=0 A*0=0 A*I=A A(B+C)=AB+AC A+BC=(A+B)*(A+C) De Morgan féle szabályok A +A=1 Gyakoriság, valószínűség A esemény bekövetkezésének valószínűségére úgy kaphatunk megbízható eredményt, ha a kísérletet sokszor elvégezzük. Ez esetben A esemény bekövetkezésének számát A esemény gyakoriságának nevezzük. Ha ezt a számot elosztjuk a kísérletek számával, úgy A esemény relatív gyakoriságát kapjuk meg. Azt a számértéket, amely körül A esemény relatív gyakorisága viszonylag stabilan ingadozik, A esemény valószínűségének nevezzük, és P(A) -val jelöljük. Fentiek alapján nyilvánvaló, hogy 0 <= P(A) <= 1 A valószínűség matematikai fogalma A kísérletek eredményeihez rendelhetünk egy valós számot, azaz Q halmazon meghatározhatunk egy valós értékű P függvényt. Ezt a függvényt

valószínűségi függvénynek, P(A)-t pedig A esemény valószínűségének nevezzük, ha a következő axiómák teljesülnek: I. axióma Minden A ⊆ Q eseményre: 0 <= P(A) <= 1 II. axióma P(Q) = 1 III. axióma Ha A+B=0 akkor P(A+B) = P(A) + P(B) IV. axióma Ha A i * A j = 0 akkor P(A 1 +A 2 +.+A n ) = P(A 1 ) + P(A 2 )++P(A n ) Fenti axiómákat Kolmogorov-féle axiómáknak nevezzük. A III axióma lényegében a IV axióma n=2 esetének tekinthető. Az alábbi tételek fenti axiómákból, illetve a halmazelméleti műveletekből vezethetőek le: A vizsgált események tetszőlegesek lehetnek, nem szükségszerű, hogy páronként kizárják egymást. P(A--) = 1 - P(A) P(0) = 0 3 ha A ⊆ B akkor P(A)<= P(B) P(A - B) = P(A) - P(AB) P(A+B) = P(A) + P(B) - P(AB) Fenti állítások legkönnyebben Venn-diagram segítségével láthatóak be, illetve igazolhatóak. Valószínűségi mező Ha Q = {A 1 , A 2 ,.A n } teljes eseményrendszer mindegyik

eseményéhez hozzárendeljük adott esemény P(A i ) valószínűségét, akkor meghatároztuk Q valószínűségi mezőjét. Másképp fogalmazva: az A 1 ,.A i eseményeket a hozzájuk rendelt P 1 ,P i valószínűségekkel együtt valószínűségi mezőnek nevezzük, ha teljesül az alábbi két feltétel: 0 <= P(A i ) n <= 1 és  P( A ) = 1 i =1 i Klasszikus valószínűségi mező Ha véges elemszámú Q eseménytér minden eseményéhez azonos valószínűség tartozik, akkor egyenlő valószínűségi mezőről, más néven klasszikus valószínűségi mezőről beszélünk. 4 2./ A feltételes valószínűség, a szorzási tétel, a teljes valószínűség tétele, a Bayes-tétel. Feltételes valószínűség Legyen A és B a Q eseménytér két tetszőleges eseménye azzal a kikötéssel, hogy B nem lehet lehetetlen esemény. ( P(B) > 0 ) Ebben az esetben azt a valószínűséget, amellyel A megvalósul, amennyiben B már bekövetkezett, A esemény B

eseményre vonatkozó feltételes valószínűségének nevezzük, és az alábbiak szerint számíthatjuk ki: P ( A| B ) = P ( AB ) P(B) Mivel AB ⊆ B , ezért mindig igaz, hogy P(A|B) = [0.1] Mint látható, a feltételes valószínűség kiszámítható a feltétel nélküli valószínűségekből, ha azok értéke nem nulla. Fenti összefüggésből leolvasható, hogy egymást kizáró események feltételes valószínűsége nulla. Események függetlensége A és B események akkor és csak akkor függetlenek egymástól, ha teljesül az alábbi feltétel: P(AB) = P(A) * P(B) Ebben az esetben P(A|B) = P(A) és P(B|A) = P(B) Vagyis adott esemény bekövetkezésének valószínűsége független a másik esemény bekövetkezésétől. Szorzási tétel A tétel segítségével két tetszőleges esemény együttes bekövetkezésének valószínűségét lehet kiszámítani: P( AB) = P( BA) = P( A| B)∗ P( B) Látható, hogy ez az összefüggés a feltételes

valószínűségnél megadott képlet egyszerű átrendezésével jött létre. A szorzási tétel érvényessége nem korlátozódik két eseményre, hanem a teljes indukció alapján tetszőleges A 1 , A 2 ,.,A n eseményekre kiterjeszthető: P(A 1 *A 2 .*A n ) = P(A 1 )P(A 2 |A 1 )P(A 3 |A 1 A 2 ).*P(A n |A 1 A 2 .*A n-1 ) Az események együttes bekövetkezésének valószínűsége az egyes események előző állapotra vonatkozó feltételes valószínűségeinek szorzatával egyenlő. Szemléltetés fa-diagramon Egy kísérletsorozat lehetséges kimeneteleit fa-diagramon úgy ábrázolhatjuk, hogy ágakat rajzolunk az egyes kísérletek lehetséges kimeneteleinek megfelelően, és azokra ráírjuk adott ág bekövetkezésének feltételes valószínűségét adott ág legközelebbi csomópontjára vonatkozóan. Ennél a modellnél az egyes végpontok valószínűségét a hozzávezető út feltételes valószínűségeinek szorzataként kapjuk. Ha valamely végpontba

(eseményhez) több úton juthatunk el, úgy a teljes valószínűséget az egyes utakhoz tartozó valószínűségek összegeként kapjuk. Teljes valószínűség tétele Vegyük fel Q eseménytérben az A 1 , A 2 ,.A n eseményeket úgy, hogy azok teljes eseményrendszert alkossanak, majd vegyünk fel ugyancsak Q eseménytérben egy tetszőleges B ⊆ Q eseményt. (legyen P(B) > 0 ) 5 Mivel A 1 , A 2 ,.A n egymást páronként kizáró események, ezért A 1 B, A 2 B,A n B is ilyen tulajdonságúak lesznek. n Mivel A 1 , A 2 ,.A n teljes eseményrendszert alkotnak, ezért: A i =1 i =1 Ebből következik az alábbi összefüggés: P(B) = P(A 1 B) + P(A 2 B) + .+ P(A n B) Ha fenti összefüggésre alkalmazzuk a szorzási tételt, úgy a teljes valószínűség tételét kapjuk: P(B) = P(A 1 )*P(B|A 1 ) + P(A 2 )P(B|A 2 ) +.+ P(A n )*P(B|A n ), n Egyszerűbben felírva: P ( B ) =  P ( Ai )∗ P ( B| Ai ) i =1 Bayes-tétele A tétel segítségével arra adható

válasz, hogy Q = {A 1 ,A 2 ,.A n } teljes esemény-rendszer és B ⊆ Q esetén mekkora A i valószínűsége, ha B bekövetkezett. Minden i -re felírhatjuk A i események B eseményre vonatkozó feltételes valószínűségét az alábbiak szerint: P ( Ai B ) P(B) P ( Ai | B ) = Felhasználva, hogy P(A i B) = P(B) * P(A i |B) = P(BA i ) = P(A i ) P(B|A i ) , az alábbi alakot kapjuk: P ( Ai | B ) = P ( Ai )∗ P ( B| Ai ) P ( A1 )∗ P ( B| A1 ) + .+ P ( An )∗ P ( B| An ) Az összefüggés általában az alábbi felírásban használatos: P( Ai | B) = P( Ai )∗ P( B| Ai ) n  P( A )∗ P( B| A ) j =1 j , i = 1, 2,.n j Ez utóbbi összefüggés nevezője maga P(B). A tétel alapján tehát B -nek A i -re vonatkozó feltételes valószínűségeiből határozható meg A i nek B -re vonatkozó feltételes valószínűsége. 6 3./ A diszkrét valószínűségi változó. A várható érték, a szórás Valószínűségi változók együttes és

peremeloszlásai. A korrelációs együttható. Diszkrét valószínűségi változó Az olyan mennyiséget, melynek értéke nem állandó, de meghatározható, hogy értéke mekkora valószínűséggel vesz fel egy konkrét értéket, vagy mekkora valószínűséggel esik egy megadott intervallumba, valószínűségi változónak nevezzük. Egy X valószínűségi változót diszkrét valószínűségi változónak nevezünk, ha megszámlálható számú értéket vehet fel. Ha Q eseménytérben X változó az x 1 , x 2 ,.x n értékeket veheti fel, és ezek valószínűsége n rendre v(x 1 ), v(x 2 ),.v(x n ), valamint teljesülnek a  v ( x ) = 1 és i i =1 a v ( x i ) ≥ 0 feltételek, úgy említett változók a hozzájuk tartozó valószínűségekkel valószínűségi mezőt alkotnak. Definíciója A v(x i ) = p i = P(X=x i ) (i = 1, 2,.n) képlettel megadott v függvényt X változó eloszlásának, vagy diszkrét eloszlásfüggvényének nevezzük. A várható érték

Ha egy valószínűségi változóra vonatkozóan független kísérletsorozatot végzünk, a változó által felvett értékek egy meghatározott érték körül ingadoznak. Ezt a valós számot várható értéknek nevezzük. Definíciója Az X diszkrét valószínűségi változó M(X) várható értékét megkapjuk, ha vesszük a lehetségesen felvett értékek előfordulási valószínűségük (relatív gyakoriságuk) szerint súlyozott átlagát: m x = M(X) = x 1 v(x 1 ) + x 2 v(x 2 ) +.+ x n v(x n ) n M ( X ) =  pi x i Gyakrabban használjuk a következő alakot: i =1 Várható értékre vonatkozó tételek a./ M(kX) = kM(X) k ∈ R b./ M(X+k) = M(X) + k c./ M(X 1 +X 2 +.+X n ) = M(X 1 ) + M(X 2 ) ++ M(X n ) Szórás Egy valószínűségi változó jellemzésére általában nem elegendő annak várható értéke, ismernünk kell az átlagtól való eltérés várható értékét is. Ez a szórás Kiszámítása a szórásnégyzet, más néven variancia

meghatározásán keresztül történik. Variancia A varianciát (szórásnégyzetet) úgy kapjuk meg, ha vesszük a valószínűségi változó egyes értékei várható értéktől való eltérése négyzetének adott valószínűség szerint súlyozott átlagát: n M (( X − m) 2 ) = D 2 ( X ) = Var ( X ) =  v ( x i )∗ ( x i − m x ) 2 i =1 7 Egyszerűbb számítására ad lehetőséget az alábbi összefüggés, mely fenti egyenletből vezethető le:  n  D ( X ) = M ( X ) − m =  x pi −   x i pi   i =1  i =1 n 2 2 2 x 2 2 i Szórás Valamely X valószínűségi változó szórása megadja a változó értékének a súlyozott átlagtól való eltérésének várható értékét. Kiszámítása: D ( X ) = Var ( X ) Variancia és szórás tulajdonságai a./ Var(X+k) = Var(X) b./ Var(aX+k) = a2Var(X) c./ D(X+k) = D(X) d./ D(aX+k) = |a| D(X) Standard valószínűségi változó X valószínűségi változó olyan transzformáltja,

melynek várható értéke nulla, szórása pedig egységnyi. X* = X − mx D( X ) Valószínűségi változók együttes és peremeloszlása Adott Q eseménytér két valószínűségi változója kapcsolatát azok együttes eloszlásával írhatjuk le. A w(x i ,y j ) = P(X=x i , X=y j ) (i=1.n, j=1m) függvényt X és Y együttes eloszlásának, vagy együttes diszkrét valószínűségi függvényének nevezzük. Peremeloszlás Táblázatban ábrázolva X és Y együttes eloszlását, az egyes x i y j valószínűségeket soronként illetve oszloponként összesíthetjük. Az így kapott összesített valószínűségeket nevezzük X -re illetve Y -ra vonatkozó marginális eloszlásoknak, más néven peremeloszlásoknak: m v ( x i ) =  w( x i , y j ) n u ( y j ) =  w( x i , y j ) illetve j =1 i =1 Nyilvánvaló, hogy a w együttes eloszlás teljesíti az alábbi feltételeket: n w( x i , y j ) ≥ 0 valamint m   w( x , y i =1 j =1 i j )=1 Változók

függetlensége X és Y valószínűségi változók akkor függetlenek, ha a vizsgálatba vont minden elemre teljesül az alábbi összefüggés: w(x i ,y j ) = v(x i ) * u(y j ) azaz együttes valószínűségük a változók minden értékénél megegyezik a megfelelő sor és oszlop szerinti peremeloszlások szorzatával. 8 Korrelációs együttható Q eseménytérben felvett X és Y valószínűségi változók közötti kapcsolat általában nem írható le függvénnyel, hanem sztochasztikus kapcsolatban állnak. Ennek a kapcsolatnak a szorosságát mérhetjük a kovariancia, illetve a korrelációs együttható segítségével. Kovariancia A kovarianciát úgy definiálhatjuk, mint X és Y változók súlyozott átlagtól való eltérései szorzatának várható értékét: [ Cov ( X , Y ) =  ( x i − mx ) ( y j − m y ) w( x i , y j ) = M ( X − mx ) (Y − m y ) i, j ] Egyszerűbb számításához be kell vezetni a szorzatok várható értékét, amely az x i

és y j szorzatoknak ezek együttes valószínűségeivel súlyozott átlaga: M ( XY ) =  x i y j w( x i , y j ) i, j Ennek felhasználásával a kovariáns értéke az alábbiak szerint számítható: Cov(X,Y) = M(XY) - m x m y Korrelációs együttható A kovariancia nagyságát jelentősen befolyásolja a valószínűségi változók értékeinek nagyságrendje, így számszerű értéke önmagában nem jellemző a két változó közötti kapcsolat szorosságára. A korrelációs együttható értékét úgy kapjuk, ha a kovarianciát egységnyi szórásra normalizáljuk, azaz értékét elosztjuk a két változó szórásának szorzatával: R( X , Y ) = M ( XY ) − mx m y Cov ( X , Y ) = D( X )∗ D(Y ) D( X )∗ D(Y ) R(X,Y) a [-1.+1] intervallumból vehet fel értéket Értéke minél közelebb van nullához, annál kevésbé szoros a kapcsolat a megfigyelt két változó között. R(X,Y) = 0 esetben X és Y változók függetlenek egymástól. 9 4./ Nevezetes

diszkrét eloszlások. Binominális eloszlás Poisson eloszlás Hipergeometrikus eloszlás. Diszkrét eloszlásokról olyan esetben beszélünk, amikor a valószínűségi változó megszámlálható számú értéket vehet fel. Binominális eloszlás Ez az eloszlás a visszatevés nélküli mintavétel lehetséges kimeneteleit írja le. Legyen egy N elemű sokaság, melyben a kedvező tulajdonságú elemek száma M. Nézzünk meg ebből egy n elemszámú mintát (az éppen megnézett elemet rögtön tegyük vissza). Annak valószínűsége, hogy az így ellenőrzött mintában pontosan k esetben találunk kedvező tulajdonságú elemet:  n  M   M P( X = k ) = Pk =      1 −  N  k  N   k n− k  n =   p k (1 − p) n − k  k ahol p = kedvező tulajdonságú elemek valószínűsége, azaz M / N Fenti eloszlást n-ed rendű, p paraméterű binominális eloszlásnak nevezzük, és arra ad választ, hogy mekkora

valószínűséggel fordul elő pontosan k számú kedvező tulajdonságú egyed a mintában. Másként fogalmazva: Ha X diszkrét valószínűségi változó értékei a természetes számok , azaz X = {0, 1, 2,.n}, és X = k esemény valószínűségét a fenti képlet adja, akkor X binominális eloszlású. Várható érték A binominális eloszlás várható értéke: M(X) = m = n*p ahol n a minta számossága, p a kedvező elem előfordulásának valószínűsége Szórásnégyzet (variancia) Var(X) = D2(X) = n * p (1-p) Szórás D(X) = Var ( X ) = n∗ p∗ (1 − p) Poisson-eloszlás Ha X által felvehető értékek a 0, 1, 2.k,n számok, és X=k valószínűségét a P ( X = k ) = p( k , λ ) = λk e − λ k! , λ>0 összefüggés adja meg, akkor X eloszlását λ paraméterű Poisson-eloszlásnak nevezzük. (ilyen eloszlásúak pl. a részecskék egy tér-részben) Várható érték A Poisson-eloszlás várható érték maga λ, azaz M(X) = m = λ

Szórásnégyzet (variancia) Var(X) = λ Szórás D( X ) = λ 10 Hipergeometrikus eloszlás Ez az eloszlás a visszatevéses mintavétel lehetséges kimeneteleit írja le. Legyen egy N elemű sokaság, melyben a kedvező tulajdonságú elemek száma M. Vegyünk ki ebből egy n elemszámú mintát. Annak valószínűsége, hogy az így kivett minta pontosan k darab kedvező tulajdonságú elemet tartalmaz, az alábbi összefüggéssel adható meg:  M  N − M     k   n− k  P ( X = k ) = Pk =  N    n Abban az esetben, ha X valószínűségi változó a fenti összefüggés szerinti valószínűséggel veszi fel az X=k értéket, úgy hipergeometrikus eloszlású valószínűségi változónak nevezzük. Várható értéke M(X) = m = n M N Szórásnégyzete n −1  D 2 ( X ) = Var ( X ) = n∗ p∗ (1 − p)∗  1 −   N − 1 Szórása n − 1  s = D( X ) = Var ( X ) = n∗ p∗ (1 − p) 1

−   N − 1 11 5./ Folytonos valószínűségi változó. Az eloszlásfüggvény, a sűrűségfüggvény. A várható érték, a szórás Fogalma Az X valószínűségi változót akkor nevezzük folytonosnak, ha az a valós számok egy bizonyos intervallumában bármilyen valós értéket felvehet. Ebből következik, hogy adott x konkrét érték felvételének valószínűsége végtelenül kicsi. Eloszlásfüggvény A folytonos valószínűségi változó matematikai vizsgálatához bevezetünk egy olyan F(x) függvényt, melyre igaz az alábbi összefüggés: F (x) = P( X < x) azaz egy [a, b] intervallumon értelmezett valószínűségi változó esetén F(x) értékét az [a, x) intervallumba tartozás valószínűsége adja. Fenti feltételeket kielégítő F(x) függvényt X változó eloszlásfüggvényének nevezzük. Eloszlásfüggvény tulajdonságai 1. F(x) >= 0 2. F(x) <= 1 3. monoton növekvő 4. lim F ( x ) = 0 x 0 5. lim F ( x ) = 1 x ∞

6. balról folytonos (azaz bal oldali határértékét kell venni, ha adott helyen nem egyforma a jobb és a bal oldali határértéke) Az eloszlásfüggvény fogalma diszkrét valószínűségi változók esetében is értelmezhető. Ekkor F(x) u.n lépcsős függvényt alkot, ahol az egyes lépcsőkhöz tartozó intervallumok balról nyitottak, jobbról zártak. Fentiek alapján [a, b] intervallumon értelmezett X valószínűségi változó F(x) eloszlásfüggvénye az alábbi általános formában adható meg:  0, ha x < a  F ( x ) =  f ( x ), ha x = [a , b]  1, ha x > b  Sűrűségfüggvény Ha X valószínűségi változó F(x) eloszlásfüggvénye folytonos, és derivált-függvénye néhány diszkrét pont kivételével létezik, úgy ezt az f(x) = F(x) függvényt X változó sűrűségfüggvényének nevezzük. Sürüségfüggvény tulajdonságai 1. f ( x ) ≥ 0 +∞ 2.  f ( x ) dx = 1 −∞ 12 b 3.  f ( x ) dx = F (b) − F ( a ) = P (

a ≤ x ≤ b) a F(x) általános felírásából és a deriválási szabályokból következik, hogy a f(x) sűrűségfüggvény értéke csak X valószínűségi változó értelmezési intervallumán belül vehet fel nullától különböző (és nem negatív) értékeket. Diszkrét valószínűségi változó esetén az eloszlás hisztogramja hasonlóan értelmezhető, mint a folytonos eloszlás sűrűségfüggvénye. Várható érték X folytonos eloszlású valószínűségi változó várható értéke az alábbi képlettel adható meg: +∞ m = M(X) =  x∗ f ( x)dx +∞ illetve M ( X ) = 2 −∞ x 2 f ( x )dx −∞ Szórásnégyzet (variancia) +∞ D ( X ) = Var ( X ) = 2  ( x − m) 2 f ( x )dx = M ( X 2 ) − m 2 −∞ Ez utóbbi számítási mód analóg a diszkrét valószínűségi változóknál alkalmazottal. Szórás D ( X ) = Var ( X ) = M ( X 2 ) − m2 13 6./ Nevezetes folytonos eloszlások: egyenletes eloszlás, exponenciális

eloszlás, normális eloszlás. Egyenletes eloszlás Egy X valószínűségi változó akkor egyenletes eloszlású, ha értelmezési tartományában bármely értéket egyforma valószínűséggel vesz fel, azaz eloszlásfüggvénye lineáris. Mivel az értelmezési tartomány definíciójából következik, hogy azon kívül nem található érték, ezért az eloszlásfüggvény és a sűrűségfüggvény viselkedését elegendő az értelmezési tartományon belül vizsgálni. Az egyenletes eloszlás számításaihoz az értelmezési tartományt kell megadni. Amennyiben R = [a, b], akkor felírhatóak az alábbiak: Sűrűségfüggvény 1 b− a f (X) = Eloszlásfüggvény x F ( X ) = P( X < x) = x−a  f ( X ) dx = b − a −∞ Várható érték m= μ = a+b 2 Szórásnégyzet (b − a ) 2 σ = D (X) = 12 2 2 Szórás σ = D( X ) = b− a 12 Exponenciális eloszlás X folytonos valószínűségi változót λ paraméteres exponenciális eloszlásúnak

nevezzük, ha az alábbi sűrűségfüggvénnyel írható le:  λe − λX ha x ≥ 0 f (X) =  ha x < 0  0 Eloszlásfüggvénye F ( X ) = P ( X < x ) = 1 − e − λX Várható értéke Szórásnégyzete (0, ha X<0) m=μ=1/λ σ2 = 1 / λ2 Szórása σ=1/λ Exponenciális eloszlást követnek például a természetes bomlási folyamatok stb. 14 Normális eloszlás (Gauss-eloszlás) Egy X valószínűségi változó akkor normális eloszlású, ha az alábbi sűrűség-függvénnyel írható le: f (X) = ( x− m) 2 1 σ 2π e 2σ 2 ( ϕ(x) ) A függvény a valós számok halmazán (-∞.+∞) értelmezett Várható érték Ennél az eloszlásnál megadandó paraméter (m) Szórás Ennél az eloszlásnál megadandó paraméter (σ) Eloszlásfüggvény ( φ ) A sűrűségfüggvény integrálásával kapjuk a korábbiak szerint, a Newton-Leibniz formula megfelelő alkalmazásával. Mivel ez az integrál nem fejezhető ki elemi függvények

segítségével, ezért közelítő értékét táblázatból kereshetjük ki. A táblázat alkalmazhatósága érdekében a valószínűségi változó értékeit a paraméterek szerint standardizálni kell az alábbi képlet szerint: X*= X−m σ Említett táblázatból fenti standard értékekhez keressük ki az eloszlásfüggvény megfelelő értékeit. Mivel a normális eloszlás sűrűségfüggvénye a várható értékre szimmetrikus, ezért a standardizált valószínűségi változó sűrűségfüggvénye a zérus értékre mutat szimmetriát. Ebből következik: • ϕ(-x) = ϕ(x) • φ(-x) = 1 - φ(x) • P(-x<X<+x) = φ(x) - φ(-x) = φ(x) - (1 - φ(-x) ) = 2 φ(x) - 1 Nem jelöltem külön, de fenti esetekben a standardizált változót kell alkalmazni. 15 7./ A Csebisev-egyenlőtlenség, a nagy számok törvénye. Csebisev-egyenlőtlenség Ha egy X valószínűségi változónak csak a várható értékét ismerjük, eloszlási jellemzőit nem, akkor a

Markov-egyenlőtlenség alapján adhatunk közelítő becslést arra vonatkozólag, mekkora valószínűséggel vesz fel egy bizonyos ( c ) számnál nagyobb értéket: P ( X ≥ c) ≤ M(X) c Ha említett valószínűségi változónak ismerjük a szórását, de nem ismerjük eloszlása típusát, akkor a Csebisev-egyenlőtlenség alapján arra adhatunk becslést, mekkora a valószínűsége annak, hogy a várható értéktől a szórás k-szorosánál nagyobb az eltérés. ( k>1 ) P( X − m ≥ kσ ) ≤ 1 k2 A Csebisev-egyenlőtlenség általánosabb formában is felírható: P( X − m ≥ ε ) ≤ σ2 ε2 Nagy számok törvénye A nagy számok törvénye alapján sztochasztikus összefüggés található valamely valószínűségi változó elméleti várható értéke, és véges számú kísérlet során kapott tapasztalati átlagértéke között. X valószínűségi változó n számú kísérlet alapján vett átlaga tetszőlegesen kicsiny ε esetén

sztochasztikusan konvergál az m várható értékhez, ha n minden határon túl nő:   lim P X n − m ≥ ε  = 0   n ∞ Fenti képlet alapján a Csebisev-egyenlőtlenség felhasználásával meghatározható annak valószínűsége is, hogy végesen sokszor ( n ) végrehajtott kísérlet esetén legfeljebb mekkora valószínűséggel lesz nagyobb az eltérés egy tetszőlegesen megválasztott ε értéknél: s2   P X n − m ≥ ε  ≤ 2   ε n k  p(1 − p) illetve P − p ≥ ε  ≤  n  ε 2n Az utóbbi összefüggés a binominális eloszlásra érvényes, ahol p az esemény elméleti valószínűsége, k / n az esemény bekövetkező relatív gyakorisága. Fenti összefüggéseket általában n keresésére használjuk fel. 16 8./ Statisztikai mintavétel. A statisztikai mintavétel jellemzői: empirikus várható érték, medián, terjedelem, empirikus eloszlásfüggvény, hisztogramok, tapasztalati

szórásnégyzet A matematikai statisztika döntően azzal foglalkozik, hogy egy alapsokaságból kivett véges számosságú minta statisztikai jellemzői alapján következtetéseket vonjon le az alapsokaság tulajdonságaira vonatkozólag. Statisztikai mintavétel Célja a statisztikai sokaságból olyan minta kivétele, amely reprezentatív a sokaságra. Statisztikai sokaság Az elemeknek az a halmaza, melyre a vizsgálat irányul. Jellemzően olyan nagy számosságú, hogy elemeinek egyenkénti vizsgálata a gyakorlatban kivihetetlen. Szinonim kifejezéssel alapsokaságnak is nevezzük. Mintavétel Az alapsokaság véges számú elemét véletlenszerűen, vagy meghatározott szisztéma szerint kiválasztjuk. A szisztematikus kiválasztás akkor alkalmazható, ha a sokaság elemei rendezetlen formában vannak jelen. Reprezentativitás A kiválasztott minta akkor reprezentatív az alapsokaságra, ha teljesülnek az alábbi feltételek: • a mintaelemek eloszlása azonos, és

megegyezik az alapsokaság eloszlásával • a sokaság minden egyes elemének egyforma esélye van a kiválasztásra Statisztikus minta jellemzői Empirikus várható érték A minta empirikus várható értékének a mintaelemek számtani átlagát tekintjük. Medián Tegyük fel, hogy n elemből álló mintát vettünk ki. Rendezzük sorba a mintát, és a rendezés szerint adjuk az elemeknek az 1.n indexeket Amennyiben n páratlan, akkor írjuk fel m értékét az alábbiak szerint: m= n+1 2 Ebben az esetben mediánként az X m elemet tekintjük. Ha n páros, akkor m értékét az m = n/2 összefüggés adja. Ebben az esetben a medián az alábbiak szerint számítható: X med = X m + X m+1 2 Ez utóbbi esetben előfordulhat, hogy a medián értékét ténylegesen a minta egy eleme sem veszi fel. Terjedelem A rendezett minta legkisebb és legnagyobb indexű eleme különbségének abszolút értéke. Empirikus eloszlásfüggvény Úgy kapjuk, hogy az x tengelyen a rendezett

minta X i értékeit vesszük fel, míg az y tengelyen az X < X i elemek relatív gyakoriságát. 17 Közelítő empirikus eloszlásfüggvény Nagyobb számosságú minta esetén érdemesebb ezt használni. Előállítása: 1. A terjedelem intervallumát célszerű számú intervallumra osztjuk 2. Meghatározzuk, hogy az egyes intervallumokba milyen relatív gyakorisággal esnek a minták. 3. Az empirikus eloszlásfüggvényhez hasonló módon ábrázoljuk a közelítő eloszlásfüggvényt, csak az x tengelyre az egyes intervallumokat vesszük fel Sűrűséghisztogram Úgy kapjuk, hogy az x tengelyen ábrázoljuk az intervallumokat, az y tengelyen az egyes intervallumokhoz tartozó relatív gyakoriságokat. Itt is igaz, hogy a sűrűséghisztogram alatti terület egységnyi. Tapasztalati szórásnégyzet Az alábbi összefüggés szerint számítható: n d = s2 =  (X i =1 i − X )2 n Korrigált tapasztalati szórásnégyzet A gyakorlati számítások során

általában megbízhatóbb értéket ad. 10-nél kisebb elemszámú minta esetén csak ez használható. Számítása: n d * = s 2 =  (X i =1 i − X )2 n−1 Tapasztalati szórások A megfelelő tapasztalati szórásnégyzetek négyzetgyökeként kapjuk őket. 18 9./ Statisztikai becslések: a pontbecslés módszere, konfidenciaintervallum, a várható érték becslése, a szórás becslése A statisztikai becslés során valamely alapsokaságból kivett véges számosságú minta tapasztalati statisztikai paraméterei alapján következtetéseket vonunk le az alapsokaság statisztikai jellemzőire vonatkozóan. Becslések jellemzői Torzítatlanság Valamely, X paraméterre vonatkozó becslést akkor nevezünk torzítatlannak, ha a becslés alapján várható érték megegyezik X értékével. Hatásosság Valamely becslés annál hatásosabb, mennél kisebb szórásnégyzetet eredményez. Konzisztencia Valamely becslést akkor nevezünk konzisztensnek, ha a

becsült érték valódi értéktől való eltérése a minta elemszámának növelésével monoton csökken. Elégségesség Valamely becslést (statisztikát) akkor mondunk elégségesnek, ha a mintaelemekből nyerhető minden információt megad. Pontbecslés Akkor alkalmazzuk, ha az ismeretlen paramétert (paramétereket) egyetlen konkrét számértékkel kívánjuk jellemezni. Várható (legvalószínűbb) érték A minta elemeinek számtani középértékével egyenlő: n m = M(X) = X = X i =1 i n Várható szórás A korrigált tapasztalati szórással adható meg: n s* =  (X i =1 i − X )2 n−1 Nagyobb elemszámú minta esetén általában elegendő pontosságot eredményez a közelítő empirikus eloszlással (sűrűséghisztogrammal) történő számolás. Intervallum-becslés Arra ad választ, hogy ismeretlen paraméter mekkora valószínűséggel (megbízhatósággal) esik egy kijelölt tartományba, vagy egy megadott valószínűséghez mekkora

tartomány (konfidencia intervallum) rendelhető. Várható érték ismert szórás esetén Az ismeretlen várható értékét a pontbecsléshez hasonlóan, itt is a mintaelemek számtani átlagaként kapjuk. Nyilvánvaló, hogy azonos minta esetén az átlagértékek átlagára (jele: a) ugyanezt az értéket kapjuk. 19 Ha ismerjük az alapsokaság elméleti szórását, akkor a minta átlagának szórását az alábbi összefüggés adja: D( X ) = σ n Ebben az esetben az X változó standardizált értékét a következőek szerint határozhatjuk meg: up = X− a σ Ezt követően az alábbi formában írhatjuk fel az ( 1-p ) megbízhatósághoz tartozó valószínűséget:   X− a  P − u p ≤ n ≤ u p  = 1 − p σ   Fenti képletben a reprezentálja a keresett intervallum középértékét. Mivel u p a megadott intervallum felső határa feletti valószínűségnek feleltethető meg, ezért értéke az alábbi összefüggés

felhasználásával számítható: φ (up ) = 1 − p 2 A zárójelben levő kifejezést a -ra rendezve kapjuk: X − up σ 2 ≤ a ≤ X + up σ 2 Fenti kifejezésben a kivételével minden paraméter adott, számítható vagy táblázatból kikereshető. Várható érték ismeretlen szórás esetén Akkor alkalmazzuk, ha az alapsokaságnak nem ismerjük az elméleti szórását, de meg tudjuk határozni a tapasztalati korrigált szórást. Ebben az esetben X változó eloszlása nem normális, az n szabadságfokú Student-eloszlást követi. A Student-eloszlás szabadságfoka mindig eggyel kisebb, mint a minta számossága. A Student-eloszlású változó standardizálásához vezessük be az alábbi paramétert: X− a n t= s* A ( p-1 ) megbízhatósághoz tartozó valószínűséget az alábbi alakban írjuk fel:   X −a  n ≤ t p  = 1 − p P − t p ≤ s*   Fenti összefüggés t p értékét a szabadságfok és p valószínűség

figyelembe-vételével táblázatból kereshetjük ki. Ezt követően a zárójelben levő kifejezést a -ra rendezve megkapjuk az adott megbízhatósághoz tartozó intevallumot. Szórás becslése Az u.n khi-négyzet becslést alkalmazzuk σ keresésére ( p-1 ) meg-bízhatósághoz tartozó valószínűséget az alábbi alakban írhatjuk fel:   ns *2 P Χ 2 p ≤ ≤ Χ 2p  = 1 − p 2 σ  1− 2 2 20 A szabadságfok és p valószínűség alapján kikeressük a megfelelő táblázatból a khi-négyzet értékeket, majd a zárójelben levő kifejezésbe behelyettesítve σ -ra rendezzük az egyenlőtlenséget. Ennek eredményeképpen megkapjuk adott megbízhatósággal a szórás tartományát. 21 10./ Statisztikai hipotézisek vizsgálata; u-próba, t-próba, F-próba, illeszkedésvizsgálat, homogenitásvizsgálat Hipotézisvizsgálat fogalma A vizsgálat során felveszünk egy alaphipotézist ( H 0 = m 0 ) , és felállítunk egy

ellenhipotézist ( H = m). Feltétel, hogy m és m 0 egymást kölcsönösen kizárják A hipotézisvizsgálat célja annak eldöntése, hogy a nullhipotézist vagy annak ellenhipotézisét fogadjuk-e el. Menete Megadjuk az elfogadottsági valószínűséget ( 1-p ), és a hozzátartozó T elfogadási tartományt. Ez azt jelenti, hogy H 0 szerint feltételezzük, hogy a vizsgált valószínűségi változó értéke legalább ( 1-p ) valószínűséggel esik T tartományba. Felvesszük K = T kritikus tartományt, és azt mondjuk, hogy p a valószínűsége annak, hogy a valószínűségi változó K kritikus halmazba esik. p számot a vizsgálat szignifikanciaszintjének nevezzük, és azt mondjuk, hogy az alaphipotézist ( 1-p ) megbízhatósággal elfogadjuk vagy elutasítjuk. Elsőfajú hiba Akkor követjük el, ha elvetjük a nullhipotézist, holott az igaz. Másodfajú hiba Akkor követjük el, ha igaznak fogadjuk el a nullhipotézist, holott az hamis. Hibás döntés

valószínűsége Úgy kapjuk, ha összeadjuk az elsőfajú hiba és a másodfajú hiba valószínűségét, miután ezek egymást kizáró események. Egymintás u-próba Annak vizsgálatára alkalmas, hogy egy ismert szórású alapsokaságból kivett minta tapasztalati átlagértéke adott megbízhatóság esetén mutat-e szignifikáns eltérést a feltételezett várható értéktől. A vizsgálatot a következő algoritmus szerint végezzük: 1./ u p meghatározása Az alábbi összefüggés felhasználásával kikeressük a táblázatból az ( 1-p ) megbízhatósághoz tartozó u p értéket: Φ( u p ) = 1 − p 2 2./ u sz meghatározása Az alábbi összefüggés segítségével a minta jellemzői alapján kiszámítjuk u sz értékét: usz = n 3./ X − m0 σ Hipotézisvizsgálat Amennyiben usz ≤ u p úgy a nullhipotézist elfogadjuk, azaz kimondhatjuk, hogy adott megbízhatósági szinten a tapasztalati átlag eltérése az elméleti (várható) értéktől nem

szignifikáns. Amennyiben fenti egyenlőtlenség nem teljesül, úgy az eltérést szignifikánsnak mondjuk. 22 Egymintás t-próba Annak vizsgálatára alkalmas, hogy egy ismeretlen szórású alapsokaságból kivett minta tapasztalati átlagértéke adott megbízhatóság esetén mutat-e szignifikáns eltérést a feltételezett várható értéktől. Mivel az elméleti szórás ismeretlen, ezért a Student-eloszlást alkalmazzuk A vizsgálat az alábbi algoritmus alapján történik: 1./ t p meghatározása ( 1-p ) megbízhatóság és n mintaszám esetén táblázatból kikeressük az ( n-1 ) szabadságfokhoz és p valószínűséghez tartozó t p értéket. 2./ t sz meghatározása A minta adataiból kiszámítjuk t sz értékét az alábbi összefüggés alapján: X − m0 t sz = n s* 3./ Hipotézisvizsgálat Amennyiben t sz ≤ t p úgy a nullhipotézist elfogadjuk, azaz kimondhatjuk, hogy adott megbízhatósági szinten a tapasztalati átlag eltérése az elméleti

(várható) értéktől nem szignifikáns. Amennyiben fenti egyenlőtlenség nem teljesül, úgy az eltérést szignifikánsnak mondjuk. Kétmintás t-próba Arra ad választ, hogy két, normális eloszlású és azonos szórású minta azonos alapsokaságból származik-e, vagyis adott megbízhatósági szint mellett mutat-e szignifikáns eltérést várható értékük. A vizsgálatot szintén a Student-eloszlás felhasználásával végezzük Legyen az X és Y mintasorozat elemszáma n és k. Ebben az esetben a megadott ( 1-p ) megbízhatósághoz tartozó t p értékét az ( n+k-2 ) szabadságfok szerint keressük, míg t sz értékét az alábbi összefüggés adja meg: t sz = X− Y ( n − 1) s n2 + ( k − 1) s k2 n+ k − 2 1 1 + n k Az így kapott értékkel végezzük el a korábbiaknak megfelelően a hipotézis-vizsgálatot a nullhipotézis elfogadására vagy elutasítására. F-próba Alkalmazásával azt dönthetjük el, hogy két normális eloszlású,

ismeretlen várható értékű statisztikai sokaság szórása (szórásnégyzete) azonos-e, vagy sem. A vizsgálatot az alábbi algoritmus szerint végezzük: 1. Külön-külön határozzuk meg a két minta tapasztalati szórásnégyzetét A nagyobbik értéket jelöljük s2 max , a kisebbiket s2 min jelöléssel. A nagyobb szórású minta számossága legyen n , a kisebbé k. 2. Keressük ki a megfelelő táblázatból az f 1 =n-1 oszlop és f 2 =k-1 sor metszéspontjában levő F t értéket. 3. Számítsuk ki F sz értékét az alábbi összefüggés szerint: 2 s max Ft = 2 s min 23 4. Amennyiben F t > F sz , úgy a két sorozathoz tartozó sokaság szórása adott szinten megegyezik. Illeszkedés és homogenitásvizsgálat Annak vizsgálatára alkalmas, hogy valamely minta származhat-e egy bizonyos, paramétereivel megadott eloszlású sokaságból. Ha mind az eloszlás típusát, mind annak paramétereit megadjuk, akkor tiszta illeszkedésvizsgálatról beszélünk.

Amennyiben csak az eloszlás típusa feltételezhető, de annak paramétereit a mintából kell becsülni, akkor becsléses illeszkedésvizsgálatról van szó. Amennyiben a normál eloszláshoz való illeszkedés becsléses vizsgálatát végezzük, akkor ezt normalitás-vizsgálatnak nevezzük. Ennek egy lehetséges módja a khi-négyzet vizsgálat Homogenitásvizsgálat Arra ad választ, hogy bizonyos minták azonos alapsokaságból származnak-e, illetve a minták alapsokasága bizonyos paramétereiben egyezik-e. 24 11./ Korreláció és regressziószámítás: a legkisebb négyzetek módszere, a statisztikai modell Gyakori az olyan feladat, amikor összetartozó adatpárok kapcsolatának szorosságát, illetve a közöttük levő függvénykapcsolatot kell meghatározni. A valószínűségi változók közötti sztochasztikus kapcsolat szorosságának mérésével a korrelációanalízis foglalkozik, míg az összefüggő változók közötti függvénykapcsolat (képlet)

meghatározása a regresszióanalízis feladata. Korrelációanalízis Az együttes eloszlások vizsgálatánál alkalmazott kovariancia- és korreláció-vizsgálat arra ad választ, hogy a vizsgálatba vont valószínűségi változók között van-e lineáris kapcsolat, és az milyen erősségű. Mivel megfelelő felírás esetén a korrelációanalízis során kapott eredmények közvetlenül felhasználhatóak a regresszióanalízisre is, a korrelációs együtthatót célszerű az alábbi lakban felírni: n R( X , Y ) = r =  (x i =1 n  (x i=1 i i − x) ( yi − y) n − x) ∗  ( yi − y) 2 2 i =1 Mint a felírásból látható, egyenként ki kell számítani az egyes értékek átlagtól való eltérését, és ezeket részösszegeket (különbségeket) kell a további számítások során felhasználni. Ha a korrelációanalízis eredményeképpen 1-hez közeli értéket kapunk, akkor a két változó között feltételezhető lineáris

függvénykapcsolat. Regresszióanalízis Végrehajtása során keressük azt a függvényt, melynek görbéje az egymással korreláló adatsorok összetartozó adatpárjai által felvett ponthalmazra a legjobban illeszkedik. A közelítés szorosságát a hibanégyzetek összegzése útján mérhetjük, vagyis az egyik adatsort független változónak tekintve, összegezzük a regressziós függvény felvett értékei és a nekik megfelelő nem független adat közötti eltérés négyzeteit. Ennek megfelelően, a regresszióanalízis során azt a függvényt keressük, melynél említett hibanégyzetek összegének minimuma van. Feltételezve a lineáris függvénykapcsolatot, a közelítő függvényt az alábbi alakban célszerű keresni: Y = aX + b Ez esetben a regressziós egyenlet paramétereit az alábbi összefüggések adják: n a=  (x i =1 i n − x) ( yi − y)  ( xi − x ) 2 és b = y− a x i =1 Látható, hogy, fenti összefüggések

ugyanazokat a rész-statisztikákat használják, mint amiket a korrelációvizsgálatnál alkalmaztunk. Az áttekinthetőség érdekében a konkrét számításokhoz célszerű az adatokat és a részeredményeket táblázatos formában felvenni. 25 Statisztikai modell Lineáris összefüggést mutató adatpároknál a két adathalmaz statisztikai modellje a fentiek szerint írható fel. A való életben gyakran fordul elő, hogy a két adatsor között van összefüggés, de az nem lineáris. Ez esetben célszerű az alábbi algoritmus szerint eljárni: 1. Ábrázoljuk derékszögű koordinátarendszerben az összetartozó adatpárokat, és keressük meg azt a függvénytípust, mely feltehetően illeszkedik a mintára. 2. A feltételezett függvénytípus inverzfüggvényével transzformáljuk a függő változó adatsorát. Ha helyesen választottuk meg a transzformáló függvényt, akkor a transzformált adatok egy egyenes mentén helyezkednek el. 3. Végezzük el a

korrelációanalízist a transzformált adatokkal Ellenőrzésképpen hajtsuk végre fentieket több függvénytípussal, és azt válasszuk közülük, amelyik a legjobb korrelációs együtthatót eredményezi. 4. Végezzük el a regresszióanalízist a fentiekben leírt módon 5. A regressziós függvényt helyettesítsük be a kiválasztott függvénytípusba (melynek inverzfüggvénye volt a transzformációs függvény). Fentiek eredményeképpen megkaptuk a vizsgált adathalmazok kapcsolatát leíró empirikus képletet. 26