Vybrané kapitoly z pravděpodobnosti Martina Litschmannová
Ostrava 2011
VŠB – TU Ostrava, Fakulta elektrotechniky a informatiky
Úvod Mílí čtenáři, skripta „Vybrané kapitoly z pravděpodobnosti“ a „Úvod do statistiky“ jsou určena pro studenty technických oborů vysoké školy. První díl těchto skript - „Vybrané kapitoly z pravděpodobnosti“ je koncipován tak, abyste si mohli učinit výchozí představu o základních pojmech a úlohách spadajících do oblasti pravděpodobnosti. Obtížnější části výkladu jsou prezentovány jen s nejnutnější mírou formálních prvků, mnohá odvození a důkazy jsou zařazeny pouze do kapitol určených pro zájemce o pozadí předkládaných vztahů. Přesto není předkládaný text lehké čtení. Prosím, počítejte s tím, že budete často muset usilovně přemýšlet, látku si postupně vyjasňovat a k mnoha tématům se opakovaně vracet. Při studiu Vám může pomoci řada animací (flash), appletů (java) a výpočetních programů (MS Excel), které budou v rámci pilotování výukových materialů používány při výuce předmětů Statistika I., Biostatistika a Speciální analýza dat vyučovaných na VŠB-TU Ostrava a později se stanou součástí obrazovkové verze těchto materiálů. V úvodu každé kapitoly jsou uvedeny cíle (konkrétní dovednosti a znalosti), kterých máte po prostudování této kapitoly dosáhnout. Náleduje vlastní výklad studované látky, zavedení nových pojmů a jejich vysvětlení, vše doprovázeno řešenými příklady. Množství řešených příkladů by Vám mělo umožnit aplikovat nabyté vědomosti při úlohách řešených v technické praxi. Hlavní pojmy, které si máte osvojit jsou na závěr kapitoly zopakovány v části Shrnutí. Pro ověření, zda jste dobře a úplně látku kapitoly zvládli, máte za každou kapitolou k dispozici několik testových otázek. Protože většina teoretických pojmů tohoto předmětu má bezprostřední význam a využití v praxi, jsou Vám rovněž předkládány i praktické úlohy k řešení. Schopnost aplikovat čerstvě nabyté znalosti při řešení reálných situací je hlavním cílem tohoto skripta. Výsledky testů a zadaných příkladů jsou uvedeny na konci každé kapitoly v Klíči k řešení. Používejte jej až po vlastním vyřešení testu a úloh, jen tak si samokontrolou ověříte, že jste obsah kapitoly skutečně úplně zvládli. Úspěšné a příjemné studium s touto učebnicí Vám přeje,
Martina Litschmannová
Poděkování Skripta vznikla v rámci projektu „Matematika pro inženýry 21. století (reg. číslo: CZ.1.07/2.2.00/07.0332)“. Mé velké díky za neocenitelnou pomoc při tvorbě skript patří mým kolegům. Koncepce obou dílů skript by nevznikla bez přispění prof. Ing. Radima Briše, CSc., za nesčetné odborné konzultace a pečlivé korekce chci poděkovat Mgr. Bohumilu Krajcovi, Ph.D. a Ing. Pavlu Praksovi, Ph.D. Nesčetné korekce a připomínky Mgr. Petra Kováře, Phd. pomohly vylepšit jazykovou, stylistickou a mnohdy i odbornou stránku textu. Ing. Pavlíně Kuráňové patří dík za pomoc s přípravou scénářů animací, které by nevznikly bez přispění animátorů projektu – Ing. Adama Zdráhaly, Ing. Martina Kramáře, Ing. Michala Haleckého a Ing. Lukáše Satina. V neposlední řadě pak mé poděkování patří studentům, a to zejména Bc. Lukášovi Malému, kteří skripta včetně obrázků a tabulek vysázeli do TEXu.
Obsah Úvod
i
1 Kombinatorika – opakování učiva ze SŠ 1.1 Kombinatorika – co to je? . . . . . . . . 1.2 Základní kombinatorická pravidla . . . . 1.2.1 Kombinatorické pravidlo součinu 1.2.2 Kombinatorické pravidlo součtu . 1.3 Uspořádané výběry (variace) . . . . . . . 1.3.1 Variace k třídy bez opakování . . 1.3.2 Permutace bez opakování . . . . . 1.3.3 Variace k třídy s opakováním . . 1.3.4 Permutace s opakováním . . . . . 1.4 Neuspořádané výběry (kombinace) . . . 1.4.1 Kombinace bez opakování . . . . 1.4.2 Kombinace s opakováním . . . . . Shrnutí . . . . . . . . . . . . . . . . . . . . . Kontrolní otázky . . . . . . . . . . . . . . . . Úlohy k řešení . . . . . . . . . . . . . . . . . . Řešení . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
2 Úvod do teorie pravděpodobnosti 2.1 Základní pojmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Čím se zabývají teorie pravděpodobnosti a matematická statistika? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Základní pojmy teorie pravděpodobnosti . . . . . . . . . . . 2.2 Označování jevů, relace a operace mezi jevy . . . . . . . . . . . . . 2.2.1 Jaké jsou typy náhodných jevů? . . . . . . . . . . . . . . . . 2.2.2 Pravidla pro práci s náhodnými jevy . . . . . . . . . . . . . 2.2.3 Množiny náhodných jevů . . . . . . . . . . . . . . . . . . . . 2.3 Pravděpodobnost a její vlastnosti . . . . . . . . . . . . . . . . . . . 2.3.1 Pojem pravděpodobnosti . . . . . . . . . . . . . . . . . . . . 2.3.2 Klasická (Laplaceova) definice pravděpodobnosti . . . . . . . 2.3.3 Statistická (empirická) „definice“ pravděpodobnosti . . . . .
iii
. . . . . . . . . . . . . . . .
1 2 2 2 4 4 4 5 5 6 7 7 9 11 12 13 15
17 . 18 . . . . . . . . . .
18 19 20 20 20 24 27 28 28 29
2.3.4 2.3.5 2.3.6 2.3.7
Geometrická pravděpodobnost . . . . . . . . . . . Kolmogorovova definice pravděpodobnosti . . . . Vlastnosti pravděpodobnosti . . . . . . . . . . . . Nezávislost jevů, podmíněná pravděpodobnost a dobnost průniku . . . . . . . . . . . . . . . . . . 2.3.8 Věta o úplné pravděpodobnosti . . . . . . . . . . 2.3.9 Bayseův vzorec . . . . . . . . . . . . . . . . . . . 2.3.10 Rozhodovací stromy . . . . . . . . . . . . . . . . Shrnutí . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Úlohy k řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . Řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . pravděpo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. 30 . 31 . 32 . . . . . . . .
33 41 43 43 46 48 51 53
3 Náhodná veličina 3.1 Základní pojmy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Distribuční funkce . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Diskrétní náhodná veličina . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Spojitá náhodná veličina . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Geometrická interpretace vztahu mezi pravděpodobností a hustotou pravděpodobnosti . . . . . . . . . . . . . . . . . . . . . 3.5 Funkce náhodné veličiny . . . . . . . . . . . . . . . . . . . . . . . . . 3.6 Číselné charakteristiky náhodné veličiny . . . . . . . . . . . . . . . . Shrnutí . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Úlohy k řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54 55 57 59 62
4 Náhodný vektor 4.1 Sdružené rozdělení pravděpodobnosti . . . . . . . . . . . . . 4.1.1 Diskrétní náhodný vektor a jeho sdružené rozdělení . 4.1.2 Spojitý náhodný vektor a jeho sdružené rozdělení . . 4.2 Marginální rozdělení pravděpodobnosti . . . . . . . . . . . . 4.2.1 Marginální rozdělení diskrétního náhodného vektoru . 4.2.2 Marginální rozdělení spojitého náhodného vektoru . . 4.3 Podmíněné rozdělení pravděpodobnosti . . . . . . . . . . . . 4.3.1 Podmíněné rozdělení diskrétního náhodného vektoru 4.3.2 Podmíněné rozdělení spojitého náhodného vektoru . . 4.4 Nezávislost náhodných veličin . . . . . . . . . . . . . . . . . 4.5 Číselné charakteristiky náhodného vektoru . . . . . . . . . . 4.5.1 Marginální číselné charakteristiky . . . . . . . . . . . 4.5.2 Smíšené momenty . . . . . . . . . . . . . . . . . . . . 4.5.3 Kovariance a koeficient korelace . . . . . . . . . . . . 4.5.4 Podmíněné číselné charakteristiky . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
65 68 68 81 82 86 88 91 92 93 96 97 97 99 101 101 101 102 103 103 104 104 107
Shrnutí . . . Test . . . . . Úlohy k řešení Řešení . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
113 114 115 116
5 Diskrétní rozdělení pravděpodobnosti 5.1 Alternativní rozdělení . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Binomické rozdělení . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Hypergeometrické rozdělení . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Aproximace hypergeometrického rozdělení . . . . . . . . . . 5.4 Geometrické rozdělení . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Negativně binomické (Pascalovo) rozdělení . . . . . . . . . . . . . . 5.5.1 Porovnání binomického a negativně binomického rozdělení . 5.6 Poissonovo rozdělení . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6.1 Aproximace binomického rozdělení Poissonovým rozdělením 5.7 Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů 5.7.1 Alternativní rozdělení . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Binomické rozdělení . . . . . . . . . . . . . . . . . . . . . . . 5.7.3 Hypergeometrické rozdělení . . . . . . . . . . . . . . . . . . 5.7.4 Geometrické rozdělení . . . . . . . . . . . . . . . . . . . . . 5.7.5 Negativně binomické (Pascalovo) rozdělení . . . . . . . . . . 5.7.6 Poissonovo rozdělení . . . . . . . . . . . . . . . . . . . . . . Shrnutí . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Úlohy k řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Řešení . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
119 . 120 . 120 . 123 . 124 . 126 . 128 . 129 . 131 . 132 . 134 . 134 . 134 . 135 . 136 . 137 . 138 . 140 . 142 . 143 . 145
6 Spojitá rozdělení pravděpodobnosti 6.1 Rovnoměrné rozdělení . . . . . . . . . . . . . . . . . . . 6.2 Exponenciální rozdělení . . . . . . . . . . . . . . . . . . 6.2.1 Intenzita poruch . . . . . . . . . . . . . . . . . . 6.2.2 Exponenciální rozdělení = „rozdělení bez paměti“ 6.3 Weibullovo rozdělení . . . . . . . . . . . . . . . . . . . . 6.4 Erlangovo rozdělení . . . . . . . . . . . . . . . . . . . . . 6.5 Souvislost mezi rozděleními . . . . . . . . . . . . . . . . 6.6 Normální rozdělení . . . . . . . . . . . . . . . . . . . . . 6.7 Normované (standardizované) normální rozdělení . . . . 6.7.1 Standardizace normálního rozdělení . . . . . . . . 6.7.2 Pravidlo 3σ . . . . . . . . . . . . . . . . . . . . . 6.7.3 Nástroje ověření normality . . . . . . . . . . . . . 6.7.4 Jak postupovat při porušení normality? . . . . . . 6.8 Logaritmicko-normální rozdělení . . . . . . . . . . . . . . 6.9 Trocha teorie . . . . . . . . . . . . . . . . . . . . . . . .
147 . 148 . 149 . 150 . 151 . 153 . 155 . 156 . 157 . 160 . 162 . 165 . 167 . 169 . 169 . 173
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
. . . . . . . . . . . . . . .
6.9.1 Rovnoměrné rozdělení . . . . . 6.9.2 Exponenciální rozdělení . . . . 6.9.3 Erlangovo rozdělení . . . . . . . 6.9.4 Logaritmicko-normální rozdělení Shrnutí . . . . . . . . . . . . . . . . . . . . Test . . . . . . . . . . . . . . . . . . . . . . Úlohy k řešení . . . . . . . . . . . . . . . . . Řešení . . . . . . . . . . . . . . . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
173 175 177 179 180 182 183 184
Statistické tabulky 186 T1. Distribuční funkce normovaného normálního rozdělení Θ(x) pro x > 0 187 T2. Vybrané kvantily normovaného normálního rozdělení . . . . . . . . . 188 Literatura
189
Rejstřík
191
1
Kapitola 1 Kombinatorika – opakování učiva ze SŠ Cíle Po prostudování této kapitoly budete umět použít: • základní pojmy kombinatoriky • vztahy pro výpočet kombinatorických úloh
ó
2
Kombinatorika – opakování učiva ze SŠ
1.1
Kombinatorika – co to je?
Kombinatorika je vstupní branou do teorie pravděpodobnosti. Zabývá se různými způsoby výběru prvků z daného souboru. Už jste si vzpomněli? Jde přece o součást středoškolské matematiky. Ale protože opakování je matkou moudrosti, jdeme na to ... Nejdříve si ujasněme s jakými výběry se v praxi můžeme setkat. Prvním kritériem je uspořádanost výběru. A. Uspořádaný výběr (= variace) je takový výběr, při němž záleží na pořadí vybraných prvků. Př.: Kolik trojciferných čísel lze sestavit z číslic 1; 3; 8; 9? Číslo 139 a číslo 391 považujeme za dvě různé varianty výběru. B. Neuspořádaný výběr (= kombinace) je oproti tomu výběrem, při kterém na pořadí vybraných prvků nezáleží. Př.: Kolik je možností jak vyplnit tiket Sportky? 7 čísel ze 49 – např. kombinace {1; 2; 3; 4; 5; 6; 7} je totožná s kombinací {2; 3; 1; 6; 7; 4; 5} – nezáleží na tom, v jakém pořadí jsme čísla zaškrtali. Druhým kritériem je skutečnost, zda prvky mohou být do výběru zařazeny opakovaně či nikoliv. Podle toho se výběry rozlišují na: A. Výběry s opakováním tj. prvky mohou být do výběru zařazeny opakovaně. Př.: Z množiny {1; 3; 8; 9} lze mimo jiné vytvořit trojčíslí {131; 188; 888; 119; 139; . . .} B. Výběry bez opakování tj. prvky nemohou být do výběru zařazeny opakovaně. Matematicky je většinou jednodušší popis výběrů s opakováním, avšak v praxi se častěji setkáte s výběry bez opakování.
1.2 1.2.1
Základní kombinatorická pravidla Kombinatorické pravidlo součinu
Toto pravidlo používáme v běžném životě zcela automaticky. Než uvedeme jeho matematickou formulaci, ukážeme si jeho využití na příkladu.
Příklad 1.1. U stánku nabízejí čtyři druhy zmrzliny a tři polevy. Kolik různých zmrzlin s polevou lze vytvořit, jestliže nechceme míchat více druhů zmrzliny ani více polev?
Řešení. Následující diagram zobrazuje všechny možnosti výběru: N8&86$289$!786,9(
Vanilková
O0*D&89$!786,9( O98>%$!786,9(
N8&86$289$!786,9( P(48289$
O0*D&89$!786,9( O98>%$!786,9(
N8&86$289$!786,9( Q,3'R&89$
O0*D&89$!786,9( O98>%$!786,9(
N8&86$289$!786,9(
Citrónová
O0*D&89$!786,9( O98>%$!786,9(
Ke každému ze čtyř druhů zmrzliny můžeme přidat jednu ze tří polev, celkem je proto možné vytvořit 4 · 3 = 12 různých zmrzlin s polevou. N Zobecněním předchozí úvahy dojdeme k následujícímu pravidlu nazývanému kombinatorické pravidlo součinu.
+
3
1.2 Základní kombinatorická pravidla
4
Kombinatorika – opakování učiva ze SŠ
Počet všech uspořádaných k-tic, jejichž první člen lze vybrat n1 způsoby, druhý člen po výběru prvního členu n2 způsoby atd. až k-tý člen po výběru všech předcházejících členů nk způsoby, je roven n1 · n2 · . . . · nk . V úvodním příkladu jsme hledali uspořádané dvojice druh zmrzliny – typ polevy, jejichž první člen (druh zmrzliny) lze vybrat čtyřmi způsoby a druhý člen (typ polevy) lze vybrat třemi způsoby. Tedy k = 2, n1 = 4, n2 = 3; n1 · n2 = 12.
1.2.2
Kombinatorické pravidlo součtu
Také toto pravidlo v životě často využíváme, aniž si to uvědomujeme. Jestliže máme např. tři žluté, dvě modré a čtyři zelené pastelky, umí každý snadno spočítat, že dohromady máme 3 + 2 + 4 = 9 pastelek. Matematicky se toto pravidlo formuluje takto: Jsou-li A1 , A2 , . . . , An konečné množiny, které mají po řadě p2 , . . S . , pn prvků, a S p1 , S jsou-li každé dvě disjunktní, pak počet prvků množiny A1 A2 . . . An je roven p1 + p 2 + . . . + pn .
1.3
Uspořádané výběry (variace)
Znovu si připomeňme, že u variací záleží na pořadí vybíraných prvků.
1.3.1
Variace k třídy bez opakování
Nechť M je libovolná množina n prvků. Každá uspořádaná k-tice (skupina k prvků) navzájem různých prvků množiny M se nazývá variace k-té třídy množiny M bez opakování. Počet variací k-té třídy množiny M bez opakování nazýváme variační číslo a značíme jej V (n, k). Z kombinatorického pravidla součinu plyne, že počet variací V (n, k) se určuje podle vztahu
+
V (n, k) = n · (n − 1) · . . . · (n − k + 1) =
n! . (n − k)!
Příklad 1.2. V první fotbalové lize je 16 mužstev. Kolika způsoby mohou být na konci soutěže obsazeny stupně vítězů? Řešení. Vybíráme trojici mužstev, která obsadí stupně vítězů. Na pořadí v této trojici samozřejmě záleží.
5
1.3 Uspořádané výběry (variace)
V (16, 3) =
16! = 16 · 15 · 14 = 3360 (16 − 3)!
Stupně vítězů mohou být obsazeny 3 360 způsoby. N V případě, že velikost uspořádaného výběru je totožná s rozsahem množiny M tj. k = n používáme pro tento typ variací název permutace. U permutací tak jde v podstatě o různá uspořádání prvků téže množiny (přesmyčky).
1.3.2
Permutace bez opakování
Permutace množiny M (bez opakování) jsou každá navzájem různá uspořádání množiny M . Počet permutací n prvkové množiny stanovíme na základě vztahu n! = n! (n − n)!
Příklad 1.3. Předsednictvo zastupitelstva města Bopamar je složeno z 5 osob – předsedy, 1. místopředsedy, 2. místopředsedy, ekonoma a řadového člena. Předpokládejme, že předsednictvo je už zvoleno a je pouze třeba rozdělit si funkce. Kolik je možností, jak si funkce rozdělit? Řešení. Je zřejmé, že jde o permutace (přesmyčky) 5 členné množiny. P (5) = 5! = 5 · 4 · 3 · 2 · 1 = 120 Předsednictvo si tedy může rozdělit funkce 120 způsoby. N Označme opět M jako libovolnou n prvkovou množinu.
1.3.3
Variace k třídy s opakováním
Tak nazýváme každou uspořádanou k-tici prvků množiny M , v níž se jednotlivé prvky mohou opakovat. Z kombinatorického pravidla součinu plyne, že počet variací k třídy s opakováním určuje výraz V ∗ (n, k). V ∗ (n, k) = nk
+
P (n) = V (n, n) =
6
+
Kombinatorika – opakování učiva ze SŠ
Příklad 1.4. Určete kolik je možností jak sestavit 6 místné telefonní číslo. Řešení. V tomto případě si zvolíme množinu M, M = {0; 1; 2; 3; 4; 5; 6; 7; 8; 9}. Potřebujeme obsadit 6 míst.
Je zřejmé, že existuje celkem V ∗ (10, 6) = 106 možností jak uspořádat 10 číslic do šestice. V tuto chvíli si musíme uvědomit, že telefonní číslo nemůže začínat „0“, proto musíme tyto možnosti od celkového počtu odečíst.
V ∗ (10, 5) = 105 Mezi všemi 6 místnými čísly je 105 čísel začínajících „0“. Existuje tedy 900000 (106 –105 ) možností jak vytvořit 6 místné telefonní číslo. N
1.3.4
Permutace s opakováním
Mějme uspořádanou k-tici prvků (a1 , . . . , ak ) a uspořádanou k-tici přirozených čísel (n1 , . . . , nk ). Označme
n X
ni = n.
i=1
Pak uspořádanou n-tici obsahující prvek a1 n1 -krát, prvek a2 n2 -krát, . . . , prvek ak nk -krát nazýváme permutací s opakováním. Počet permutací s opakováním je dán vztahem
7
1.4 Neuspořádané výběry (kombinace)
P (n) n! = P (n1 ) · P (n2 ) · . . . · P (nk ) n1 ! · n2 ! · . . . · nk !
Příklad 1.5. Na plakátovací plochu o kapacitě 10 míst se mají vylepit reklamní plakáty 4 společností. Společnost ARMA si předplatila 3 plakáty, společnost BRUNO 2 plakáty, společnost CEKO 1 plakát a společnost DINA 4 plakáty. Určete, kolika různými způsoby lze plochu pokrýt. Řešení. Předpokládáme-li, že každá společnost dodala pouze jediný druh plakátu, pak jednotlivé varianty polepení tvoří permutace s opakováním. P ∗ (3, 2, 1, 4) =
10 · 9 · 8 · 7 · 6 · 5 10! = = 12600 3! · 2! · 1! · 4! 3·2·2
Plakátovací plochu lze polepit 12 600 různými způsoby. N
1.4
Neuspořádané výběry (kombinace)
Kombinace se používají v případech, kdy se z množiny prvků vybírá podmnožina, jejíž prvky nemají specifickou roli, tj. jsou vzájemně zaměnitelné (nezáleží na pořadí vybraných prvků). Příkladem takovéto podskupiny je závodní družstvo mladších žáků pro běh na 1500 metrů (reprezentujících jistou ZŠ). Označme si znovu M jako libovolnou n prvkovou množinu.
1.4.1
Kombinace bez opakování
Kombinaci k-té třídy z n prvků bez opakování nazveme každou k prvkovou podmnožinu n prvkové množiny M . Počet různých kombinací k-té třídy z n prvků značíme C(n, k) a určíme podle vzorce n n! . C(n, k) = = k (n − k)! · k! Výraz kn nazýváme kombinační číslo. Příklad 1.6. Ve čtvrtém ročníku ZŠ studuje 30 chlapců a 50 děvčat. Pro reprezentaci ročníku v lehké atletice je třeba sestavit smíšené 10 členné družstvo (5 chlapců, 5 dívek). Kolik je možností jak takovéto družstvo sestavit?
+
+
P ∗ (n1 , n2 , . . . , nk ) =
8
Kombinatorika – opakování učiva ze SŠ
Řešení. Pro výpočet použijeme kombinatorické pravidlo o součinu: Celkový počet možností jak sestavit družstvo (n) je dán součinem počtu možností jak vybrat 5 chlapců ze 30 (ch) a 5 dívek z 50 (d). Počet možností jak vybrat 5 chlapců ze 30 je zřejmě 30 · 29 · 28 · 27 · 26 30 30! = = 142506. ch = C(30, 5) = = (30 − 5)! · 5! 5·4·3·2·1 5 Počet možností jak vybrat 5 dívek z 50 je 50 50! 50 · 49 · 48 · 47 · 46 d = C(50, 5) = = = = 2118760. 5 (50 − 5)! · 5! 5·4·3·2·1 A celkový počet možností jak sestavit družstvo je tedy n = ch · d = 142506 · 2118760 = 301936012560, tj. téměř 302 miliard.
+
N Příklad 1.7. Z dvacetičlenného zastupitelstva (8 z ODS, 6 z ČSSD, 4 z KDU-ČSL, 2 ze SZ) se musí zvolit pětičlenné předsednictvo (předseda, místopředseda, 3 členové). Kolika různými způsoby lze předsednictvo sestavit: (a) nejsou-li na výběr funkcí žádná další omezení (b) je-li stanoveno, že předseda a místopředseda musí být ze dvou nejsilnějších stran
Řešení. (a) Nejsou-li stanovena žádná omezení pro výběr předsednictva, je 380 (= V (2, 20) = = 20 · 19) možností jak vybrat předsedu a místopředsedu. Zbylá tři místa v předsednictvu mohou obsadit libovolní tři lidé ze zbývajících osmnácti. Takových možností je 18 · 17 · 16 18 18! = = 816. C(18, 3) = = (18 − 3)! · 3! 6 3 Uplatníme-li kombinatorické pravidlo součinu, zjistíme, že celkový počet možností, jak sestavit předsednictvo, je 310 080 (= 380 · 816). (b) Nyní je stanoveno, že předseda a místopředseda musí být ze dvou nejsilnějších stran (není řečeno, že předseda musí být z nejsilnější strany). Možností jak zvolit předsedu a místopředsedu je tedy:
9
1.4 Neuspořádané výběry (kombinace)
Zbylá tři místa v předsednictvu mohou obsadit libovolní tři lidé ze zbývajících osmnácti (bez ohledu na stranickou příslušnost). Takových možností je 816, jak bylo určeno v bodě a). Uplatníme-li kombinatorické pravidlo součinu, zjistíme, že celkový počet možností, jak v případu takových požadavků sestavit předsednictvo, je 78 336 (= = 96 · 816). N
1.4.2
Kombinace s opakováním
Kombinaci k-té třídy z n prvků s opakováním nazveme každou k-člennou skupinu sestavenou z prvků množiny M tak, že se prvky ve skupině mohou opakovat a přitom nezáleží na jejich pořadí. Počet kombinací k-té třídy s opakováním je dán vztahem C (n, k) = C(n + k − 1, k) =
n+k−1 (n + k − 1)! . = (n − 1)! · k! k
Příklad 1.8. Kvalita výrobku se rozlišuje třemi stupni jakosti: A, B, C. (a) Určete, kolik různých výsledků může mít výstupní kontrola výroby, testuje-li se kvalita 10 náhodně vybraných vzorků. (b) Kolik různých výsledků nebude obsahovat ani jeden výrobek kvality C?
Řešení. (a) Testovaný vzorek je 10 prvková skupina složená z výrobků až tří typů jakosti. Počet různých výsledků kontroly je tedy dán vztahem 3 + 10 − 1 12! ∗ C (3, 10) = = = 66. 10 (3 − 1)! · 10! Existuje 66 různých výsledků kontroly kvality 10 výrobků.
+
∗
10
Kombinatorika – opakování učiva ze SŠ
(b) Chceme-li zjistit, kolik výběrů 10-ti výrobků neobsahuje výrobek kvality C, musíme omezit počet povolených tříd ve vzorku na 2 (A, B). 2 + 10 − 1 11! ∗ C (2, 10) = = = 11. 10 (2 − 1)! · 10! V 11 různých výsledcích kontroly kvality nenajdeme výrobek kvality C. N
11
1.4 Neuspořádané výběry (kombinace)
Shrnutí:
X
S opakováním
!"# opakování
()*+,-./#012345"6 (!, ") =
$%&'%(!#)!"#*+%,*-./0 1!&234%(!#)!"#*+%,*-./0
$(!) = (!, !) = !! % (!,
$%&'%(!#5#*+%,*-./02 1!&234%(!#5#*+%,*-./02
!! (! # ")!
") = !"
$% (!1 , !2 , & , !" ) =
!! !1 ! ' !2 ! ' & ' !" !
!"# opakování
6*2)'/%(!#)!"#*+%,*-./0
S opakováním
78$)*+,-./#012345"6
6*2)'/%(!#5#*+%,*-./02
!! ! ((!, ") = ) * = " (! # ")! ' "!
( % (!, ") = )
(! + " # 1)! !+"#1 *= (! # 1)! ' "! "
• Kombinatorické pravidlo o součinu Počet všech uspořádaných k-tic, jejichž první člen lze vybrat n1 způsoby, druhý člen po výběru prvního členu n2 způsoby atd. až k-tý člen po výběru všech předcházejících členů nk způsoby, je roven n1 · n2 · . . . · nk . • Kombinatorické pravidlo o součtu Jsou-li A1 , A2 , . . . , An konečné množiny, které mají po řadě p1 , pS , pn prvků, 2, . . .S S a jsou-li každé dvě disjunktní, pak počet prvků množiny A1 A2 . . . An je roven p1 + p2 + . . . + pn .
12
?
Kombinatorika – opakování učiva ze SŠ
Kontrolní otázky 1. Co je to kombinatorika? 2. Jaká kritéria rozlišení výběru v kombinatorice znáte? 3. Definujte: (a) variace bez opakování (b) variace s opakováním (c) permutace bez opakování (d) permutace s opakováním (e) kombinace bez opakování (f) kombinace s opakováním
Úlohy k řešení
Úlohy k řešení 1. Z kolika prvků lze vytvořit 90 variací druhé třídy (bez opakování)? 2. Z kolika prvků lze vytvořit 55 kombinací druhé třídy (bez opakování)? 3. Zmenší-li se počet prvků o dva, zmenší se počet permutací (bez opakování) čtyřicetdvakrát. Určete počet prvků. 4. Z kolika prvků lze vytvořit padesátkrát více variací třetí třídy (bez opakování) než variací druhé třídy (bez opakování)? 5. V prodejně si můžete vybrat ze sedmi druhů pohlednic. Kolika způsoby lze koupit a) 10 pohlednic, b) 5 pohlednic, c) 5 různých pohlednic. 6. V knihkupectví prodávají 10 titulů knižních novinek. Kolika způsoby lze koupit a) 4 knižní novinky, b) 5 různých knižních novinek? 7. Na hokejovém turnaji, kterého se účastní 8 družstev, sehraje každý tým s ostatními právě 1 utkání. Kolik zápasů bude celkem sehráno? 8. Hokejový tým odjel na OH s 23 hráči, a to s 12 útočníky, 8 obránci a 3 brankáři. Kolik různých sestav může trenér teoreticky vytvořit? 9. Kolika přímkami lze spojit 7 bodů v rovině, jestliže: a) žádné tři z nich neleží v přímce, b) tři z nich leží v jedné přímce? 10. Kolik kružnic je určeno 10 body v rovině, jestliže žádné tři z nich neleží na přímce a žádné čtyři z nich neleží na kružnici? 11. Kolik různých hodů můžeme provést a) dvěma, b) třemi různobarevnými kostkami? 12. Kolik různých značek teoreticky existuje v Morseově abecedě, sestavují-li se tečky a čárky ve skupiny po jedné až pěti?
13
!
14
Kombinatorika – opakování učiva ze SŠ
13. Kolik prvků obsahuje množina všech pěticiferných přirozených čísel (v desítkové soustavě)? 14. Deset přátel si vzájemně poslalo pohlednice z prázdnin. Kolik pohlednic celkem rozeslali? 15. Kolikrát více je variací k-té třídy z n prvků než kombinací k-té třídy z těchto prvků (bez opakování)? 16. V plně obsazené lavici sedí 6 žáků a, b, c, d, e, f. a) Kolika způsoby je lze přesadit? b) Kolika způsoby je lze přesadit tak, aby žáci a, b seděli vedle sebe? c) Kolika způsoby je lze přesadit tak, aby žák c seděl na kraji? d) Kolika způsoby je lze přesadit tak, aby žák c seděl na kraji a žáci a, b seděli vedle sebe? 17. Student má v knihovně 4 různé učebnice o pružnosti, 3 různé učebnice matematiky a 2 různé učebnice angličtiny. Kolika způsoby je lze seřadit, mají-li zůstat učebnice jednotlivých oborů vedle sebe? 18. Kolika způsoby lze rozdělit 8 účastníků finále v běhu na 100 m do 8 drah? 19. Kolik různých anagramů lze vytvořit použitím všech písmen slova a) statistika, b) matematika? 20. Četa vojáků má vyslat na stráž 4 muže. Kolik mužů má četa, je-li možno úkol splnit 210 způsoby? 21. Kolik úhlopříček má konvexní n-úhelník? 22. V zásobníku je 7 ostrých a 3 slepé náboje. Určete, kolika způsoby lze namátkou ze zásobníku vyjmout 5 nábojů, z nichž alespoň 3 jsou ostré. 23. Kolika způsoby je možno na čtvercové šachovnici s 64 poli vybrat 3 pole tak, aby všechna tři pole neměla stejnou barvu? 24. Kolika způsoby je možno na šachovnici s 64 poli vybrat 3 pole tak, aby všechna neležela v jednom sloupci?
Úlohy k řešení
Řešení 1. n = 10 2. n = 11 3. n = 7 4. n = 52 5. a) 8 008 možností b) 462 možností c) 21 možností 6. a) 715 možností b) 252 možností 7. 28 zápasů 8. 18 480 možností 9. a) 21 přímkami b) 19 přímkami 10. 120 kružnic 11. a) 36 různých hodů b) 216 různých hodů 12. 62 různých značek 13. 90 000 čísel 14. 90 pohledů 15. Variací je k! krát více než kombinací 16. a) 720 možností b) 240 možností c) 240 možností d) 96 možností 17. 1 728 způsobů 18. 40 320 způsobů 19. a) 75 600 přesmyček
15
16
Kombinatorika – opakování učiva ze SŠ
b) 151 200 přesmyček 20. 10 vojáků 21.
n(n − 3) uhlopříček 2
22. 231 možností 23. 31 744 možností 24. 41 216 možností
17
Kapitola 2 Úvod do teorie pravděpodobnosti Cíle Po prostudování této kapitoly budete umět: • • • • • • • •
charakterizovat teorii pravděpodobnosti a matematickou statistiku, vysvětlit základní pojmy teorie pravděpodobnosti, popsat typy náhodných jevů, vysvětlit a umět používat základní relace mezi jevy, vysvětlit pojem pravděpodobnosti, popsat vlastnosti pravděpodobnostní funkce, pracovat s podmíněnou pravděpodobností, použít větu o úplné pravděpodobnosti a Bayesovu větu.
ó
18
Úvod do teorie pravděpodobnosti
2.1
ó
Základní pojmy
Cíle Po prostudování této kapitoly budete umět: • charakterizovat teorii pravděpodobnosti a matematickou statistiku, • vysvětlit základní pojmy teorie pravděpodobnosti.
2.1.1
Čím se zabývají teorie pravděpodobnosti a matematická statistika?
Ve světě kolem nás, zejména v přírodních vědách, se vyskytují procesy (např. chemické reakce), které se vyznačují tím, že nastanou-li určité podmínky, pak nutně nastane určitý výsledek. Tyto procesy označujeme jako deterministické. Stejně tak okolo nás existuje spousta věcí, jevů a událostí, které nelze předvídat – jsou důsledkem náhody. Takové procesy označujeme jako náhodné neboli stochastické. Jejich výsledek (náhodný jev) nemůžeme předem určit, protože podléhá vlivu množství často drobných, ne zcela zjistitelných vlivů, které jsou příčinou toho, že při opakované realizaci podobných podmínek dostaneme různé (náhodné) výsledky. Otázkami náhody a náhodných dějů se zabývají dvě matematické disciplíny: teorie pravděpodobnosti a matematická statistika. Teorie pravděpodobnosti je matematická disciplína, jejíž logická struktura je budována axiomaticky. To znamená, že její základ tvoří několik tvrzení (takzvaných axiomů), která vyjadřují základní vlastnosti pravděpodobnosti a všechna další tvrzení jsou z nich odvozena deduktivně. Matematická statistika je věda zahrnující studium dat vykazujících náhodná kolísání, ať už jde o data získaná pečlivě připraveným pokusem provedeným pod stálou kontrolou experimentálních podmínek v laboratoři, či o data provozní, případně o data získaná počítačovými simulacemi (tzv. metodou Monte-Carlo).
2.1 Základní pojmy
2.1.2
Základní pojmy teorie pravděpodobnosti
Teorie pravděpodobnosti se opírá o několik základních pojmů, mezi něž patří náhodný pokus, náhodný jev a jevové pole. Náhodný pokus je každý děj, jehož výsledek není předem jednoznačně určen podmínkami, za kterých probíhá. Klasické pojetí teorie pravděpodobnosti předpokládá, že náhodný pokus je, alespoň teoreticky, neomezeně opakovatelný. Příkladem náhodného pokusu tak může být hod kostkou, zjištění výšky jedince, zjištění životnosti žárovky apod. Nás nebude zajímat vlastní provádění náhodných pokusů, ale především výsledky takovýchto dějů. Pro přesný matematický popis pokusu stanovujeme množinu všech možných výsledků {ω} daného pokusu, tzv. základní prostor Ω. Tyto možné výsledky musí být zavedeny tak, aby žádné dva z nich nemohly nastat současně. Dále musí být množina možných výsledků vyčerpávající. To znamená, že při realizaci daného pokusu musí právě jeden z nich vždy nastat. Před ukončením pokusu ovšem nevíme, který výsledek to bude. Příklady základních prostorů • Ω = rub, líc – při hodu mincí • Ω = 1,2,3,4,5,6 – při hodu kostkou Za náhodný jev A budeme, v souladu s výše zavedenými pojmy, považovat každou podmnožinu A množiny Ω, zapisujeme A ⊂ Ω. Při hodu kostkou je náhodným jevem například padnutí sudého čísla, u zjištění výšky jedince může být náhodným jevem výška jedince větší než 175 cm. U termínu náhodný jev budeme v dalším textu většinou slovo náhodný vynechávat a budeme mluvit pouze o jevu. Prvky množiny Ω, popřípadě jednoprvkové podmnožiny Ω, nazýváme elementárními jevy a označujeme je ω. Jevy, které nejsou elementární, označujeme jako jevy složené. Příklad elementárního jevu • ω = {2} – při hodu kostkou Příklad složeného jevu • A = {2,4,6} – při hodu kostkou
19
20
Úvod do teorie pravděpodobnosti
2.2
ó
Označování jevů, relace a operace mezi jevy
Cíle Po prostudování této kapitoly budete umět: • popsat typy náhodných jevů, • vysvětlit vztahy (relace) mezi jevy, • používat základní operace mezi jevy. Náhodné jevy budeme obvykle označovat velkými písmeny latinské abecedy (A, B, C, X, Y, Z, ...).
2.2.1
Jaké jsou typy náhodných jevů?
Budeme říkat, že při realizaci náhodného pokusu nastal (nastoupil) jev A, jestliže nastal elementární jev ω ⊂ Ω, takový, že ω ⊂ A. Elementární jev ω ⊂ A nazýváme také výsledek příznivý jevu A. Jev, který nastane nutně při každé realizaci náhodného pokusu, nazýváme jev jistý. Jev, který nemůže v daném pokusu nikdy nastat, nazýváme jev nemožný. Jev jistý budeme značit Ω, jev nemožný ∅.
2.2.2
Pravidla pro práci s náhodnými jevy
Jednotlivé jevy mezi sebou vstupují do vzájemných vztahů. Vzhledem k tomu, že jev je jen jiné označení pro podmnožinu množiny Ω, můžeme zavést relace mezi jevy, které odpovídají množinovým relacím. Vztahy (relace) mezi jevy vyjadřujeme pomocí množinových inkluzí. • Jev A je podjevem jevu B, značíme A ⊂ B Znamená to, že jev A má za následek jev B (tj. nastane-li jev A, nastane taktéž jev B). A ⊂ B ⇔ (ω ∈ A ⇒ ω ∈ B) ֞ ܤ ؿ ܣሺ߱ ܤ א ߱ ֜ ܣ אሻ
B A W
Obr. 2.1: Vennův diagram – A ⊂ B
ܣൌܤ ሺר ܤ ؿ ܣ ܣ ؿ ܤሻ
21
2.2 Označování jevů, relace a operace mezi jevy
Příklad – házení kostkou: Nechť jev A - padne číslo 2, jev B – padne sudé číslo. Jev A je pak podjevem jevu B. • Rovnost jevů, značíme A = B Znamená to, že jev A má za následek jev B a naopak jev B má za následek jev A (A ⊂ B ∧ B ⊂ A). Příklad – házení kostkou: Nechť jev A – padne sudé číslo, jev B – padne číslo dělitelné 2. Jev A je pak roven jevu B. • Disjunktní jevy A, B Dva jevy A, B nemohou nastat současně, nemají-li společný žádný elementární jev (společný výsledek). Takovéto jevy budeme nazývat jevy disjunktní (někdy též neslučitelné).
A
B W
Obr. 2.2: Vennův diagram – disjunktní jevy A, B Příklad – házení kostkou: Definujme jev A – padne sudé číslo, jev B – padne liché číslo. Tyto jevy nemají žádný možný výsledek. Jestliže nastane jev A, ܣ ǡ ݅ ൌ společný ͳǡ ʹǡ ǥ ܣ ǡ ܣ ്݆݅ nemůže zároveň nastat i jev B a naopak. Obdobně lze říci, že náhodné jevy Ai , i = 1, 2, ... jsou vzájemně (říkáme také „po dvou“) disjunktní, jestliže jsou disjunktní všechny dvojice náhodných jevů Ai , Aj pro i 6= j . Operace s náhodnými jevy vyjadřujeme pomocí množinových operací ܣҧ ൌ ሼ߱ȁሺ߱ אȳሻ רሺ߱ בሻሽ
¯ ܣҧ A • Doplněk jevu A v Ω, opačný jev, značíme ¯ který Opačným jevem (doplňkovým) k jevu A v Ω budeme rozumět jev A, nastane právě tehdy, když nenastane jev A.
A
ܣҧ
W
Obr. 2.3: Vennův diagram – doplněkܲሺܤȁܣሻ jevuൌAܲሺܤሻ
ഥ ܶ תሻ ܲሺܰ ܶ תሻ ܲሺܰ ܲሺܺ ܽሻ
λ
ܲሺܶሻ ൌ
22
Úvod do teorie pravděpodobnosti Příklad – házení kostkou: Jev A – padne sudé číslo, pak jev A¯ – padne liché číslo. • Průnik jevů, značíme A ∩ B Průnik jevů je jev, který nastane, když nastanou jevy A a B současně (čteme A průnik B nebo A a zároveň B – nastává totiž jak jev A tak i jev B současně).
A
AÇB
B W
Obr. 2.4: Vennův diagram – A ∩ B Příklad – házení kostkou: jev A nechť značí – padne číslo 2 nebo 3 nebo 4, jev ܣ jev ځୀଵže ځஶ B – padne sudé číslo. Je zřejmé, A∩ܣ B ={2,4}. ୀଵ ܣ
T T Obdobně lze říci, že náhodné jevy ni=1 Ai a ∞ i=1 Ai nastanou, jestliže nasta ஶ nou všechny jevy Ai . ځୀଵ ܣ ځୀଵ ܣ ܣ
• Sjednocení jevů, značíme A ∪ B O sjednocení jevů A a B hovoříme tehdy, jestliže nastává jev A nebo jev B. Slůvko „nebo“ znamená nejen to, že může nastat pouze jeden z těchto jevů, ale i to, že mohou nastat oba jevy zároveň. Jinými slovy, nastane alespoň jeden z těchto jevů. B
A AÈB
W
ܣ
ஶ
ڂୀଵ ܣ ڂୀଵ ܣ Obr. 2.5: Vennův diagram – A ∪ B
Příklad – házení kostkou: nechť jev A = {1, 3, 4}, nechť dále jev B je padnutí sudého čísla. Je zřejmé, že jev A ∪ ܣB ={1,2,3,4,6}. ڂୀଵ ڂஶ ୀଵ ܣ ܣ
ܤ̳ܣൌ ܤ ת ܣത Sn ב ߱ ר ܣ אSܤሽ∞ ܤ̳ܣൌ ሼ߱ȁ߱
Obdobně lze říci, že náhodné jevy alespoň jeden jev Ai .
i=1
Ai a
i=1
ܤ̳ܣൌ ܤ ת ܣത ܤ̳ܣൌ ሼ߱ȁ߱ ܤ ב ߱ ר ܣ אሽ
Ai nastanou, jestliže nastane
23
2.2 Označování jevů, relace a operace mezi jevy
• Rozdíl jevů, značíme A \ B Rozdílem jevů A a B budeme chápat jev, který nastává právě tehdy, nastane-li jev A a současně nenastane jev B. A
B A\B
W
Obr. 2.6: Vennův diagram – A \ B ¯ A\B =A∩B ܣǡ ܤǡ ؿ ܥȳ
A \ B = {ω|ω ∈ A ∧ ω ∈ / B}
ܤ– ܣházení ൌ ܣ ܤkostkou: ܤ ת ܣൌ ת ܤJev ܣA – padne číslo větší než dvě, jev B – padne Příklad ܣሺܥ ܤሻ ൌ ሺܤ ܣሻ ת ܣ ܥ ሺܥ ת ܤሻ ൌ ሺܤ ת ܣሻ ܥ ת sudé číslo. a Bܥሻjeܣpak jev \B ={3,5}. ܣሺܤRozdíl ܥ תሻ ൌ ሺܣjevů ܤ ሻ A תሺܣ תሺ ܤ ܥሻ A ൌ ሺܣ ܤ תሻ ሺܥ ת ܣሻ ܣܣൌܣתܣ ܣൌܣ
Rovněž vlastnosti s náhodnými jevy jsou totožné s vlastnostmi operací s ܣൌ ܣoperací תܣൌ ȳ ൌ ȳA,ܣB, תȳCൌ ⊂ ܣΩ, pak množinami. ܣതതതതത Nechť 1. A ∪
ሺܣҧሻ ൌ ܣ തതതതതതത ܤ תതA ܣ B =ܤ Bൌ∪ܣҧA,
∩ B = B ∩ A,
2. A ∪ (B ∪ C) = (A ∪ B) ∪ C, A ∩ (B ∩ C) = (Aതതതതതത ∩ B) ∩ C, ܤڂܣ
3. A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C), A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C), ܣǡ ܤǡ ؿ ܥȳ
4. A ∪ A = A, A ∩ A = A, ܤܣൌ ܤתܣ ܣܤൌܣתܤ ת ܣሺܥ ת ܤሻ ൌ ሺܤ ת ܣሻ ܥ ת ሺܤ ת ܣሻ ሺܥ ת ܣሻ ܣሺܥ ת ܤሻ ൌ ሺܤ ܣሻ תሺܥ ܣሻ ת ܣሺܥ ܤሻ ൌ തതതതതത ܤڂܣ ൌܣ ൌ ܣA, A ∪ Ωܣ= ܣΩ, A ת∩ܣΩ= ܣ ܣതതതതതതത ൌתܣ ܣൌ ܤ ת ܣൌ ܣҧ ܤ ത ܣȳൌȳ תܣȳൌܣ ¯ (A) =തതതതതA, ሺܣҧሻ ൌ ܣ തതതതതത തതതതതതത ܤځܣ ܣ ܤ ൌ ܣҧ ܤ תത
5. A ∪ ∅=ܣ A,Aܥሻ∩ൌ∅ሺܤ =ܣሻ ∅, ܥ ሺܤ 6. 7.
¯ 8. A ∪ B = A¯ ∩ B,(1. de Morganův zákon),
തതതതതത ܤڂܣ B
A തതതതതത ܤځܣ
W തതതതതത ܤڂܣ
Obr. 2.7: Vennův diagram – 1. de Morganův zákon തതതതതതത ܤ ת ܣൌ ܣҧ ܤ ത
¯ 9. A ∩ B = A¯ ∪ B,(2. de Morganův zákon)
തതതതതത ܤځܣ
തതതതതത ܤځܣ
തതതതതത ܤڂܣ
തതതതതത ܤڂܣ
24
Úvod do teorie pravděpodobnosti
തതതതതതത ܤ ת ܣൌ ܣҧ ܤ ത തതതതതത ܤځܣ A B
തതതതതത ܤځܣ
Obr. 2.8: Vennův diagram – 2. de Morganův zákon
2.2.3
Množiny náhodných jevů
V teorii pravděpodobnosti se setkáváme se dvěma význačnými množinami náhodných jevů – úplnou množinou vzájemně disjunktních jevů a jevovým polem. • Úplná množina vzájemně disjunktních jevů1 Úplná množina vzájemně disjunktních jevů je množina po dvou disjunktních jevů {A1 , A2 , A3 , . . . , An } s nenulovou pravděpodobností výskytu (značíme P (Ai ) > 0), jejichž sjednocení tvoří množinu Ω. Zapsáno symbolicky
Ω=
n [
Ai , kde P (Ai ) > 0, Ai ∩ Aj = ∅, pro i 6= j, i, j = 1, 2, . . . , n.
i=1 ܲሺܣ ሻ Ͳ
Říkáme, že základní z ǡúplné disjunktních ȳ ൌ ڂୀଵ ܣ prostor ǡ ݇݀݁ܲሺܣ ሻje Ͳǡsložen ܣ ܣ ת ൌ ് ݅ݎmnožiny ݆ǡ ݅ǡ ݆ ൌ ͳǡʹǡ ڮvzájemně ǡ݊ jevů. A1
A2
A5
A4 A3
A6
W
Obr. 2.9: Vennův diagram – Úplná množina šesti vzájemně disjunktních jevů ऋ
ࣛ Ω) • Jevové pole A (σ-algebra na ȳࣛא
Jevové pole na Ω) je systém podmnožinࣛ základního prostoru Ω א ܣAࣛǣ(σ-algebra ܣҧ ࣛ א obsahující Ω a uzavřený vůči doplňku aࣛvůči sjednocení. ஶ ሼܣ ሽஶ ୀଵ ڂ ฺ ࣛ אୀଵ ܣ ࣛ א
1
ሼܣ ሽஶ ୀଵ ࣛ
Úplná množina vzájemně disjunktních jevů je rozkladem množiny Ω ࣛ ȳ
ࣛ
25
2.2 Označování jevů, relace a operace mezi jevy
Vzhledem k definici jevového pole A platí: a) Ω ∈ A, b) ∀A ∈ A : A¯ ∈ A,
c) {Ai }∞ i=1 ∈ A ⇒
S∞
i=1
Ai ∈ A
tzn. jev jistý je prvkem jevového pole (neprázdnost jevového pole), tzn. je-li jev A prvkem jevového pole, je prvkem jevového pole rovněž doplněk jevu A (uzavřenost jevového pole vůči doplňku), tzn. jsou-li jevy prvky jevového pole, je prvkem jevového pole rovněž jejich sjednocení (uzavřenost jevového pole vůči sjednocení, tzv. σ – aditivita).
Příklad 2.1. Náhodný pokus spočívá v jednom hodu klasickou hrací kostkou se stěnami očíslovanými od 1 do 6. Náhodný jev A nastane, jestliže padne liché číslo ¯ B, ¯ a náhodný jev B nastane, jestliže padne číslo menší než 4. Určete Ω, A, A, A ∪ B, A ∩ B, A \ B, B \ A. Řešení. Rozumné bude za základní prostor zvolit šestiprvkovou množinu . Její prvky jsou elementární jevy {1}, {2}, {3}, {4}, {5}, {6} . Jevy A a B jsou podmnožinami základního prostoru Ω. Příslušné jevové pole A je množinou všech podmnožin základního prostoru. A = {∅, {1}, {2}, {3}, {4}, {5}, {6}, {1, 2}, {1, 5}, . . . , {5, 6}, . . . , {2, 3, 4, 5, 6}, Ω} A = {1, 3, 5}...padne liché číslo, B = {1, 2, 3}...padne číslo menší než 4. Nyní můžeme určit hledané jevy. A¯ = Ω − A = {2, 4, 6}...padne sudé číslo, ¯ = Ω − B = {4, 5, 6}...padne číslo větší než 3, B A ∪ B = {1, 2, 3, 5}...padne liché číslo nebo 2, A ∩ B = {1, 3}...padne 1 nebo 3, A \ B = {5}...padne 5, B \ A = {2}...padne 2. N
+
Lze si představit, že jevové pole představuje souhrn informací, které o výsledcích náhodného pokusu máme. Ne všechny jevy v Ω musí být totiž pozorovatelné.
26
X
Úvod do teorie pravděpodobnosti
Shrnutí: Teorie pravděpodobnosti je matematická disciplína, jejíž logická struktura je budována axiomaticky. Její základ tvoří několik tvrzení (axiomů), která vyjadřují základní vlastnosti pravděpodobnosti, a všechna další tvrzení jsou z nich odvozena deduktivně. Matematická statistika je věda zahrnující studium dat vykazujících náhodná kolísání. Náhodný pokus je každý děj, jehož výsledek není předem jednoznačně určen. Základní prostor Ω (elementárních jevů) je množinou všech výsledků pokusu. Elementární jev {ω} je prvek, popřípadě jednoprvková podmnožina, základního prostoru Ω. Náhodný jev A je libovolná podmnožina základního prostoru Ω. Pro náhodné jevy platí algebraické zákony a rovnosti stejné jako pro množiny. Úplná množina vzájemně disjunktních jevů je množina po dvou disjunktních jevů {A1 , A2 , A3 , . . . An }, P (Ai ) > 0, jejichž sjednocení tvoří množinu Ω. Jevové pole A (σ-algebra na Ω) je neprázdný systém podmnožin základního prostoru Ω uzavřený vůči doplňku i sjednocení.
2.3 Pravděpodobnost a její vlastnosti
2.3
Pravděpodobnost a její vlastnosti
Cíle Po prostudování této kapitoly budete: • • • • •
27
umět vysvětlit pojem pravděpodobnosti, umět definovat pravděpodobnost pomocí axiomů, znát vlastnosti pravděpodobnostní funkce, umět pracovat s podmíněnou pravděpodobností, umět používat větu o úplné pravděpodobnosti a Bayesovu větu.
Dříve než se pustíte do studia tohoto odstavce, doporučujeme vaší pozornosti příspěvek Trocha pravděpodobnosti pro běžný život uveřejněný na blogu MyEgo.cz (autor publikuje pod přezdívkou Drugstar). Pokud jste si příspěvek přečetli, zkuste se zamyslet nad tím, co pro Vás samotné znamenají výrazy „pravděpodobnost“ a „pravděpodobný“. Určitě jste je už někdy slyšeli, zřejmě i sami použili! Při studiu této kapitoly, resp. při řešení pravděpodobnostních úloh, pak mějte na paměti, že „Pravděpodobnost vám tedy nikdy neříká nic o tom, co se stane v jednom konkrétním případě! Říká jen, jaký bude výsledný poměr sledovaných jevů při dostatečně vysokém počtu jejich realizace, ale opět neříká nic o tom, jaké konkrétní prvky budou součástí oněch jevů. Příklad: ze zkušenosti víte, že pětina králíků vám každý rok uhyne. Pokud tedy vyberete jednoho králíka, pravděpodobnost, že vám letos uhyne, je 0,2. Tato informace však vůbec nic neříká o tom, zda to bude zrovna tento králík. Stejně tak pokud jste desetkrát hodili mincí a vždy vám padla panna, neznamená to, že pojedenácté vám spíše padne orel. Pravděpodobnost (kromě oněch hraničních případů jistoty a nejistoty) nikdy nemůže přinést informaci o jednom konkrétním případu.“ Drugstar, Trocha pravděpodobnosti pro běžný život, dostupné na: http://myego.cz/item/trocha-pravdepodobnosti-pro-bezny-zivot
ó
28
Úvod do teorie pravděpodobnosti
2.3.1
Pojem pravděpodobnosti
Výsledek náhodného pokusu nelze s jistotou předpovědět. Některé výsledky však nastávají častěji, některé méně často, některé velmi zřídka. Při větších sériích opakování však i náhodné pokusy (resp. jejich výsledky) vykazují určité zákonitosti a pravidelnosti. Studium těchto zákonitostí je obsahem teorie pravděpodobnosti. Pravděpodobností označujeme míru očekávatelnosti výskytu náhodného jevu. S rostoucí pravděpodobností roste šance, že jev nastane. Pravděpodobnost se obecně označuje číslem z intervalu h0; 1i. Jev nemožný, tj. jev, který nemůže nastat, má pravděpodobnost 0, naopak jev jistý má pravděpodobnost 1. Někdy se nekorektně, ale názorně, pravděpodobnosti násobí číslem 100 a uvádějí v procentech. (Úmluva: V některých případech budeme toto názorné uvádění pravděpodobnosti používat i my.) Matematizací pojmu pravděpodobnost se ve své korespondenci (1654) zabývali Pierre de Fermat a Blaise Pascal, a to zejména v kontextu hazardních her a s tím spojených kombinatorických problémů. Zdaleka nejvýznamnějším klasikem teorie pravděpodobnosti však byl Pierre-Simon Laplace. Laplace chápal pravděpodobnost jako nástroj pro popis všech problémů s neúplnou vstupní informací. Přínosů Laplace pro teorii pravděpodobnosti je tolik, že ani jejich základní výčet zde není možný. Mimo jiné (znovu) objevil jednu z klíčových formulí teorie pravděpodobnosti, známou dnes jako Bayesův teorém (Kap. 2.3.9). Jako jednoduchý a názorný zvláštní případ pro výpočet hodnoty pravděpodobnosti uvedl Laplace1 (1812) definici uvedenou v Kap. 2.3.2.
2.3.2
Klasická (Laplaceova) definice pravděpodobnosti
Je-li základní prostor konečná neprázdná množina elementárních jevů {ω1 , ..., ωn }, které mají stejnou šanci, tj. stejnou pravděpodobnost výskytu ( n1 ) , pak pravděpodobnost, že při realizaci náhodného pokusu jev A nastane je P (A) = kde:
1
m n
... ...
m n
počet výsledků (elementárních jevů) příznivých jevu A, počet všech možných výsledků
Laplace ve svém díle předkládá i nástroje pro řešení mnohem obecnější situace. Například takové, které nevyžadují předpoklad, že všechny výsledky jsou stejně možné, popř. pro situace, které neumožňují mnohonásobné opakování náhodného pokusu
Příklad 2.2. Ve třídě 20 chlapců a 12 dívek jsou losem určeni 2 mluvčí. Jaká je pravděpodobnost, že oba mluvčí budou různého pohlaví? Řešení. Protože výběr mluvčích je prováděn losem, má každý z žáků třídy stejnou šanci stát se mluvčím. Pro výpočet hledané pravděpodobnosti proto použijeme klasickou definici pravděpodobnosti. Počet možných výsledků pokusu je dán počtem různých dvojic z 32 žáků (20 + 12) a lze jej vyjádřit kombinačním číslem C(2, 32). Počet příznivých výsledků je 240 (20 · 12). Hledaná pravděpodobnost je tedy dána podílem P (A) =
240 240 240 . = = = 0, 484 32! 32 C(2, 32) (32 − 2)! · 2! 2
Pravděpodobnost zkoumaného jevu je přibližně 0,484. N
2.3.3
Statistická (empirická) „definice“ pravděpodobnosti
Na počátku 20. století pracovala většina učebnic s klasickou definici pravděpodobnosti, přestože tato nebyla schopna popsat zdaleka všechny problémy, kterými se teorie pravděpodobnosti zabývala. V roce 1919 publikoval své první práce z teorie pravděpodobnosti Richard von Mises . Misesův přístup k pravděpodobnosti je založen na empirickém zkoumání, jež vede k pozorování „stability relativních četností“. Umožňuje určit pravděpodobnost jevu v případě, že není známo jeho bližší chování (tj. elementární jevy, při kterých zkoumaný jev nastává, a jejich pravděpodobnosti). Jestliže je náhodný pokus libovolněkrát (alespoň teoreticky) opakovatelný za stejných statistických podmínek (např. hod kostkou či mincí, ...), pak lze pravděpodobnost jevu odhadnout na základě počtu jevů příznivých výsledku pokusů.
Provedeme-li n realizací náhodného pokusu, přičemž n(A) realizací je příznivých jevu A, pak pravděpodobnost jevu A můžeme odhadnout poměrem P (A) ≈
n(A) n
Tento odhad je tím přesnější, čím je počet realizací náhodného pokusu (n) vyšší. Statistická definice pravděpodobnosti nám například umožňuje odhadnout pravděpodobnost toho, že padne šestka na nepoctivé („cinknuté“) kostce.
+
29
2.3 Pravděpodobnost a její vlastnosti
30
Úvod do teorie pravděpodobnosti
Relativní četnost jevu {6}
0,6 0,5 0,4 0,3 0,2 0,1 0 0
20
40
60
80
100
Počet pokusů
Obr. 2.10: Závislost relativní četnosti „padnutí šestky“ na nepoctivé kostce na počtu pokusů
2.3.4
Geometrická pravděpodobnost
Dalším historickým příkladem definice pravděpodobnosti může být tzv. geometrická definice, která umožňuje určit pravděpodobnost v případech, kdy počet všech možných výsledků náhodného pokusu je nespočetný. Definice je založena na porovnání objemů, obsahů nebo délek geometrických útvarů. Používáme ji v případech, které lze převést na toto schéma: V rovině (případně na přímce nebo v části prostoru) je dána určitá oblast Ω a v ní další oblast A. Pravděpodobnost jevu A, který spočívá v tom, že náhodně zvolený bod v oblasti Ω leží i v oblasti A je P (A) =
|A| , |Ω|
+
kde |A|,|Ω| jsou vhodné míry oblastí A a Ω . Příklad 2.3. Petr a Tereza, zapřisáhlí odpůrci mobilních telefonů, se domluví, že se sejdou na určitém místě mezi 15. a 16. hodinou, přičemž doba čekání je 20 minut. Jaká je pravděpodobnost, že se po této dohodě setkají? Řešení. Každý teoretický okamžik setkání Petra a Terezy má stejnou šanci, počet všech možných okamžiků setkání je nespočetný, proto použijeme pro výpočet geometrickou definici pravděpodobnosti. Nechť čas příchodu Terezy určuje souřadnici x a čas příchodu Petra určuje souřadnici y ve čtverci (Obr. 2.11). Všechny možné okamžiky příchodů Petra a Terezy jsou vymezeny plochou čtverce. |Ω| = 60.60 = 3600 Oblast A vymezená čtvercem a řešením nerovnice obsahuje okamžiky, v nichž se Petr s Terezou skutečně setkají.
31
2.3 Pravděpodobnost a její vlastnosti
y [min] 60
x[min] ... doba po 15. hodině v níž přijde Tereza, x ∈ h0, 60i
A
40
y[min] ... doba po 15. hodině v níž přijde Petr, y ∈ h0, 60i
20
0
20
40
60
x [min]
Obr. 2.11: Vymezení doby setkání Petra a Terezy
|A| = 3600 - 40.40 = 2000 ȁ ݔെ ݕȁ ʹͲ Hledaná pravděpodobnost je dána podílem
P (A) = ܲሺܣሻ ൌ
ଶ ଷ
2000 5 = = 0, 56. 3600 9 ହ
ൌ ൌ Ͳǡͷ ଽ
Pravděpodobnost setkání Petra a Terezy je 0,56. N
2.3.5
Kolmogorovova definice pravděpodobnosti
Geometrická definice pravděpodobnosti v uvedené zjednodušené podobě je přirozeným východiskem pro definici pravděpodobnosti jako určité normované míry, popsané axiomaticky1 jazykem teorie množin. Dnes obecně uznávaná Kolmogorovova (axiomatická) definice pravděpodobnosti z roku 1933 popisuje přiřazení pravděpodobnosti náhodnému jevu. Kolmogorov pro svoji definici pravděpodobnosti použil abstraktní množinu Ω vybavenou σ – algebrou A (jevové pole), spolu s konečnou mírou P definovanou na A. Kolmogorovova definice pravděpodobnosti Je-li A jevové pole, pak pravděpodobnost na jevovém poli A je reálná funkce, pro kterou platí tzv. Kolmogorovovy axiomy pravděpodobnosti. 1. Pravděpodobnost každého jevu A ∈ A je nezáporné reálné číslo (P (A) = 0). 1
Axióm (pocházející z řeckého slova axióma = to co se uznává) je tvrzení, které se předem (a priori) pokládá za platné a tudíž se nedokazuje
32
Úvod do teorie pravděpodobnosti
2. Pravděpodobnost jistého jevu je rovna jedné (P (Ω)=1). 3. Pravděpodobnost sjednocení spočetného počtu vzájemně disjunktních (neslučitelných) jevů je rovna součtu jejich pravděpodobností (Ai ∈ A, i = 1, ∀i 6= ∞ S P 6= j : Ai ∩ Aj = ∅ ⇒ P ( ∞ A ) = P (Ai )). i=1 i i=1
Uspořádaná trojice (Ω, A, P ) tvoří takzvaný pravděpodobnostní prostor. Kolmogorovova (axiomatická) definice pravděpodobnosti je dostatečně obecná, neboť funkce P může představovat míru na dané σ-algebře. Klasická, statistická a geometrická definice pravděpodobnosti pak představují pouze speciální, v praxi však často používané, případy axiomatické definice. Kolmogorovovy axiomy vyhovují nejen předchozím definicím pravděpodobnosti, ale i modernějšímu pojetí pravděpodobnosti jako šance na splnění určitého jevu, která je stanovena často pouze intuitivně a subjektivně. Z Kolmogorovových axiomů vyplývají následující vlastnosti pravděpodobnosti.
2.3.6
Vlastnosti pravděpodobnosti
Nechť jevy A, B ∈ A, pak 1. 0 5 P (A) 5 1, 2. P (∅) = 0, ¯ = 1 − P (A), 3. P (A) 4. A ⊂ B ⇒ P (A) 5 P (B) 5. P (B − A) = P (B) − P (A ∩ B), speciálně • A ⊂ B ⇒ P (B − A) = P (B) − P (A), 6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B), speciálně • A ∩ B = ∅ ⇒ P (A + B) = P (A) + P (B). Všechny uvedené vlastnosti se dají snadno dokázat přímo z axiomatické definice pravděpodobnosti. Přímým důsledkem de Morganových zákonů jsou pak následující vlastnosti. ¯ 7. P (A ∪ B) = 1 − P (A ∪ B) = 1 − P (A¯ ∩ B) ¯ 8. P (A ∩ B) = 1 − P (A ∩ B) = 1 − P (A¯ ∪ B)
33
2.3 Pravděpodobnost a její vlastnosti
Všimněte si, že axiomatický systém definuje pojem pravděpodobnosti a vlastnosti pravděpodobnosti, neudává však žádný návod k jejímu stanovení.
2.3.7
Nezávislost jevů, podmíněná pravděpodobnost a pravděpodobnost průniku
Podmíněná pravděpodobnost P (A|B) (čti „pravděpodobnost, že nastane jev A za podmínky, že nastal jev B“) je definována vztahem P (A|B) =
P (A ∩ B) , P (B)
kde P (B) 6= 0. Z tohoto vztahu lze odvodit vztah pro pravděpodobnost průniku dvou jevů. P (A ∩ B) = P (A|B) · P (B) Je zřejmé, že pravděpodobnost průniku dvou jevů je rovna součinu podmíněné pravděpodobnosti a pravděpodobnosti podmínky. Jestliže platí P (A ∩ B) = P (A) · P (B), řekneme, že jevy A, B jsou nezávislé.
Příklad 2.4. Jaká je pravděpodobnost, že na poctivé hrací kostce padne dvakrát po sobě jednička? Řešení. Definujme si jevy A, B takto: A – „padne jednička v prvním hodu“ B – „padne jednička ve druhém hodu“ Jestliže v prvním hodu padne jednička, nijak to neovlivní pravděpodobnost, že jednička padne také ve druhém hodu. Jevy A, B jsou nezávislé, proto je pravděpodobnost, že v obou hodech padnou jedničky, součinem jednotlivých pravděpodobností. P (A ∩ B) = P (A) · P (B) =
1 1 1 . · = = 0, 028 6 6 36
Pravděpodobnost, že při dvou hodech kostkou padnou dvě jedničky, je přibližně 2,00 %. N
+
Jsou-li jevy A a B nezávislé, pak P (A|B) = P (A), čili nastoupení nebo nenastoupení jevu B nemá žádný vliv na nastoupení jevu A. Vzhledem k tomu, že ani výskyt jevu B nezávisí na výskytu jevu A, musí současně platit P (B|A) = P (B).
34
Příklad 2.5. Neprůhledný pytlík obsahuje 10 černých a 5 bílých kuliček. Budeme provádět náhodný pokus – vytažení jedné kuličky, přičemž kuličku do pytlíku nevracíme. Určete pravděpodobnost, že v druhém tahu vytáhneme bílou kuličku.
Řešení. Jev B1 C1 B2 C2
Definice jevu při první realizaci náh. pokusu byla vytažena bílá kulička při první realizaci náh. pokusu byla vytažena černá kulička při druhé realizaci náh. pokusu byla vytažena bílá kulička při druhé realizaci náh. pokusu byla vytažena černá kulička
Stav pytlíku před první realizací pokusu:
10 ks
5 ks
Pravděpodobnost, že při první realizaci pokusu vytáhnu bílou (resp. černou) kuličku, je zřejmě ͷ ͳͲ ͷ 5 ሻ ൌ= ሺͳܥ ሻ=ൌͳͲ10 ܲͳܥ Pሺͳܤ (B1) , resp.ܲP (C1) ሻൌ ሺ ሻ ܲሺܲͳܤ ൌ ͳͷ ͳͷ ͳͷ 15 ͳͷ15 Je taktéž zřejmé, že stav pytlíku před druhou realizací pokusu závisí na výsledku první realizace. Stav pytlíku před druhou realizací pokusu, byla-li při prvním pokusu vytažena bílá kulička:
10 ks
4 ks
Stav pytlíku před druhou realizací pokusu, byla-li při prvním pokusu vytažena černá kulička:
+
Úvod do teorie pravděpodobnosti
35
2.3 Pravděpodobnost a její vlastnosti
9 ks
5 ks
Z obrázku vidíme a z logického úsudku plyne, že výsledek druhé realizace pokusu závisí na výsledku první realizace pokusu, jinými slovy: výsledek druhé realizace pokusu je podmíněn výsledkem první realizace pokusu. Můžeme tedy určit pravděpodobnosti následujících jevů. Jev B2|B1 C2|B1 B2|C1 C2|C1
Definice jevu při druhé realizaci náh. pokusu byla vytažena bílá kulička, jestliže při první realizaci náh. pokusu byla vytažena bílá kulička při druhé realizaci náh. pokusu byla vytažena černá kulička, jestliže při první realizaci náh. pokusu byla vytažena bílá kulička při druhé realizaci náh. pokusu byla vytažena bílá kulička, jestliže při první realizaci náh. pokusu byla vytažena černá kulička při druhé realizaci náh. pokusu byla vytažena černá kulička, jestliže při první realizaci náh. pokusu byla vytažena černá kulička
Na základě obrázků odpovídajících stavu pytlíku před druhou realizací pokusu při splnění příslušných podmínek (za svislou čarou) můžeme určit: P (B2|B1) =
4 , 14
P (C2|B1) =
10 , 14
P (B2|C1) =
5 , 14
P (C2|C1) =
9 14
ҧ
ൌ ͳ െ ܲሺܣ ܤሻP (A|B). ¯ Pozn.: Všimněte si,ܲሺܣȁܤሻ že P (A|B) = 1ȁ−
Chceme-li tedy určit například pravděpodobnost toho, že při druhé realizací náhodného pokusu vytáhneme bílou kuličku, musíme vzít v úvahu, že k tomuto jevu může dojít ve dvou případech: (B2 ∩ B1) Proto platí:
nebo
(B2 ∩ C1)
P (B2) = P ((B2 ∩ B1) ∪ (B2 ∩ C1))
Jelikož jevy (B2∩B1) a (B2∩C1) jsou neslučitelné (nemohou nastat zároveň), platí P (B2) = P (B2 ∩ B1) + P (B2 ∩ C1), P (B2) = P (B2|B1) · P (B1) + P (B2|C1) · P (C1) =
5 10 14 1 4 5 · + · = = . 14 15 14 15 42 3
Pravděpodobnost, že ve druhém tahu vytáhneme bílou kuličku je přibližně 33 %. N
36
Příklad 2.6. Pravděpodobnost, že selže hasicí systém továrny je 20 %, pravděpodobnost, že selže poplachové zařízení je 10 % a pravděpodobnost, že selžou jak hasící systém, tak i poplachové zařízení jsou 4 %. Jaká je pravděpodobnost, že a) b)
alespoň jeden systém bude fungovat, budou fungovat oba dva systémy.
Řešení. Označme si možné jevy takto: H ... hasící systém funguje S ... poplachové zařízení (siréna) funguje Víme, že:
¯ = 0, 20 P (H) ¯ P (S) = 0, 10 ¯ ∩ S) ¯ = 0, 04 P (H
Máme zjistit: ada)
P (H ∪ S)
K řešení této otázky můžeme přistupovat dvojím způsobem. Podle definice: Nejde o jevy neslučitelné (mohou nastat zároveň), proto P (H ∪ S) = P (H) + P (S) − P (H ∩ S), což můžeme vyčíslit přímo. P (H ∪ S) = 1 − 0, 04 = 0, 96 Pravděpodobnost, že bude fungovat alespoň jeden z ochranných systémů je 96 %. adb)
P (H ∩ S)
Tuto pravděpodobnost nelze určit přímo ze vztahu P (H ∩ S) = P (H|S) · P (S) = P (S|H) · P (H), neboť nemáme informace o závislosti poruch jednotlivých ochranných systémů. Proto zkusíme znovu postupovat přes jev opačný. ¯ ∪ S) ¯ = 1 − P (H) ¯ + P (S) ¯ − P (H ¯ ∩ S) ¯ , P (H ∩ S) = 1 − P (H ∩ S) = 1 − P (H ¯ + P (S) ¯ − P (H ¯ ∩ S) ¯ = 1 − [0, 20 + 0, 10 − 0, 04] = 0, 74 P (H ∩ S) = 1 − P (H) Pravděpodobnost, že oba dva ochranné systémy budou fungovat je 74 %. N
+
Úvod do teorie pravděpodobnosti
+
2.3 Pravděpodobnost a její vlastnosti
Příklad 2.7. 120 studentů absolvovalo zkoušky z matematiky a z fyziky. 30 z nich nesložilo obě zkoušky, 8 nesložilo pouze zkoušku z matematiky a 5 nesložilo pouze zkoušku z fyziky. Určete pravděpodobnost, že náhodně vybraný student a) b) c)
složil zkoušku z matematiky, víme-li, že nesložil zkoušku z fyziky, složil zkoušku z fyziky, víme-li, že nesložil zkoušku z matematiky, složil zkoušku z matematiky, víme-li, že složil zkoušku z fyziky.
Řešení. Označme si možné jevy takto: M ... student složil zkoušku z matematiky F ... student složil zkoušku z fyziky ¯ ∩ F¯ ) = 30 , P (M 120 ¯ ∩ F) = 8 , P (M 120 5 P (M ∩ F¯ ) = . 120
Víme, že:
Máme zjistit: ada) P (M |F¯ ) což určíme jednoduše podle definice podmíněné pravděpodobnosti P (M |F¯ ) =
P (M ∩ F¯ ) P (M ∩ F¯ ) = ¯ ∩ F¯ ) P (F¯ ) P (M ∩ F¯ ) + P (M
kde pravděpodobnost, že student nesložil zkoušku z fyziky, určujeme jako součet pravděpodobnosti, že student nesložil pouze zkoušku z fyziky a pravděpodobnosti, že student nesložil obě zkoušky. Po vyčíslení tedy víme, že: 5 ¯ P (M ∩ F ) 5 1 . 120 P (M |F¯ ) = = = = = 0, 14 ¯ ¯ ¯ 5 30 35 7 P (M ∩ F ) + P (M ∩ F ) + 120 120 Pravděpodobnost, že student složil zkoušku z matematiky, víme-li že nesložil zkoušku z fyziky je asi 14 %. ¯) adb) P (F |M což určíme obdobně jako při řešení předcházející úlohy.
37
38
Úvod do teorie pravděpodobnosti ¯ ¯) P (F ∩ M ¯ ) = P (F ∩ M ) = P (F |M , ¯) ¯ ) + P (F¯ ∩ M ¯) P (M P (F ∩ M Po vyčíslení tedy víme, že: 8 ¯ 8 4 . P (F ∩ M ) 120 ¯) = = = P (F |M = = 0, 21 8 30 ¯ ¯ ¯ 38 19 P (F ∩ M ) + P (F ∩ M ) + 120 120 Pravděpodobnost, že student složil zkoušku z fyziky, víme-li že nesložil zkoušku z matematiky, je přibližně 21 %. adc) P (M |F ) Opět si napíšeme definiční vztah P (M |F ) =
P (M ∩ F ) , P (F )
k němuž můžeme přistoupit dvojím způsobem. Buď se pokusíme tento vztah upravit na základě známých vztahů tak, abychom jej mohli prostřednictvím zadaných parametrů vyčíslit ¯ ∪ F¯ ) 1 − P (M P (M ∩ F ) 1 − P (M ∩ F ) = = = ¯) P (F ) 1 − P (F¯ ) 1 − P (F¯ ∩ M ) + P (F¯ ∩ M ¯ ) + P (F¯ ∩ M ¯) 1 − P (F¯ ) + P (M = ¯) 1 − P (F¯ ∩ M ) + P (F¯ ∩ M ¯ ) + P (F ∩ M ¯ ) + P (F¯ ∩ M ¯ ) − P (F¯ ∩ M ¯) 1 − P (F¯ ∩ M ) + P (F¯ ∩ M ¯) 1 − P (F¯ ∩ M ) + P (F¯ ∩ M 5 8 30 1− + + ¯ ) + P (F¯ ∩ M ¯) 1 − P (F¯ ∩ M ) + P (F ∩ M 120 120 120 = = ¯) 5 30 1 − P (F¯ ∩ M ) + P (F¯ ∩ M 1− + 120 120 77 . = 0, 91 58
P (M |F ) =
=
=
=
=
= 77 120 = 85 120
nebo se pokusíme potřebné pravděpodobnosti vyčíst přímo ze zadání. Zadané údaje si zapíšeme do tabulky: Složili zkoušku z matematiky Složili zkoušku z fyziky Nesložili zkoušku z fyziky Celkem
5
Nesložili zkoušku z matematiky 8 30 38
Celkem
35 120
39
2.3 Pravděpodobnost a její vlastnosti
a chybějící údaje v tabulce jednoduše dopočítáme.
Kolik studentů složilo zkoušku z fyziky? To je celkový počet (120) mínus počet studentů, kteří zkoušku z fyziky nesložili (35), což je 85. Obdobně určíme počet studentů, kteří složili zkoušku z matematiky, což je 120–38 = 82. A konečně počet těch, kteří složili obě zkoušky určíme např. jako počet těch, kteří složili zkoušku z matematiky (82) mínus počet těch, kteří složili pouze zkoušku z matematiky (5), což je 77.
Složili zkoušku z matematiky 77 5 82
Složili zkoušku z fyziky Nesložili zkoušku z fyziky Celkem
Nesložili zkoušku z matematiky 8 30 38
Celkem 85 35 120
Hledané pravděpodnosti jsou
P (M ∩ F ) =
77 ; 120
P (F ) =
85 120
z čehož plyne 77 77 . P (M ∩ F ) = 120 = = 0, 91. P (M |F ) = 85 P (F ) 85 120 Pravděpodobnost, že student složil zkoušku z matematiky, víme-li že složil zkoušku z fyziky, je přibližně 91 %.
Pozn.: Podle údajů v tabulce bychom mohli snadno řešit i úkoly a) a b).
Příklad 2.8. Spočtěte pravděpodobnost toho, že části obvodu mezi body 1 a 2 bude protékat elektrický proud, je-li příslušná část elektrického obvodu včetně pravděpodobnosti poruch jednotlivých součástek vyznačena na následujícím obrázku. Poruchy jednotlivých součástek jsou na sobě nezávislé. (Dojde-li k poruše součástky, dojde k přerušení obvodu.)
+
N
40
Úvod do teorie pravděpodobnosti
0,2 C 1
0,1
0,3
0,3
A
B
D
2
0,2 E
Řešení. Označme si: A B
Pak:
... ...
součástka A funguje, součástka B funguje,
¯ = 0, 1 ⇒ P (A) = 0, 9 P (A) ¯ P (B) = 0, 1 ⇒ P (B) = 0, 7
C D E
... ... ...
součástka C funguje, součástka D funguje, součástka E funguje
¯ = 0, 2 ⇒ P (C) = 0, 8 P (C) ¯ = 0, 3 ⇒ P (D) = 0, 7 P (D) ¯ = 0, 2 ⇒ P (E) = 0, 8 P (E)
Pro zjednodušení si obvod představíme jako sériové zapojení dvou bloků. Blok 1 je tvořen sériovým zapojením součástek A a B, Blok 2 je tvořen paralelním zapojením součástek C, D a E. V první fázi si určíme pravděpodobnosti poruch jednotlivých bloků. Blok 1 B1
...
Blok 1 funguje
0,1
0,3
A
B
Blok 1 funguje právě tehdy, jsou-li funkční součástky A i liB. funkční Blok 1 Máme–li sériově zapojené součástky, je vhodné určovat přímo pravděpodobnost, že systém (blok) funguje. Vzhledem k nezávislosti poruch jednotlivých součástek můžeme říci, že
P (B1) = P (A ∩ B) = P (A) · P (B) = 0, 9 · 0, 7 = 0, 63.
41
2.3 Pravděpodobnost a její vlastnosti
Blok 2 ...
B2
0,2
Blok 2 funguje
C
Blok 2 nefunguje právě tehdy, není-li funkční li funkční ani jedna ze ani jedna ze součástek C, D, E.
0,3
Máme–li paralelně zapojené součástky, je vhodné pravděpodobnost, toho, systém je ževhodné (blok) funguje určovat z pravděpodobnosti, (blok) funguje určovat že systém (blok) nefunguje.
D 0,2 E
Vzhledem k nezávislosti poruch jednotlivých součástek můžeme říci, žeivých součástek
Blok 2
¯ = P (C¯ ∩ D ¯ ∩ E) ¯ = P (C) ¯ · P (D) ¯ · P (E) ¯ = 0, 2 · 0, 3 · 0, 2 = 0, 012, P (B2) ¯ = 1 − 0, 012 = 0, 988. P (B2) = 1 − P (B2) Celý systém je při tomto značení dán sériovým zapojením Bloku 1 a Bloku 2. Zbývá nám již určit jen spolehlivost celého systému (pravděpodobnost, že systém bude funkční). spolehlivost celého systému (pravděpodobnost, že systém bude funkční). S
...
systém je funkční Blok 1
Blok 2
Systém
. - 82 P (S) = P (B1 ∩ B2) = P (B1) · P (B2) = 0, 63 · 0, 988 = 0, 62
Pravděpodobnost toho, že části obvodu mezi body 1 a 2 bude protékat elektrický proud, je přibližně 62 %. N
2.3.8
Věta o úplné pravděpodobnosti
Podmíněnou pravděpodobnost používáme k výpočtu pravděpodobnosti jevů, které jsou podmíněny nastoupením množiny vzájemně disjunktních jevů. Vztah pro pravděpodobnost nějakého jevu bez ohledu na podmiňující jevy udává věta o úplné pravděpodobnosti, kterou si nyní odvodíme.
42
Úvod do teorie pravděpodobnosti Nechť je dána úplná množina vzájemně disjunktních jevů1 {B1 , B2 , B3 , . . . , Bn }. (pro n = 6 viz Obr. 2.12).
B1
B2
B5
B4 B3
B6
W
Obr. 2.12: Úplná množina vzájemně disjunktních jevů Je zřejmé, že libovolný jev A (Obr. 2.13), (A ⊂ Ω) je sjednocením disjuktních jevů (A ∩ B1 ), (A ∩ B2 ), . . . , (A ∩ Bn ).
B1
B2
B5 A
B4 B3
B6
W
Obr. 2.13: Jev A (nad úplnou množinou disjunktních jevů) Tedy A = (A ∩ B1 ) ∪ (A ∩ B2 ) ∪ . . . ∪ (A ∩ Bn ) =
Sn
i=1 (A
∩ B).
݅ൌ ͳǡ ǥ ǡ ݊ǡ ݅ ് ݅ൌ ͳǡ ǥ ǡ ݊ǡ ݅ ് musí platit, že pravděpodobnost tohoto sjednocení je dána součtem jednotlivých pravděpodobností.
݆ǣܲሺ ݅ܤሻ Ͳǡ ݆ܤ ת ݅ܤൌ Ͳǡ σ݊݅ൌͳ ܲሺ ݅ܤሻ ൌ ͳ ݊ Jelikož jde o sjednocení disjunktních jevů, ݆ǣܲሺܤ ݅ ሻ Ͳǡ ݆ܤ ת ݅ܤൌ Ͳǡ σ݅ൌͳ ܲሺ ݅ܤሻ ൌ ͳ
P (A) =
n X
P (A ∩ Bi )
i=1
Z definice podmíněné pravděpodobnosti pak dostáváme P (A ∩ Bi ) = P (A|Bi ) · P (Bi ). 1
Připomeňme si, že pro úplnou množinu vzájemně disjunktních jevů platí, že ∀i = 1, . . . , n, i 6= n P 6 j : P (Bi ) > 0, Bi ∩ Bj = 0, = P (Bi ) = 1 i=1
43
2.3 Pravděpodobnost a její vlastnosti
Z čehož již plyne věta o úplné pravděpodobnosti. P (A) =
n X
P (A|Bi ) · P (Bi )
i=1
2.3.9
Bayseův vzorec
Při nastoupení jevu A (P (A) 6= 0) se naskýtá přirozená otázka, který z jevů Bi vedl k nastoupení jevu A, tzn. jaká je pravděpodobnost P (Bk |A). Z definice podmíněné pravděpodobnosti plyne, že P (A|Bk ) · P (Bk ) P (Bk |A) = P n P (A|Bi ) · P (Bi ) i=1
Bayesův vzorec udává, jakým způsobem vypočítáme aposteriorní pravděpodobnosti1 P (Bk |A) jevu Bk za podmínky, že nastal jev A, jestliže známe apriorní pravděpodobnosti2 P (Bi ) a podmíněné pravděpodobnosti P (A|Bi ) pro všechny jevy Bi , i = 1, 2, . . . , n. O paradoxech spojených s chápáním pravděpodobnosti se můžete dočíst například v krátkém článku uveřejněném na webu ScienceWorld
2.3.10
Rozhodovací stromy
Řešení úloh vedoucích na aplikaci věty o úplné pravděpodobnosti nebo Bayesovy věty mnohdy usnadní vhodný grafický záznam úlohy. Rozhodovací proces, který odpovídá řešení těchto úloh, lze graficky znázornit pomocí rozhodovacího stromu. Rozhodovací strom zobrazuje okamžiky rozhodování jako uzly větvení, větve pak představují všechny jednotlivé varianty řešení. Každá větev v rozhodovacím stromu je ohodnocena pravděpodobností, že bude příslušná varianta vybrána. Vynásobíme-li všechny pravděpodobnosti na cestě mezi dvěma uzly, získáme pravděpodobnost, že se z počátečního uzlu dostaneme do uzlu koncového.
Alternativou k rozhodovacímu stromu je pravoúhlý Vennův diagram, v němž obsahy jednotlivých obdélníků odpovídají pravděpodobnostem P (A ∩ Bi ) = P (A|Bi ) · P (Bi ).
1 2
Z latiny – a posteriori = na základě zkušenosti. Z latiny – a priori = z předchozího, prvotní.
ܲሺܣȁ ͳܤሻ
44
ܲሺת ܣdo ͳܤሻteorie ൌ ܲሺܣȁܤ ͳ ሻ ή ܲሺ ͳܤሻ Úvod pravděpodobnosti
ܲሺܣҧȁ ͳܤሻ
ܲሺ ͳܤሻ
ܲሺܣҧ ͳܤ תሻ ൌ ܲሺܣҧȁ ͳܤሻ ή ܲሺ ͳܤሻ
ഥ
ܲሺܣȁ ͳܤሻ
A
ܲሺܣȁ ʹܤሻ B1
ܲሺ ʹܤሻ
ܲሺܣҧȁ ͳܤሻ
ܲሺ ͳܤሻ
ܲሺܣҧȁ ʹܤሻ
ഥ
A
B2 ܲሺܣȁ ͵ܤሻ
Ω
ܲሺ ʹܤ ת ܣሻ ൌ ܲሺܣȁ ʹܤሻ ή ܲሺ ʹܤሻ
ܲሺ ͵ܤ ת ܣሻ ൌ ܲሺܣȁ ͵ܤሻ ή ܲሺ ͵ܤሻ ഥ
ܲሺܣҧȁ ʹܤሻ ܲሺ ͵ܤሻ
ܲሺܣҧ ͳܤ תሻ ൌ ܲሺܣҧȁ ͳܤሻ ή ܲሺ ͳܤሻ
ܲሺܣҧ ʹܤ תሻ ൌ ܲሺܣҧȁ ʹܤሻ ή ܲሺ ʹܤሻ
ഥ
ܲሺܣȁ ʹܤሻ
ܲሺ ͵ܤሻ ܲሺ ʹܤሻ
ܲሺ ͳܤ ת ܣሻ ൌ ܲሺܣȁ ͳܤሻ ή ܲሺ ͳܤሻ
ܲሺ ʹܤ ת ܣሻ ൌ ܲሺܣȁ ʹܤሻ ή ܲሺ ʹܤሻ
ҧȁ ͵ܤሻ ሻ ܲሺܣ ܲሺܣȁܤ ͵
ܲሺܣҧ ʹܤ תሻ ൌ ܲሺܣҧȁ ʹܤሻ ή ܲሺ ʹܤሻ
ܲሺܣҧ ͵ܤ תሻ ൌ ܲሺܣҧȁ ͵ܤሻ ή ܲሺ ͵ܤሻ
ഥ A
ܲሺ ͵ܤ ת ܣሻ ൌ ܲሺܣȁ ͵ܤሻ ή ܲሺ ͵ܤሻ
ഥ
ܲሺܣҧ ͵ܤ תሻ ൌ ܲሺܣҧȁ ͵ܤሻ ή ܲሺ ͵ܤሻ
B3 ܲሺܣҧȁ ͵ܤሻ
Obr. 2.14: Příklad rozhodovacího ܲሺת ܣstromu ݅ܤሻ ൌ ܲሺܣȁ ݅ܤሻ ή ܲሺ ݅ܤሻ ܲሺܣȁ ͳܤሻ
ܲሺ ͳܤሻ
ܲሺ ͳܤሻ
ܲሺܣȁ ʹܤሻ
ܲሺܣȁ ͳܤሻ
ҧ
ሻ ܲͳܤሺܣȁܤ ܲሺܲ ת ܣሺܣ ݅ܤሻ ȁൌ ݅ ሻ ή ܲሺ ݅ܤሻ ܲሺܣҧȁ ͳܤሻ ܲሺܣҧȁ ʹܤሻ
ܲሺ ʹܤሻ ܲሺܣȁ ʹܤሻ
ܲሺܣҧȁ ʹܤሻ
ܲሺ ʹܤሻ
Ω
ܲሺ ͵ܤሻ ܲሺܣȁ ͵ܤሻ
ܲሺܣҧȁ ͵ܤሻ
ܲሺ ͵ܤሻ ܲሺܣȁ ܤሻ
ܲሺܣҧȁ ܤሻ
͵ ͵ Obr. 2.15: Příklad pravoúhlého Vennova diagramu
+
Využití obou grafických záznamů úlohy si předvedeme v následujícím příkladu. Příklad 2.9. Laboratoř, která provádí rozbory krve, potvrdí s pravděpodobností 95 % existencí protilátek na virus určité nemoci, jestliže jí pacient skutečně trpí. Zároveň test určí jako pozitivní 1 % osob, které však touto nemocí netrpí. Jestliže 0,5 % populace trpí zmíněnou nemocí, jaká je pravděpodobnost, že určitá osoba, jejíž test byl pozitivní, skutečně onu nemoc má? Řešení. Takovéto problémy směřují k řešení pomocí věty o úplné pravděpodobnosti, popř. pomocí Bayesovy věty. Pro přehledný zápis situace použijeme rozhodovací strom. Označme si:
N T
... ...
pacient trpí nemocí test na protilátky vyšel pozitivní
Rozhodovací strom vidíme na 2.16
45
2.3 Pravděpodobnost a její vlastnosti
Ͳǡͻͷ ͲǡͲͲͷ
T
ܲሺܶ ܰ תሻ ൌ Ͳǡͻͷ ή ͲǡͲͲͷ ൌ ͲǡͲͲͶͷ
ഥ ࢀ
ܲሺܶത ܰ תሻ ൌ ͲǡͲͷ ή ͲǡͲͲͷ ൌ ͲǡͲͲͲʹͷ
T
ഥሻ ൌ ͲǡͲͳ ή Ͳǡͻͻͷ ൌ ͲǡͲͲͻͻͷ ܲሺܶ ܰ ת
ഥ ࢀ
ഥሻ ൌ Ͳǡͻͻ ή Ͳǡͻͻͷ ൌ ͲǡͻͺͷͲͷ ܲሺܶത ܰ ת
N ͲǡͲͷ
Populace
ͲǡͲͳ Ͳǡͻͻͷ
ഥ ܰ Ͳǡͻͻ
Obr. 2.16: Rozhodovací strom prezentující výsledek testování populace ܲሺܰሻ ഥ ሻ ܲሺܰ Na spojnice prvního větvení zapisujeme pravděpodobnosti výskytu daného stavu, ഥሻ ¯ ), přičemž součet pravděpodobností ܲሺܰ െ ܲሺܰሻ větvení dává vždy 1 tj. P (N ) a P (ܲሺܰሻ N vͳ jednom ¯ ) určíme jako 1−P (N ). (100%). V našem případě tedy P (N ) známe ze zadání a P (N ܲሺܶȁܰሻ ܲሺܶതȁܰሻ Na spojnice druhého větvení se pak zapisují podmíněné pravděpodobnosti – „výsleഥሻ ത ȁܰ ഥሻ ܲሺܶȁܰ dek testu“ܲሺܶ za předpokladu „daný stav“. V našem případě jsou to pravděpodobnosti: ഥሻ ¯ ܲሺܶȁܰሻ ¯ܲሺܶȁܰ P (T |N ), P (T¯|N ), P (T |N ), P (T¯|N ). Opět platí, že součet pravděpodobností v jed¯ ) zbylé dvě podmíněné nom větvení dává vždy 1. Ze zadání známe P (T |N ) a P (T |N pravděpodobnosti dopočítáme jako doplňky do 1.
Chceme–li určit, jaká je pravděpodobnost toho, že nastal „daný stav“ a zároveň ܶ תതሻpravděൌ ܲሺܶതȁܰሻ ή „výsledek testu“, stačí vynásobit hodnoty uvedené u příslušné větve.ܲሺܰ Např.: ܲሺܰሻ ൌ ͲǡͲͷ ή ͲǡͲͲͷ ൌ ͲǡͲͲͲʹͷ podobnost toho, že pacient trpí nemocí a zároveň mu vyšel negativní test je 0,00025 ¯ (P (N ∩ T )) = P (T¯|N )·P (N ) = 0, 05·0, 005 = 0, 00025). Příslušné pravděpodobnosti jsou uvedeny ve sloupci vedle rozhodovacího stromu. Pravděpodobnosti toho, že dojde k určitému výsledku testu, se určují prostřednicഥ ܶ תሻ ൌ ͲǡͲͲͶͷ ͲǡͲͲͻͻͷ ൌ ͲǡͲͳͶ ܲሺܶሻ ൌ ܲሺܰ ܶ תሻ ܲሺܰ tvím věty o úplné pravděpodobnosti. My je okamžitě vyčteme ze sloupce uvedeného ¯ ∩ T ) = 0, 00475 + vedle rozhodovacího stromu. Např. P (T ) = P (N ∩ T ) + P (N + 0, 00995 = 0, 0147. ܲሺܰȁܶሻ A nyní již přejděme k naší otázce: Měli jsme určit, jaká je pravděpodobnost, že určitá osoba, jejíž test byl pozitivní, skutečně onu nemoc má – neboli P (N |T ). ܲሺܰܶתሻ ܲሺܰȁܶሻ ൌ ܲሺܶሻ Tuto podmíněnou pravděpodobnost z rozhodovacího stromu přímo nevyčteme, pro její určení použijeme Bayesovu větu P (N |T ) =
P (N ∩ T ) , P (T )
do které stačí dosadit hodnoty vyčtené z rozhodovacího stromu. P (N |T ) =
P (N ∩ T ) 0, 00475 = = 0, 323 P (T ) 0, 0147
46
Úvod do teorie pravděpodobnosti ܲሺܰ ܶ תሻ ͲǡͲͲͶͷ ܲሺܰȁܶሻ ൌ ൌ ൌ Ͳǡ͵ʹ͵ ܲሺܶሻ ͲǡͲͳͶ Pravděpodobnost toho, že osoba, jejíž test vyšel pozitivní, skutečně onu nemoc má je asi 32,3%. (Zamyslete se nad tím, co by znamenalo, kdyby lékař pouze na základě jednoho pozitivního výsledku testu označil člověka za nemocného (např. AIDS)). A na závěr si ukážeme, jak problém znázornit pomocí pravoúhlého Vennova diagramu. V Obr. 2.17 představuje základní prostor Ω celou lidskou populaci, zelená výplň odpovídá pozitivnímu výsledku testu, modrá výplň odpovídá negativnímu výsledku testu. 1% z 99,5% = 0,995%
ߗ ഥ)= 99,5% ܲሺܰ 99% z 99,5% = 98,505%
ܲሺܰ)= 0,5 % 95% z 0,5% = 0,475%
5% z 0,5% = 0,025%
Obr. 2.17: Pravoúhlý Vennův diagram pro výsledek testování populace N
X
Shrnutí: Náhodný pokus je každý konečný děj, jehož výsledek není předem jednoznačně určen podmínkami, za nichž probíhá, a který je, alespoň teoreticky, neomezeně opakovatelný. Množinu všech možných výsledků {ω} daného pokusu označujeme pojmem základní prostor Ω. Prvky, popř. jednoprvkové podmnožiny, základního prostoru jsou elementární jevy. Jevem A je libovolná podmnožina základního prostoru. Pro náhodné jevy platí algebraické zákony a rovnosti stejné jako pro množiny. ऋ Úplná množina vzájemně disjunktních jevů je množina po dvou disjunktních jevů {A1 , A2 , A3 , . . . , An }, jejichž sjednocení tvoří množinu Ω.
2.3 Pravděpodobnost a její vlastnosti
Jevové pole A je neprázdný systém podmnožin základního prostoru Ω uzavřený vůči doplňku a vůči sjednocení (σ-algebra na Ω). Vlastnosti pravděpodobnostního prostoru jsou dány Kolmogorovovým axiomatickým systémem. Podmíněná pravděpodobnost je pravděpodobnost výskytu jevu za podmínky, že nastal určitý jev, který není nemožný. Jesliže platí P (A ∩ B) = P (A) · P (B) nebo P (B) = 0, pak nazýváme jevy A, B nezávislé. Věta o úplné pravděpodobnosti nám dává návod, jak určit pravděpodobnost jevu A, o kterém je známo, že může nastat pouze současně s některým z jevů B1 , B2 , . . . , Bn , které tvoří úplnou množinu disjunktních jevů. Bayesova věta nám umožňuje spočítat podmíněné pravděpodobnosti jednotlivých jevů této úplné množiny za předpokladu, že nastal jev A. Vlastnosti pravděpodobnosti 1. 2. 3. 4. 5.
0 5 P (A) 5 1, P (∅) = 0, ¯ = 1 − P (A) P (A) A ⊂ B ⇒ P (A) 5 P (B), P (B − A) = P (B) − P (A ∩ B), speciálně • A ⊂ B ⇒ P (B − A) = P (B) − P (A),
6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B), speciálně • A ∩ B = ∅ ⇒ P (A + B) = P (A) + P (B), ¯ 7. P (A ∪ B) = 1 − P (A ∪ B) = 1 − P (A¯ ∩ B), ¯ 8. P (A ∩ B) = 1 − P (A ∩ B) = 1 − P (A¯ ∪ B), 9. P (A ∩ B) = P (A|B) · P (B), speciálně • A, B nezávislé (P (A|B) = P (A)) ⇒ P (A ∩ B) = P (A) · P (B), 10. {B1 , B2 , B3 , . . . , Bn } je úplná množina vzájemně disjunktních jevů ⇒ P (A) = n P = P (A|Bi ) · P (Bi ), i=1
11. {B1 , B2 , B3 , . . . , Bn } je úplná množina vzájemně disjunktních jevů ⇒ ⇒ P (Bk |A) =
P (A|Bk )·P (Bk ) . n P P (A|Bi )·P (Bi ) i=1
47
48
?
Úvod do teorie pravděpodobnosti
Test 1. Určete, která z následujících tvrzení jsou pravdivá. a) Klasická definice pravděpodobnosti vychází ze stability relativních četností. b) Kolmogorovovy axiomy pravděpodobnosti udávají návod ke stanovení pravděpodobnosti elementárních jevů. c) Je-li pravděpodobnost jevu A rovna 0,75, pak pravděpodobnost podjevu jevu A je nejvýše 0,75. d) Jestliže pravděpodobnosti dvou jevů z jevového pole A jsou 0,7 a 0,5, pak tyto jevy nejsou disjunktní. e) Pravděpodobnost, že při deseti hodech mincí padne desetkrát po sobě „panna“ je menší než pravděpodobnost, že při deseti hodech klasickou kostkou padne desetkrát po sobě sudé číslo. 2. Pravděpodobnost poruchy každé součástky je p. Předpokládejme, že součástky pracují nezávisle na sobě. Určete pravděpodobnost poruchy bloku složeného z 10 ti paralelně zapojených součástek. (Je-li funkční alespoň jedna součástka, blok funguje.) a) p/10 b) 10p c) 10/p d) p10 e) 1 − p10 f) (1 − p)10 g) 1 − (1 − p)10 h) (1 − p)/10 3. Pravděpodobnost poruchy každé součástky je p. Předpokládejme, že součástky pracují nezávisle na sobě. Určete pravděpodobnost poruchy bloku složeného z 10 ti sériově zapojených součástek. (Je-li porouchaná alespoň jedna součástka, blok nefunguje.) a) p/10 b) 10p c) 10/p d) p10 e) 1 − p10 f) (1 − p)10 g) 1 − (1 − p)10 h) (1 − p)/10 4. Podmíněná pravděpodobnost P (A|B) je rovna
2.3 Pravděpodobnost a její vlastnosti
a) P (A ∩ B) · P (B) P (A ∩ B) b) P (A) c) P (A ∩ B) · P (A) P (A ∩ B) d) P (B) 5. Mějme jevy A a B. Pravděpodobnost jevu A je P (A) a pravděpodobnost jevu B je P (B). Pravděpodobnost sjednocení jevu A a B je rovna a) P (A) + P (B) b) P (A) · P (B) c) P (A) + P (B) − P (A ∩ B) d) P (A|B) · P (B) 6. Mějme nezávislé jevy A a B. Pravděpodobnost jevu A je P (A) a pravděpodobnost jevu B je P (B). Pravděpodobnost sjednocení jevu A a B je rovna a) P (A) + P (B) b) P (A) · P (B) c) P (A) + P (B) − P (A ∩ B) d) P (A|B) · P (B) 7. Mějme disjunktní jevy A a B. Pravděpodobnost jevu A je P (A) a pravděpodobnost jevu B je P (B). Pravděpodobnost průniku jevu A a B je rovna a) P (A) + P (B) b) P (A) · P (B) c) P (A) + P (B) − P (A ∩ B) d) 0 8. Mějme jevy A a B. Jev C je průnik jevů A a B. Pravděpodobnost jevu A je P (A) a pravděpodobnost jevu B je P (B). Pravděpodobnost sjednocení jevu B a C vyjádřena pomocí pravděpodobností jevů A a B je rovna a) P (A) b) P (B) c) P (B)(1 + P (A)) d) P (B)(1 − P (A)) e) P (B)(1 + P (A|B)) f) P (B)(1 − P (A|B)) 9. Mějme nezávislé jevy A a B. Jev C je doplněk jevu A. Pravděpodobnost jevu A je P (A) a pravděpodobnost jevu B je P (B). Pravděpodobnost průniku jevu B a C vyjádřena pomocí pravděpodobností jevů A a B je rovna
49
50
Úvod do teorie pravděpodobnosti
a) b) c) d) e)
P (A) P (B) P (B)(1 + P (A)) P (B)(1 − P (A)) P (B)(1 + P (A|B))
10. Vyberte 3 Kolmogorovovy axiomy pravděpodobnosti. a) Pravděpodobnost každého jevu A je nezáporné reálné číslo. b) Pravděpodobnost každého jevu A je menší než 1. c) Pravděpodobnost jistého jevu Ω je rovna nule. d) Pravděpodobnost jistého jevu Ω je rovna jedné. e) Pravděpodobnost sjednocení konečného počtu vzájemně disjunktních jevů je rovna součtu jejich pravděpodobností. f) Pravděpodobnost sjednocení jevů je rovna součtu jejich pravděpodobností.
51
Úlohy k řešení
Úlohy k řešení 1. Systém je funkční, pokud funguje součástka A a nejméně jedna ze součástek B a C. Pravděpodobnost, že po 1000 hodinách je funkční součástka A je 0,8, součástka B 0,9 a součástka C 0,7. Systém pracuje nezávisle na okolních podmínkách a na čase. B A
C
Jaká je pravděpodobnost, že systém bude po 1000 hodinách funkční? 2. Ve velkém množství písemek se vyskytují dva typy chyb, A a B. Pravděpodobnost, že v písemce bude chyba A je 0,1 a pravděpodobnost, že tam bude chyba B je 0,2. Pravděpodobnost, že v písemce budou obě chyby zároveň je 0,05. Určete pravděpodobnost, že v písemce bude pouze chyba A, nikoliv chyba B. 3. Sonda má dvě kamery, které mohou pracovat nezávisle na sobě. Každá z nich je vybavena pro případ poruchy opravným mechanismem. Pravděpodobnost poruchy kamery je 0,1, pravděpodobnost úspěšné opravy případné poruchy pomocí opravného mechanismu je 0,3. S jakou pravděpodobností se nepodaří ani jednou z kamer nic nafilmovat? 4. Tři absolventi střední školy – pan N , pan S a pan D skládají přijímací zkoušky na tři různé vysoké školy. Jejich šance na úspěch odhadujeme na 70% pro studenta N , na 40% pro studenta S a na 60% pro studenta D. Jaká je pravděpodobnost, že a) b) c) d) e) f) g)
všichni tři uspějí, ani jeden neuspěje, uspěje jen student N , uspěje právě jeden z nich, neuspěje jen student S, uspějí právě dva z nich, uspěje alespoň jeden z nich.
5. V osudí je 5 černých a 15 bílých koulí. Z osudí se náhodně vytáhne jedna koule. Poté se koule vrátí zpět a přidá se 20 koulí téže barvy, jakou měla vytažená koule. Následně realizujeme další tah. Jaká je pravděpodobnost, že druhá vytažená koule bude černá? 6. Počáteční stadium rakoviny se vyskytuje u každých tří z jednoho tisíce Američanů. Pro včasné zjištění byl vyvinut velmi spolehlivý test. Pouze 5% zdravých pacientů má výsledky pozitivní (falešný poplach) a pouze 2% nemocných mají výsledek negativní. Pokud by se tento test použil pro vyšetření celé americké společnosti a všichni ti, kteří by měli pozitivní výsledky by byli hospitalizováni za účelem klinického vyšetření, kolik % z nich bude skutečně mít rakovinu?
!
52
Úvod do teorie pravděpodobnosti
7. Při výrobě 30% přístrojů byl použit zpřísněný technologický režim, zatímco při výrobě ostatních přístrojů standardní režim. Přitom pravděpodobnost bezporuchového chodu po dobu T je pro přístroj z první skupiny 0,97 a pro přístroj z druhé skupiny 0,82. Určete pravděpodobnost, že a) náhodně vybraný přístroj bude po dobu T pracovat bezporuchově, b) přístroj, který po dobu T pracoval bezporuchově, byl vyroben ve zpřísněném režimu? 8. Zamýšlíte koupit v autobazaru vůz jisté značky. Je ovšem známo, že 30% takových vozů má vadnou převodovku. Abyste získali více informací, najmete si mechanika, který je po projížďce schopen odhadnout stav vozu a jen s pravděpodobností 0,1 se zmýlí. Jaká je pravděpodobnost, že vůz, který chcete koupit, má vadnou převodovku a) předtím, než si najmete mechanika? b) jestliže mechanik odhadl, že vůz je dobrý? 9. Monty Hallův problém: Veskrze poctivý moderátor umístil soutěžní cenu – auto – za jedny ze tří dveří. Za každými ze zbývajících dveří je cena útěchy – koza. Úkolem soutěžícího je zvolit si jedny dveře. Poté moderátor otevře jedny ze dvou zbývajících dveří, za nimiž je koza. Teď má soutěžící možnost buď ponechat svou původní volbu, nebo změnit volbu na zbývající dveře. Soutěžící vyhrává cenu, která je za dveřmi, které si zvolil. Soutěžící nemá žádné předchozí znalosti, které by mu umožnily odhalit co je za dveřmi. Nechť soutěžící nejprve zvolí dveře číslo 1. Nechť moderátor otevře dveře číslo 3, za kterými je koza. Zvýší se šance na výhru auta, pokud soutěžící změní volbu na dveře číslo 2?
Úlohy k řešení
Řešení Test 1c, d; 2d; 3g; 4d; 5c; 6c; 7d; 8b; 9d; 10a, d, e Úlohy k řešení . 1. 0, 776 = 77, 6% . 2. 0, 05 = 5% . 3. 0, 0049 = 0, 49% . 4. a) 0, 168 = 16, 8% . b) 0, 072 = 7, 2% . c) 0, 168 = 16, 8% . d) 0, 324 = 32, 4% . e) 0, 252 = 25, 2% . f) 0, 436 = 43, 6% . g) 0, 928 = 92, 8% . 5. 0, 25 = 25% . 6. 0, 056 = 5, 6% . 7. a) 0, 865 = 86, 5% . b) 0, 336 = 33, 6% . 8. a) 0, 30 = 30% . b) 0, 045 = 4, 5% 9. Pravděpodobnost výhry s původní volbou je 1/3. Změní-li soutěžící svou volbu, zvýší se pravděpodobnost jeho výhry na 2/3. (Podrobný rozbor Monty Hallova problému najdete například na Wikipedii.)
53
54
Kapitola 3 Náhodná veličina ó
Cíle V této kapitole budete pokračovat ve studiu teorie pravděpodobnosti. Seznámíte se s pojmem náhodné veličiny, dozvíte se, jak ji lze popsat. Po prostudování této kapitoly budete umět a znát • • • • •
Průvodce studiem
S Z
co je to náhodná veličina, obecně popsat náhodnou veličinu, charakterizovat diskrétní i spojitou náhodnou veličinu, určovat číselné charakteristiky náhodné veličiny, transformovat náhodnou veličinu.
V J
„Rozdělení inteligence, stejně jako jiných lidských vlastností, v celkové populaci lze znázornit pomocí Gaussovy křivky normálního rozdělení (viz níže uvedený obrázek )“
Cejpek, Jak se lidé liší svými schopnostmi počínat si správně v různých situacích, dostupné na: www.phil.muni.cz/ grohmann/cejpekIQ1.doc
3.1 Základní pojmy
Asi jste se nesetkali poprvé s pojmem Gaussova křivka. Možná dokonce máte nějakou představu o tom, co by mohla vyjadřovat. Ale je tato představa správná? Opravdu víte, co představují hodnoty vynesené na svislou osu? Jak souvisí procentuální zastoupení jedinců s různými kategoriemi IQ s Gaussovou křivkou? Co to je vlastně rozdělení inteligence? Odpovědi na tyto otázky a mnoho dalších informací o matematickém popisu výsledků náhodných pokusů by vám měla přinést tato kapitola. (Podrobnější informace konkrétně o Gaussově křivce pak najdete v kapitole 6.)
3.1
Základní pojmy
Jak již bylo zmíněno v Kap. 2, výsledek náhodného pokusu popisujeme pomocí základního prostoru Ω , tj. množiny všech elementárních jevů, a jejich pravděpodobnosti. Chceme-li zpracovávat výsledky náhodného pokusu, musíme vytvořit model popisující více či méně dobře realitu. Tímto modelem je tzv. náhodná veličina. Výsledkem náhodného pokusu je v mnoha případech reálné číslo. I v případech náhodných pokusů, jejichž výsledek je kategoriální povahy (např. pohlaví narozeného dítěte, ukončené vzdělání apod.), se při popisu výsledků mnohdy snažíme přiřadit každému výsledku reálné číslo. Výsledek náhodného pokusu vyjádřený reálným číslem budeme považovat za hodnotu náhodné veličiny. Příkladem náhodné veličiny může být • počet vadných výrobků mezi tisíci výrobky, • doba do poruchy zářivky, • počet kazů na 1 m2 lakované plochy, • počet studentů, kteří v tomto zkouškovém období složí zkoušku ze Statistiky I., • počet chybně přenesených znaků Morseovy abecedy, • odchylka rozměru výrobku od požadované hodnoty, • roční spotřeba elektrické energie vaší domácnosti. Pro korektní definici náhodné veličiny by bylo třeba znát pojmy z teorie míry. My pojmy související s tématem náhodné veličiny zavedeme ve stejné podstatě, nicméně s mírnými odchylkami od přesných matematických formulací.
55
56
Náhodná veličina
Základní prostor
Թ
¥ Ω
X 0
-¥ Obr. 3.1: Grafická ilustrace náhodné veličiny Definice: Náhodná veličina X (zkráceně NV X) je reálná funkce X : Ω → R taková, že pro každě reálné x je množina {ω ∈ Ω|X(ω) < x} náhodným jevem. Jednotlivé realizace náhodné viličiny, tj. X(ω), ω ∈ Ω, značíme malými písmeny (a, b, x, y, . . .). V dalším textu budeme používat zkrácené zápisy (X < x) = {ω ∈ Ω : X(ω) < x}, (a < X < b) = {ω ∈ Ω : a < X(ω) < b}, (X = x) = {ω ∈ Ω : X(ω) = x} a podobně. Jedním z úkolů teorie pravděpodobnosti je vybudovat matematický aparát, který přiřadí všem zajímavým podmnožinám množiny reálných čísel příslušné pravděpodobnosti. Pravidlo, které každé hodnotě (popř. každému intervalu hodnot) přiřazuje pravděpodobnost, že náhodná veličina nabude této hodnoty (popř. hodnoty z tohoto intervalu), nazýváme rozdělením pravděpodobnosti náhodné veličiny (zkráceně rozdělení náhodné veličiny). Náhodná veličina je tedy z pravděpodobnostního hlediska úplně popsána, jestliže známe všechny hodnoty (popř. intervaly hodnot), kterých může náhodná veličina nabýt a pravděpodobnosti těchto hodnot (popř. intervalů). Rozdělení náhodné veličiny lze popsat různými způsoby. Nejčastěji užívanou možností popisu náhodné veličiny X je tzv. distribuční funkce.
57
3.2 Distribuční funkce
3.2
Distribuční funkce
Definice: Nechť X je náhodná veličina. Reálnou funkci F (x) definovanou pro všechna reálná x vztahem F (x) = P (X < x) nazýváme distribuční funkcí náhodné veličiny X. Distribuční funkce je tedy funkce, která každému reálnému číslu přiřazuje pravděpodobnost, že náhodná veličina nabude hodnoty menší než toto reálné číslo.
1
4/6
0,8
3/6
0,6
F(x)
F(x)
1 5/6
2/6
0,4
1/6 0,2
0 - 1/6 -1 0
0 1
2
3
4
5
6
7 -2
0
2
x
4
x
6
8
10
Obr. 3.2: Ukázka grafu distribuční
Obr. 3.3: Ukázka grafu distribuční
funkce diskrétní náh. veličiny
funkce spojité náhodné veličiny
PřímoͲͲzdefinice ͲۃǢ ͲۃǢͳۄ ܨሺݔሻ ܨሺݔሻ ͳͳdistribuční funkce vyplývá řada jejích vlastností. ͳۄ ݔ ͳͳݔǡǡʹʹݔݔǡǡ ͳͳݔݔ൏ ൏ʹʹݔݔǣܨሺݔ ǣܨሺͳͳݔሻሻ ൏ ൏ ܨሺݔ ܨሺʹʹݔሻሻ ܽ ܽ א א Թǣ Թǣ ܨሺݔሻ ܨሺݔሻ ൌ ൌ ܨሺܽሻ ܨሺܽሻ ܨሺݔሻ ܨሺݔሻ nabývá hodnot z intervalu h0; 1i, ݔ՜ܽ ݔ՜ܽ 1. 0 5 F (x) 5 1, tzn. distribuční funkce ܨሺݔሻ ܨሺݔሻ 2. ∀x1 , xݔ՜െλ < x2 ൌ: ͲF 2 , x1 ܨሺݔሻ Ͳ (x1 ) < F (x2 ), tzn. distribuční funkce je neklesající, ݔ՜െλ ܨሺݔሻ ൌ ܨሺݔሻ ܨሺݔሻ ൌ ൌ ͳ ͳ 3. ∀a ∈ R : lim F (x) = F (a), tzn. F (x) je zleva spojitá, ݔ՜λ ݔ՜λ x→a+
4. F (x) má nejvýše spočetně mnoho bodů nespojitosti, 5. lim F (x) = 0, tzn. distribuční funkce „začíná“ v 0, x→−∞
ܲሺܺ ൏ ൏ ܽሻ ܽሻ ܨሺܽሻ ܽܽ אאfunkce Թ Թ 6. limܲሺܺ F (x) =ൌൌ1,ܨሺܽሻ tzn. distribuční „končí“ v 1. x→∞ ܲሺܺ ܲሺܺ ܽሻ ܽሻ ൌ ൌ ͳͳ െ െ ܨሺܽሻ ܨሺܽሻ
ܽܽ אאԹ Թ ܲሺܽ ܲሺܽ ܺܺ ൏ ൏ ܾሻ ܾሻ ൌ ൌ ܨሺܾሻ ܨሺܾሻ െ െ ܨሺܽሻ ܨሺܽሻ ܽܽ ൏ ൏ ܾǢ ܾǢܽǡ ܽǡܾܾ אאԹ Թ Z definice funkce rovněž snadno vztahy mezi pravděpodobܲሺܺ ܲሺܺ ൌ ൌdistribuční ܽሻ ܽሻ ൌ ൌ ݔ՜ܽ ܨሺݔሻ െ െlze ܨሺܽሻ ܨሺܽሻ ܽܽ אאodvodit Թ Թ ݔ՜ܽܨሺݔሻ
ností a distribuční funkcí.
• P (X < a) = F (a), pro všechna a ∈ R, • P (X = a) = 1 − F (a), pro všechna a ∈ R, • P (a 5 X < b) = F (b) − F (a), pro všechna a < b; a, b ∈ R, • P (X = a) = lim+ F (x) − F (a), pro všechna a ∈ R. x→a
58
Náhodná veličina
Rozlišujeme dva základní druhy náhodné veličiny - spojitou a diskrétní (může nabývat pouze konečně nebo spočetně mnoha hodnot), přesněji řečeno náhodnou veličinu se spojitým a diskrétním rozdělením. Distribuční funkce je v případě spojité náhodné veličiny spojitá funkce. v případě diskrétní náhodné veličiny je to „schodovitá“ funkce, která má nejvýše spočetně mnoho bodů nespojitosti. Souvislost mezi pravděpodobnosti a distribuční funkci je pro tyto dva základní typy náhodných veličin prezentována na Obr. 3.4 a Obr. 3.5. F(x) 1 F(b) ࡼሺࢄ ࢇሻ ࡼሺࢇ ࢄ ൏ ܾሻ
ࡼሺࢄ ࢇሻ
ࡼሺࢄ ൌ ࢇሻ
ࡼሺࢇ ࢄ ൏ ܾሻ
F(a) ࡼሺࢄ ൏ ࡼሺࢄ ܽሻ ൌ ࢇሻ 0
ࡼሺࢄ ൏ ܽሻ
x
b
a
Obr. 3.4: Interpretace vztahu mezi pravděpodobností a distribuční funkcí diskrétní náhodné veličiny
F(x) 1 ࡼሺࢄ ࢇሻ
F(b) ࡼሺࢄ ࢇሻ ࡼሺࢇ ࢄ ൏ ܾሻ ࡼሺࢇ ࢄ ൏ ܾሻ ࡼሺࢄ ൏ ܽሻ
F(a) ࡼሺࢄ ൏ ܽሻ 0
a
b
x
Obr. 3.5: Interpretace vztahu mezi pravděpodobností a distribuční funkcí spojité náhodné veličiny
ሼ ͳݔǡ ʹݔǡ ڮሽ ܲሺܺ ൌ ݅ݔሻ Ͳ λ
59
3.3 Diskrétní náhodná veličina
3.3
Diskrétní náhodná veličina
Jak již jsme se zmínili, o diskrétní náhodné veličině hovoříme tehdy, jestliže náhodná veličina nabývá pouze hodnot z nějaké konečné či spočetné množiny. Jedná se nejčastěji o celočíselné náhodné veličiny, např. počet studentů, kteří vstoupili do hlavní budovy VŠB-TUO během dopoledne (0, 1, 2, ...), počet členů domácnosti (1, 2, 3, ...), počet dopravních nehod za jeden den na dálnici z Prahy do Brna (0, 1, ...), součet ok při hodu třemi kostkami (3, 4, ..., 18) apod. Definice: Řekneme, že náhodná veličina X má diskrétní rozdělení pravděpodobnosti (zkráceně „je diskrétní“) právě tehdy, když nabývá nejvýše spočetně mnoha hodnot {x1 , x2 , . . .} tak, že • P (X = xi ) = 0; ∞ P • P (X = xi ) = 1. i=1
Funkci P (X = xi ) = P (xi ) nazýváme pravděpodobnostní funkcí náhodné veličiny X. Pro popis diskrétní náhodné veličiny se tato funkce používá častěji než funkce distribuční. Pravděpodobnostní funkce může být zadána • předpisem např. ∀x ∈ {0; 1; 2; 3} : P (X = x) =͵
3 x
· 0, 1x · 0, 93−x ,
ቀâǤ א ݔሼͲǢ ͳǢ ʹǢ ͵ሽǣ ܲሺܺ ൌ ݔሻ ൌ ቀ ቁ ή Ͳǡͳ ݔή Ͳǡͻ͵െ ݔቁ ݔ
• tabulkou (Tab. 3.1), • grafem (Obr. 3.6).
Tab. 3.1: Příklad zadání pravděpodobnostní funkce tabulkou
0 1 2 3 ݔ ܲሺݔሻ 0,729 0,243 0,027 0,001 Distribuční funkci diskrétní náhodné veličiny můžeme vyjádřit pomocí pravděpodobnostní funkce jako X F (x) = P (xi ), xi <x
tj. jako součet pravděpodobností těch xi , která jsou menší než x. Distribuční funkce diskrétní náhodné veličiny (Obr. 3.2) je „schodovitá“ funkce, která je nespojitá v bodech, v nichž je pravděpodobnostní funkce nenulová. Víme,
ݔ ܲ ሺ ݔሻ
P(x)
60
Náhodná veličina
0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 0
1
2
3
4
x
Obr. 3.6: Příklad zadání pravděpodobnostní funkce grafem že P (X = a) = lim+ F (x) − F (a), pro všechna a ∈ R. x→a
+
Je tedy zřejmé, že „velikosti skoků“ σ ݅ ݔ൏ݔnespojitosti ܨሺݔሻvൌbodech ܲሺ ݅ݔሻ distribuční funkce udávají hodnotu pravděpodobnosti v těchto bodech.
ݔ
݅ Příklad 3.1. V dílně pracují dva stroje (nezávisle na sobě). První stroj se porouchá s pravděpodobností 20%. Pravděpodobnost poruchy druhého stroje je 30%. Náhodná veličina bude označovat počet porouchaných strojů v dílně. Určete pravděpodobnostní funkci a distribuční funkci této náhodné veličiny.
Řešení. ܲሺܺ ൌ ܽሻ ൌ ݔ՜ܽ ܨሺ ݔሻ െ ܨሺܽሻ X ... počet porouchaných strojů v dílně
ܽאԹ
Náhodná veličina X může nabývat pouze konečně mnoha (tří) hodnot 0; 1; 2, je tedy zřejmé, že se jedná o diskrétní náhodnou veličinu. Označme jevy S1 ... první stroj se porouchá, S2 ... druhý stroj se porouchá. Pak P (S1) = 0, 2, P (S2) = 0, 3. Nyní můžeme určit pravděpodobnostní funkci náhodné veličiny X. P (X = 0) = P (S1 ∩ S2) = P (S1) · P (S2) = 0, 8 · 0, 7 = 0, 56, P (X = 1) = P (S1 ∩ S2) ∪ (S1 ∩ S2) = P (S1)·P (S2)+P (S1)·P (S2) = 0, 2·0, 7+ + 0, 8 · 0, 3 = 0, 38, P (X = 2) = P (S1 ∩ S2) = P (S1) · P (S2) = 0, 2 · 0, 3 = 0, 06.
ܲሺܵͳሻ ൌ Ͳǡʹ ܲሺܵʹሻ ൌ Ͳǡ͵
തതത ʹܵ ת തതതሻ ൌ ܲሺܵͳ തതതሻ ή ܲሺܵʹ തതതሻ ൌ Ͳǡͺ ή Ͳǡ ൌ Ͳǡͷ ܲሺܺ ൌ Ͳሻ ൌ ܲሺܵͳ തതത ʹܵ תሻ൯ ൌ ܲሺܵͳሻ ή ܲሺܵʹ തതതሻ ܲሺܵͳ തതതሻ ή ܲሺܵʹሻ ൌ ܲሺܺ ൌ ͳሻ ൌ ܲ൫ሺܵͳ תതതത ܵʹሻ ሺܵͳ 3.3 Diskrétní náhodná veličina ൌ Ͳǡʹ ή Ͳǡ Ͳǡͺ ή Ͳǡ͵ ൌ Ͳǡ͵ͺ ܲሺܺ ൌ ʹሻ ൌ ܲሺܵͳ ʹܵ תሻ ൌ ܲሺܵͳሻ ή ܲሺܵʹሻ ൌ Ͳǡʹ ή Ͳǡ͵ ൌ ͲǡͲ Tab. 3.2: Pravděpodobnostní funkce náhodné veličiny z řešeného příkladu 3.1
xi 0 1 2 Σ
P( X = xi ) 0,56 0,38 0,06 1,00
(Např. P (X = 1) čteme: pravděpodobnost, že v dílně se porouchá právě jeden stroj). Uvědomte si, že v Tab. 3.2 jsou uvedeny pouze nenulové hodnoty pravděpodobnostní funkce. Je zřejmé, že א ݔԹ̳ȳǣ ܲሺܺ ൌ ݔሻ ൌ Ͳ ∀x ∈ R \ Ω : P (X = x) = 0. σሺሻ ܲሺݔ ሻ ൌ ͳ P P (xi ) = 1. (Např. P (X = 1, 5) = P (X = −3) = . . . = 0). Všimněte si zároveň, že (i)
Dalším úkolem je určit distribuční funkci náhodné veličiny X. Vzhledem k tomu, že Xܲሺܺ je diskrétní náhodná veličina, půjde o schodovitou zleva ൌ ܽሻ ൌ ௫՜శ ܨሺݔሻ െ ܨሺܽሻሻ spojitou funkci. z vlastností distribuční funkce vyplývá, že body nespojitosti této funkce jsou ty body, v nichž je pravděpodobnostní funkce nenulová (protože P (X = = a) = lim+ F (x) − F (a)). Proto si určíme hodnoty distribuční funkce na všech x→a
intervalech vymezených body nespojitosti. ܨሺݔሻ ൌ σ௫ ழ௫ ܲሺݔ ሻ Distribuční funkci náh. veličiny X můžeme vyjádřit pomocí pravděpodobnostní Ͳۄǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ Ͳ ݔfunkce אሺെλǢjako X F (x) = P (xi ). א ݔሺͲǢ ͳۄǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ ܲሺܺ ൌ Ͳሻ ൌxi <x Ͳǡͷ ∀x ∈ (−∞; 0i : F (x) = P (X < x) = 0 (pravděpodobnost, že se porouchá méně než 0 strojů), ∀x ∈ (0; 1i : F (x) = P (X < x) = P (X = 0) = 0, 56 (pravděpodobnost, že se porouchá méně než 1 stroj), ∀x ∈ (1; 2i : F (x) = P (X < x) = P (X = 0) + P (X = 1) = 0, 56 + 0, 38 = 0, 94 (pravděpodobnost, že se porouchá méně než 2 stroje), ∀x ∈ (2; ∞i : F (x) = P (X < x) = P (X = 0) + P (X = 1) + P (X = 2) = 0, 56 + + 0, 38 + 0, 06 = 1 (pravděpodobnost, že se porouchají oba stroje).
61
ǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ ܲሺܺ ൌ Ͳሻ ܲሺܺ ൌ ͳሻ ൌ Ͳǡͷ Ͳǡ͵ͺ ൌ ͲǡͻͶ ݔ ሺͳǢʹۄ אא ݔሺͳǢ ʹۄǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ ܲሺܺ ൌ Ͳሻ ܲሺܺ ൌ ͳሻ ൌ Ͳǡͷ Ͳǡ͵ͺ ൌ ͲǡͻͶ ݔ ሺʹǢλሻǣ אא ݔሺʹǢ λሻǣܨሺݔሻ ܨሺݔሻ ൌ ൌ ܲሺܺ ܲሺܺ ൏ ൏ ݔሻ ݔሻ ൌ ൌ ܲሺܺ ܲሺܺ ൌ ൌ Ͳሻ Ͳሻ ܲሺܺ ܲሺܺ ൌ ൌ ͳሻ ͳሻ ܲሺܺ ܲሺܺ ൌ ൌ ʹሻ ʹሻ ൌ ൌ ൌ Ͳǡͷ Ͳǡ͵ͺ ͲǡͲ ൌ ͳ ൌ Ͳǡͷ Ͳǡ͵ͺ ͲǡͲ ൌ ͳ
Náhodná veličina
Hodnoty distribuční funkce na celém definičním oboru (R) jsou uvedeny v Tab. 3.3. Թ Թ Tab. 3.3: Distribuční funkce náhodné veličiny X z řešeného příkladu 3.1
x F( x ) ሺെλǢ Ͳ ۄ0 ሺെλǢ ሺെλǢ Ͳ ۄ0,56 ሺͲǢ ͳۄͲۄ ͳۄ ሺͲǢ 0,94 ሺͲǢ ͳۄ ሺͳǢ ʹۄ ሺͳǢ ʹ ۄ ʹۄ ሺͳǢλሻ ሺʹǢ 1 ሺʹǢ ሺʹǢλሻ λሻ
ܧሺܺሻ ൌ σሺሻ ݔ ή ܲሺݔ ሻ ൌ Ͳ ή Ͳǡͷ ͳ ή Ͳǡ͵ͺ ʹ ή ͲǡͲ ൌ ͲǡͷͲ 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0
1 0,8
൫ܧሺܺሻ൯
0,6
ଶሻ ܺܦൌ ܧሺܺ െ ൫ܧሺܺሻ൯ 0,4 F(x)
P(x)
62
ଶ
ଶ
ܧሺܺ ଶ ሻ
0,2 0
0 1 ܧሺܺ ଶ ሻ ൌ ݔଶ ή ܲሺݔ ሻ ൌ Ͳଶ ή Ͳǡͷ ͳଶ ή Ͳǡ͵ͺ ʹଶ ή ͲǡͲ ൌ Ͳǡʹ x 0
0,5
ሺሻ
1
1,5
2
2,5
-1
2
3
x
Obr. 3.7: Pravděpodobnostní funkce Obr. 3.8: Distribuční funkce náh. veଶ náh. veličiny ሻ െ ൫ܧሺܺሻ൯ ൌ Ͳǡʹ െ ͲǡͷͲଶ ൌličiny ܦሺܺሻ ൌ ܧሺܺ ଶX Ͳǡ͵X N
3.4
Spojitá náhodná veličina
ሻ ܲሺݔmůže ݔ ή ܲሺݔ ݔଶ intervalu, ή ܲሺݔ ሻ hovoříme Jestliže náhodná veličina nabýt všech hodnot z určitého ሻ o náhodné veličině se spojitým rozdělením. Jako příklad spojité náhodné veličiny lze uvést životnost výrobku, délku novorozeněte, náhodně vybrané reálné číslo apod. Definice: Řekneme, že náhodná veličina X má spojité rozdělení pravděpodobnosti (zkráceně „je spojitá“) právě tehdy, má-li spojitou distribuční funkci. Z definice vyplývá, že v případě spojité náhodné veličiny nemá smysl jednotlivým realizacím náhodné veličiny přiřazovat hodnotu pravděpodobnosti, poněvadž pravděpodobnostní funkce je nulová. Je-li X spojitá náhodná veličina, pak P (X = a) = lim+ F (x) − F (a) = F (a) − F (a) = 0, pro všechna a ∈ R. x→a
63
3.4 Spojitá náhodná veličina
Pomocí jakých nástrojů tedy můžeme spojitou náhodnou veličinu popsat? u spojité náhodné veličiny můžeme stanovit pravděpodobnost výskytu náhodné veličiny v libovolném intervalu. To znamená, že pro její popis můžeme použít distribuční funkci.
Jak již víme, chceme-li určit pravděpodobnost výskytu náhodné veličiny na nějakém intervalu, využíváme vztahy • P (X < a) = F (a), pro všechna a ∈ R, • P (X = a) = 1 − F (a), pro všechna a ∈ R, • P (a 5 X < b) = F (b) − F (a), pro všechna a < b; a, b ∈ R. Jelikož pro spojitou náhodnou veličinu platí, že P (X = a) = 0, můžeme dále tvrdit, že pro spojitou náhodnou veličinu X a pro všechna a, b ∈ R platí • P (X 5 a) = P (X < a), • P (X > a) = P (X = a), • P (a 5 X 5 b) = P (a < X < b) = P (a < X 5 b) = P (a 5 X < b). Místo pravděpodobnostní funkce se k popisu rozdělení spojité náhodné veličiny používá tzv. hustota pravděpodobnosti f (x). Předpokládejme, že máme k dispozici rozsáhlý soubor realizací spojité náhodné veličiny. Budeme-li třídit naměřené hodnoty do stále užších třídních intervalů, dostaneme histogramy, které se budou stále více blížit hladké křivce, výše zmíněné hustotě pravděpodobnosti. Té ovšem dosáhneme pouze v teoretickém limitním případě, kdy bychom třídili nekonečně velký soubor do nekonečně mnoha nekonečně úzkých třídních intervalů (Obr. 3.9). (Uvědomte si, že hodnota hustoty pravděpodobnosti f (x) neudává pravděpodobnost toho, že náhodná veličina X má hodnotu x. Hustota pravděpodobnosti f (x) neudává žádnou pravděpodobnost!!! Může nabývat i hodnot vyšších než 1.) Definice: Hustota pravděpodobnosti f (x) spojité náhodné veličiny je reálná nezáporná funkce taková, že Z x
f (t) dt pro − ∞ < x < ∞.
F (x) = −∞
Příkladem grafu hustoty pravděpodobnosti je již zmíněná Gaussova křivka.
64
Náhodná veličina
Obr. 3.9: Přechod od histogramu k hustotě pravděpodobnosti Dá se ukázat, že ve všech bodech, kde existuje derivace distribuční funkce, platí f (x) =
dF (x) . dx
Známe-li distribuční funkci, můžeme lehce určit hustotu pravděpodobnosti a naopak, známe-li hustotu pravděpodobnosti, snadno určíme distribuční funkci. Hustota pravděpodobnosti má tyto základní vlastnosti: 1. f (x) = 0, tzn. hustota pravděpodobnosti je nezáporná funkce, R∞ 2. −∞ f (x) = 1, tzn. plocha pod křivkou hustoty pravděpodobnosti je rovna 1, 3. lim f (x) = 0, tzn. hustota pravděpodobnosti „začíná“ v 0, x→−∞
4. lim f (x) = 0, tzn. hustota pravděpodobnosti „končí“ v 0. x→∞
Proto, aby byl základní popis spojité náhodné veličiny dokončen, zbývá nám odpovědět na otázku, jaký je vztah mezi pravděpodobností výskytu spojité náhodné veličiny v nějakém intervalu a hustotou pravděpodobnosti. Hledané vztahy snadno odvodíme. ∀a, b ∈ R, a < b : • P (X = a) = 0, • P (X < a) = F (a) =
Ra
f (x) dx, R∞ Ra R∞ • P (X = a) = 1 − F (a) = −∞ f (x)dx − −∞ f (x) dx = a f (x) dx Rb Ra Rb • P (a 5 X < b) = F (b) − F (a) = −∞ f (x)dx − −∞ f (x) dx = a f (x) dx. −∞
Připomeňme, že vzhledem k nulovosti pravděpodobnostní funkce spojité náhodné veličiny můžeme ve výše uvedených vztazích libovolně zaměňovat ostré a neostré nerovnosti.
65
3.4 Spojitá náhodná veličina
3.4.1
Geometrická interpretace vztahu mezi pravděpodobností a hustotou pravděpodobnosti
Je známo, že integrál z nezáporné funkce udává velikost plochy pod jejím grafem. Jedna z vlastností hustoty pravděpodobnosti říká, že plocha pod grafem funkce hustoty pravděpodobnosti je rovna 1, tzn. že Z ∞ f (x) dx = 1. −∞
To je analogické situaci u diskrétní náhodné veličiny, kde součet pravděpodobností všech možných výsledků rovněž dává jedničku. Zároveň jsme si ukázali, že ܾܾ ܾ ܲሺܽ ൏൏ ܾሻܾሻ ൌൌ ݂ሺݔሻ݀ݔ ܲሺܽ ܺܺܺ ൏ ܾሻ ൌ Z݂ܽܽሺݔሻ݀ݔ ܲሺܽ ݂ሺݔሻ݀ݔ ܽb f (x) dx. P (a 5 X < b) = a
Můžeme tedy říci, že obsah plochy pod křivkou f (x) pro x ∈ ha, b) je pravděpodob- ሺܽǡ ሺܽǡ אא ԹǡԹǡ ൏ ܾሻ ܾሻܾሻ ܾܾ א Թǡ ܽܽ ܽ ൏ ሺܽǡ ܾtoho, nost že ൏ náhodná veličina X nabude hodnoty z tohoto intervalu (∀a, b ∈ R, a < < b).
ܲሺܽ ܾሻܾሻ ܲሺܽ ܺܺ ൏ ܾሻ ܲሺܽ ܺ൏൏
Obr. 3.10: Geometrická interpretace P (a 5 X < b) Obdobně můžeme znázornit pravděpodobnosti Z ܽܽa Zλ ∞ λ ܽ λ ܲሺܺ ൏ ܽሻ ൌ ݂ሺݔሻ݀ݔ ܲሺܺ ܽሻ ൌ ݂ሺݔሻ݀ݔ ܲሺܺ ൏ ܽሻ ൌ ݂ሺݔሻ݀ݔ ܲሺܺ ܽሻ ൌ ܲሺܺ ൏ ܽሻ ൌ ݂ሺݔሻ݀ݔ ܲሺܺ ܽሻ ൌ ݂ሺݔሻ݀ݔ f (x) dx a P (X = a) = ݂ܽܽܽሺݔሻ݀ݔ f (x) dx. P (X < a) = െλ െλ െλ −∞
a
ܲሺܺ ൏൏ ܽሻܽሻ ܲሺܺ ൏ ܽሻ ܲሺܺ Obr. 3.11: Geometrická interpretace
ܲሺܺ ܽሻܽሻ ܲሺܺ ܽሻ ܲሺܺ Obr. 3.12: Geometrická interpretace
P (X < a)
P (X = a)
ܿሺͳ െെ ݔሻሺͳ ݔሻݔሻ െെ ൏൏ ൏൏ ܿሺͳ െ ݔሻሺͳ ݔሻ െ ͳͳ ͳ ൏ ݔ ݔݔ൏ ͳͳ ͳ ܿሺͳ ݔሻሺͳ
+
66
Náhodná veličina
Příklad 3.2. Nechť X je spojitá náhodná veličina definována hustotou pravděpodobnosti f (x). f (x) =
c(1 − x)(1 + x) −1 < x < 1 0 jinde.
a) Nalezněte konstantu c tak, aby f (x) byla korektně zadána, b) zakreslete hustotu pravděpodobnosti f (x), c) nalezněte a zakreslete distribuční funkci F (x), d) určete P (X = 0, 3), P (0 < X < 11), P (X > 0, 5). Řešení. a) Pro nalezení konstanty c využijeme toho, že plocha pod křivkou hustoty pravděpodobnosti musí být rovna 1. Z ∞ f (x) dx = 1 −∞ −1
Z
Z
1
Z
2
∞
c(1 − x ) dx +
0 dx + −1
−∞
0 dx = 1 1
1 x3 +0=1 0+c x− 3 −1 1 (−1) c 1− − −1 − =1 3 3
c·
3 4 = 1 ⇒ c = = 0, 75 3 4
b) f (x) =
0, 75(1 − x)(1 + x) = 0, 75(1 − x2 ) −1 < x < 1 0 jinde.
c) Distribuční funkci určíme pomocí hustoty pravděpodobnosti. Z x ∀x ∈ R : F (x) = f (t) dt −∞
∀x ∈ (−∞; −1) : ∀x ∈ h−1; 1) :
F (x) =
Rx
0 dt = 0 h Rx 3 3 2 F (x) = −∞ 0 dt + −1 4 (1 − t ) dt = 0 + 4 t − −∞
R −1
t3 3
ix −1
=
Ͳǡͷሺͳ െ ݔሻሺͳ ݔሻ ൌ Ͳǡͷሺͳ െ ʹ ݔሻ െ ͳ ൏ ݔ൏ ͳ 3.4 Spojitá náhodná ݂ ሺݔሻ veličina ൌ ൜ Ͳ݆݅݊݀݁Ǥ 0,8
f(x)
0,6 0,4 0,2 0 -4
-2
-0,2 0
2
4
x
Obr. 3.13: Hustota pravděpodobnosti náhodné veličiny z řešeného příkladu 3.2
∀x ∈ h1; ∞) :
= 41 (−x3 + 3x + 2) R −1 R R ͵ ͳ 1 3 (1 − t2 ) dt + ∞ 0 dt = F (x) = −∞ ͵ 0 dt ݐ+ 4 −1 1 ൌ Ͳ ቂݐhെ ቃ i1 Ͳݔൌ ͳ Ͷ 3 ͵ tെͳ 3 = 0א+Թǣܨ t −ሺݔ3ሻ ൌ න + 0݂=ሺݐ1ሻ݀ݐ ݔ 4 −1
െλ
ሻǣ ܨሺݔሻ ൌ െλ א ݔሺെλǢ െͳ Ͳ െͳሻ 0 אൌ Ͳ݀ݐ Ͳ ሺെλǢ ݔ ݔ
x ∈ (−∞; −1) x ∈ h−1; 1) xʹ ∈ h1; ∞) ͵
1 (−x3 + 3x + 2) (x) 4 ۃ אെͳǢ ͳሻ ݔ ͵ݔF ʹ൯=
ܨሺݔሻ ൌ ቐ ൫െ ͵ݔ Ͷ ݔ െͳ 1ͳۃ א ݔǢ λݔሻ ͵ ͵ݐ ሻǣ ۃ א ݔെͳǢ ͳͳ ܨሺݔሻ ൌ െλ Ͳ݀ݐ െͳ ሺͳ െ ݐሻ݀ ݐൌ Ͳ ቂ ݐെ ቃ ൌ ͳ
Ͷ
͵ െͳ
Ͷ
ൌ ሺെ ݔ ͵ݔ1 ʹሻ ͳ
͵
Ͷ
ͳۃ א ݔǢ λሻǣ F(x)
ܨሺ ݔሻ ൌ
െͳ െλ Ͳ݀ݐ
-4
-3
-2
0,9 0,8 ͳ ͵ 0,7െͳ Ͷ ሺͳ 0,6 0,5 0,4 0,3 0,2 0,1 0
-1
λ
െ ʹ ݐሻ݀ ݐ ݐ݀Ͳ ͳൌ
0
1
2
3
4
x
Obr. 3.14: Distribuční funkce Hustota pravděpodobnosti náhodné veličiny z řešeného příkladu 3.2
d) Pravděpodobnosti výskytu náhodné veličiny X na určitém intervalu určíme pomocí příslušných vztahů. ܲሺܺ ൌ Ͳǡ͵ሻ ൌ Ͳ • P (X = 0, 3) = 0 ͳ ͳ ܲሺͲ ൏ ܺ ൏ ͳͳሻ ൌ ܨሺͳͳሻ െ ܨሺͲሻ ൌ ͳ െ Ͷ1ሺͲ Ͳ ʹሻ ൌ 1ʹ ൌ ͷͲΨ • P (0 < X < 11) = F (11) − F (0) = 1 − 4 (0 + 0 + 2) = 2 = 50%
ܲሺܺ Ͳǡͷሻ ൌ ͳ െ ܨሺͲǡͷሻ ൌ ͳ െ Ͷ ൬െ ቀെ ʹቁ ͵ ή ʹ ʹ൰ ൌ ͳ െ ͵ʹ ൌ ͵ʹ ؆ ͳͷǡΨ ͳ
ͳ ͵
ͳ
ʹ
ͷ
67
68
Náhodná veličina
1 • P (X > 0, 5) = 1 − F (0, 5) = 1 − 4 5 . = = 15, 6% 32
! 3 1 1 27 − − +3· +2 = 1 − = 2 2 32
N
3.5
Funkce náhodné veličiny
V mnoha případech se setkáváme s tím, že známe rozdělení náhodné veličiny X a potřebujeme určit rozdělení náhodné veličiny Y , která je funkcí náhodné veličiny X, tj. Y = g(X). Mějme náhodnou veličinu Y danou předpisem Y = g(X), kde g(x) je nějaká prostá reálná funkce definovaná na základním souboru náhodné veličiny X. Odvodíme rozdělení náhodné veličiny Y . ∀y ∈ R :
FY (y) = P (Y < y) = P (g(X) < y)
Jestliže k funkci g existuje funkce inverzní g −1 , pak platí P (X < g −1 (y)) = FX (g −1 (y)) , je-li g funkcí rostoucí FY (y) = 1 − P (X < g −1 (y)) = 1 − FX (g −1 (y)) , je-li g funkcí klesající. Je-li X diskrétní náhodná veličina popsána pravděpodobnostní funkcí PX (x), pak pravděpodobnostní funkce náhodné veličiny Y je rovna PY (y) = P (Y = y) = P (g(X) = y) = P (X = g −1 (y)) = PX (g −1 (y)). Pro spojitou náhodnou veličinu X a spojitě diferencovatelnou funkci g je hustota fY (y) náhodné veličiny Y rovna −1 dg (y) −1 . fY (y) = fX (g (y)) · dy Poznámka: Náhodná veličina Y může být dána rovněž funkcí několika náhodných veličin Xi , i = 1, . . . , n definovaných na stejném základním prostoru (Y = = g(X1 , X2 , . . . , Xn )).
3.6
Číselné charakteristiky náhodné veličiny
Rozdělení pravděpodobnosti každé náhodné veličiny X je plně popsáno pomocí její distribuční funkce F (x), popř. pomocí hustoty pravděpodobnosti f (x) nebo pravděpodobnostní funkce P (x). v mnoha případech je však výhodné shrnout celkovou
3.6 Číselné charakteristiky náhodné veličiny
informaci o náhodné veličině do několika čísel, které charakterizují některé vybrané vlastnosti této náhodné veličiny a rovněž umožňují srovnání různých náhodných veličin. Tato čísla se nazývají číselné charakteristiky náhodné veličiny X. Nyní se seznámíte s některými z nich. Velkou skupinu číselných charakteristik náhodné veličiny tvoří tzv. momenty rozdělení. Ty dělíme na momenty obecné a momenty centrální. • Obecný moment r-tého řádu (značí se µr nebo E(X r ) pro r = 1, 2, . . .) pro diskrétní NV:
µr =
P
µr =
R∞
xri · P (xi )
(i)
pro spojitou NV:
−∞
xr · f (x)dx
(pokud uvedená řada nebo integrál konvergují absolutně) Význačnou roli mezi obecnými momenty má zejména obecný moment 1. řádu. Tento moment je nazýván střední hodnotou. • Střední hodnota (angl. „expected value“, někdy také „mean“; značí se E(X) nebo µ) pro diskrétní NV:
µ=
P
xi · P (xi )
(i)
pro spojitou NV:
µ=
R∞ −∞
x · f (x)dx
(pokud uvedená řada nebo integrál konvergují absolutně) Střední hodnota je parametrem rozdělení náhodné veličiny. Často bývá označována jako populační průměr, tj. průměr všech realizací náhodné veličiny. Střední hodnota platů v ČR je průměrem platů všech občanů ČR pobírajících mzdu; střední hodnota doby do poruchy monitorů XY je průměrem doby do poruchy všech vyrobených monitorů XY , apod. Všimněte si, že nedokážete-li určit rozdělení náhodné veličiny (pravděpodobnostní funkci, resp. hustotu pravděpodobnosti), nedokážete určit ani její střední hodnotu.
69
70
Náhodná veličina
Vlastnosti střední hodnoty: 1. ∀a, b ∈ R : E(aX + b) = aE(X) + b Násobíme-li X konstantou, násobí se jí i její střední hodnota; přičteme-li k X konstantu, změní se o tuto konstantu i její střední hodnota. 2. E(
n P i
Xi ) =
n P
E(Xi )
i
Střední hodnota součtu náhodných veličin je rovna součtu jednotlivých středních hodnot. 3. Pro X1 , . . . , Xn nezávislé platí E(Πni=1 Xi ) = Πni=1 E(Xi ) Jsou-li NV X1 , . . . , Xn nezávislé, pak střední hodnota jejich součinu je rovna součinu jednotlivých středních hodnot. 0
0
• Centrální moment r-tého řádu µr (značíme µr = E(X − E(X))r pro r = = 1, 2, . . .) pro diskrétní NV:
0
P
µr =
(xi − E(X))r · P (xi )
(i)
pro spojitou NV:
0
µr =
R∞ −∞
(x − E(X))r · f (x)dx
(pokud uvedená řada nebo integrál konvergují absolutně) Podobně význačné postavení jako má střední hodnota mezi obecnými momenty, má mezi centrálními momenty druhý centrální moment – rozptyl. 0
• Rozptyl (angl. „dispersion“, „variance“; značí se µ2 nebo σ 2 nebo D(X)) pro diskrétní NV:
0
µ2 =
P (xi − E(X))2 · P (xi ) (i)
pro spojitou NV:
0
µ2 =
R∞ −∞
(x − E(X))2 · f (x)dx
(pokud uvedená řada nebo integrál konvergují absolutně) Definiční vztahy pro rozptyl se při praktických výpočtech, bohužel, ukazují jako nevhodné (časově náročný výpočet). v praxi se proto mnohem častěji pro určení rozptylu využívá tvrzení, že D(X) = E(X 2 ) − (E(X))2 . Důkaz tohoto tvrzení je založen na vlastnostech střední hodnoty a je ponechán k samostatnému cvičení.
71
3.6 Číselné charakteristiky náhodné veličiny
Rozptyl je parametrem rozdělení vyjadřujícím variabilitu (rozptýlenost) realizací náhodné veličiny kolem její střední hodnoty. (Uvědomte si, že jednotka rozptylu je kvadrátem jednotky, v níž jsou zaznamenávány jednotlivé realizace NV. Například jednotkou rozptylu platů v ČR je Kč2 .) Vlastnosti rozptylu: 1. ∀a ∈ R : D(aX + b) = a2 D(X) Násobíme-li náhodnou veličinu konstantou, hodnota jejího rozptylu se vynásobí druhou mocninou této konstanty; přičteme-li k náhodné veličině konstantu, její rozptyl se nezmění. 2. X1 , . . . , Xn nezávislé ⇒ D(
n P
i=1
Xi ) =
n P
D(Xi )
i=1
Jsou-li NV X1 , . . . , Xn nezávislé, pak rozptyl jejich součinu je roven součinu jednotlivých rozptylů. • Směrodatná odchylka (angl. „standard deviation“, značí se σ, popř. σx chceme-li zdůraznit příslušnost k určité náhodné veličině) Směrodatná odchylka je definována jako odmocnina z rozptylu p σ = D(X). Podobně jako rozptyl je také směrodatná odchylka mírou variability náhodné veličiny. Jednotka, v níž bývá uváděna směrodatná odchylka je stejná jako jednotka, v níž jsou zaznamenávány jednotlivé realizace NV. (Například směrodatná odchylka platů v ČR se uvádí v Kč.) Momenty vyšších řádů se využívají nejčastěji k určení číselných charakteristik popisujících tvar rozdělení (šikmost, špičatost). • Šikmost (angl. „skewness“, značí se α3 ) Šikmost je mírou symetrie daného rozdělení pravděpodobnosti a je definována podílem třetího centrálního momentu a třetí mocniny směrodatné odchylky. α3 =
µ3 σ3
Symetrii rozdělení (vzhledem k symetrii normovaného normálního rozdělení (kap. 6) pak posuzujeme takto. α3 = 0 α3 < 0 α3 > 0
Symetrické rozdělení Negativně zešikmené rozdělení Pozitivně zešikmené rozdělení
72
Náhodná veličina
• Špičatost (angl. „kurtois“, značí se α4 ) Špičatost je mírou koncentrace hodnot náhodné veličiny kolem střední hodnoty a je definována podílem čtvrtého centrálního momentu a čtvrté mocniny směrodatné odchylky. µ4 α4 = 4 σ Špičatost rozdělení pak posuzujeme vzhledem ke špičatosti normovaného normálního rozdělení (Kap. 6) takto: α4 = 3 α4 < 3 α4 > 3
Normální špičatost (tj. špičatost normálního rozdělení) Menší špičatost než u normálního rozdělení (plošší rozdělení) Větší špičatost než u normálního rozdělení (špičatější rozdělení)
Vzhledem k nepraktickému vyhodnocování špičatosti (vzhledem k hodnotě 3) se mnohdy používá tzv. standardizovaná špičatost, která je definována jako α4 − 3 a špičatost rozdělení je pak posuzována vzhledem k hodnotě 0. • Kvantily (angl. „quantiles, percentiles“; značí se xp ) Kvantily diskrétní náhodné veličiny v praxi obvykle neurčujeme, neboť jejich stanovení většinou není jednoznačné. v případě spojité náhodné veličiny kvantily stanovujeme z podmínky ∀p ∈ h0; 1i : F (xp ) = p. Je tedy možné říci, že vztah pro výpočet kvantilu (někdy hovoříme o kvantilové funkci) je inverzní funkcí k funkci distribuční. Uvědomte si, že kvantil xp udává takovou hodnotu, že pravděpodobnost, že náhodná veličina nabude hodnoty menší než xp je 100p%. (Popisuje-li náhodná veličina X platy v ČR a x0,3 =12 000 Kč, pak víte, že 30% lidí v ČR má plat menší než 12 000,- Kč.) • Modus (značí se xˆ) U kategoriální proměnné byl modus roven nejčetnější kategorií proměnné. Obdobně jej můžeme chápat u náhodné veličiny. Modus maximalizuje pravděpodobnostní funkci, resp. hustotu pravděpodobnosti náhodné veličiny X. pro diskrétní NV:
∀i ∈ 1, 2, . . . , n : P (X = xˆ) = P (X = xi )
73
3.6 Číselné charakteristiky náhodné veličiny
(Hodnota, které nabývá NV s největší pravděpodobností.) pro spojitou NV:
∀x ∈ R : f (ˆ x) = f (x)
Příklad 3.3. Vraťme se k diskrétní náhodné veličině X (počet porouchaných strojů v dílně) z řešeného příkladu 3.1. Řešením příkladu 3.1 byl popis rozdělení této náhodné veličiny pomocí pravděpodobnostní i distribuční funkce. Nyní určete její ܲሺܵͳሻ ൌ Ͳǡʹ ܲሺܵʹሻ ൌ Ͳǡ͵ a) střední hodnotu, b) rozptyl, c) směrodatnou odchylku, തതത ʹܵ ת തതതሻ ൌ ܲሺܵͳ തതതሻ ή ܲሺܵʹ തതതሻ ൌ Ͳǡͺ ή Ͳǡ ൌ Ͳǡͷ ሺܺ ൌ Ͳሻ ൌ ܲሺܵͳ d) modus. തതത ʹܵ תሻ൯ ൌ ܲሺܵͳሻ ή ܲሺܵʹ തതതሻ ܲሺܵͳ തതതሻ ή ܲሺܵʹሻ ൌ ሺܺ ൌ ͳሻ ൌ ܲ൫ሺܵͳ תതതത ܵʹሻ ሺܵͳ ൌ Ͳǡʹ ή Ͳǡ Ͳǡͺ ή Ͳǡ͵ ൌ Ͳǡ͵ͺ ሺܺ ൌ ʹሻ ൌ ܲሺܵͳ Řešení. ʹܵ תሻ ൌ ܲሺܵͳሻ ή ܲሺܵʹሻ ൌ Ͳǡʹ ή Ͳǡ͵ ൌ ͲǡͲ Připomeňme si pravděpodobnostní a distribuční funkci náhodné veličiny X z příkladu 3.1.
xi 0 1 2 Σ a) E(X) =
P (i)
+
(Hodnota, v níž hustota pravděpodobnosti nabývá svého maxima.)
x F( x ) ሺെλǢ Ͳ ۄ0 ሺͲǢ ͳ ۄ0,56 ሺͳǢ ʹ ۄ0,94 ሺʹǢ λሻ 1
P( X = xi ) 0,56 0,38 0,06 1,00
xi · P (xi ) = 0 · 0, 56 + 1 · 0, 38 + 2 · 0, 06 = 0, 50. ܧሺܺሻ ൌ σሺሻ ݔ ή ܲሺݔ ሻ ൌ Ͳ ή Ͳǡͷ ͳ ή Ͳǡ͵ͺ ʹ ή ͲǡͲ ൌ ͲǡͷͲ
Průměrný počet porouchaných strojů v dílně je 0,5.
א ݔԹ̳ȳǣ ܲሺܺ ൌ ݔሻ ൌ Ͳ b) Pro výpočet rozptylu použijeme tvrzení, že DX = E(X 2 ) − (E(X))2 , kde E(X 2 ) ଶ ܺܦൌ ܧሺܺ ଶ ሻ െ ൫ܧሺܺሻ൯ 2 značí druhý obecný moment a (E(X)) σ jeሺሻdruhou střední hodnoty. ܲሺݔଶ ሻ ൌmocninou ͳ ൫ܧሺܺሻ൯ P E(X 2 ) = x2i · P (xi ) = 02 · 0, 56 + 12 · 0, 38 + 22 · 0, 06 = 0, 62 (i)
ܧሺܺ ଶ ሻ ൌ ݔଶ ή ܲሺݔ ሻ ൌ Ͳଶ ή Ͳǡͷ ͳଶ ή Ͳǡ͵ͺ ʹଶ ή ͲǡͲ ൌ Ͳǡʹ 2 D(X) = E(X 2 ) − (E(X))ሺሻ = 0, 62 − 0, 502 = 0, 37 ܲሺܺ ൌ ܽሻ ൌ ௫՜శ ܨሺݔሻ െ ܨሺܽሻሻ ଶ Při „ručním“ výpočtu vhodné zaznamenat si dílčí ଶ ܦሺܺሻ ൌstřední ܧሺܺ ଶ ሻ hodnoty െ ൫ܧሺܺሻ൯a rozptylu ൌ Ͳǡʹ െjeͲǡͷͲ ൌ Ͳǡ͵ výsledky výpočtu do tabulky ve formátu prezentovaném v Tab. 3.4. ܨሺݔሻ ൌ σ௫ ழ௫ ܲሺݔ ሻ
א ݔሺെλǢ Ͳۄǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ Ͳ
א ݔሺͲǢ ͳۄǣ ܨሺݔሻ ൌ ܲሺܺ ൏ ݔሻ ൌ ܲሺܺ ൌ Ͳሻ ൌ Ͳǡͷ
ܲሺݔ ሻ
ݔ ή ܲሺݔ ሻ
ݔଶ ή ܲሺݔ ሻ
ܧሺܺ ଶ ሻ
ܧሺܺ ଶ ሻ ൌ ݔଶ ή ܲሺݔ ሻ ൌ Ͳଶ ή Ͳǡͷ ͳଶ ή Ͳǡ͵ͺ ʹଶ ή ͲǡͲ ൌ Ͳǡʹ ሺሻ
ଶ
ܦሺܺሻ ൌ ܧሺܺ ଶ ሻ െ ൫ ܧሺܺሻ൯ ൌ Ͳǡʹ െ ͲǡͷͲଶ ൌ Ͳǡ͵ 74
Náhodná veličina
Tab. 3.4: Dílčí výsledky při výpočtu E(X) a E(X 2 )
xi ܲ ሺݔ ሻ 0 0,56 1 0,38 2 0,06 ߪ ൌ ඥܦሺܺሻΣ ൌ ξͲǡ͵ ؆1,00 Ͳǡͳ
c) σ =
ݔ ή ܲሺݔ ሻ 0,00 0,38 0,12 0,50 EX
ݔଶ ή ܲሺݔ ሻ 0,00 0,38 0,24 0,62 EX2
p √ . D(X) = 0, 37 = 0, 61
Všimněte si vysoké variability počtu porouchaných strojů v dílně. Zatímco střední
ݔොhodnota ൌ Ͳ počtu porouchaných strojů je 0,5, směrodatná odchylka je 0,6.
+
d) Modus je hodnota, které diskrétní náhodná veličina nabývá s největší pravděpodobností, proto xˆ = 0. N
Příklad 3.4. Majitel autorizovaného servisu nabídl půjčovně automobilů své služby. Za každý automobil zapůjčený jeho prostřednictvím obdrží od půjčovny automobilů 500,- Kč. Zároveň se však zavázal, že každý den investuje do údržby zapůjčených automobilů 800,- Kč. Počet automobilů zapůjčených prostřednictvím autorizovaného servisu za 1 den je popsán pravděpodobnostní funkci v Tab. 3.5. Tab. 3.5: Pravděpodobnostní funkce počtu zapůjčených automobilů za 1 den
xi 0 1 2 3 4 5 6 P(xi) 0,01 0,40 0,25 0,15 0,10 ? 0,03 a) Pravděpodobnost, že majitel autoservisu zapůjčí v jednom dni 5 automobilů je špatně čitelná. Určete ji. b) Určete střední hodnotu, směrodatnou odchylku a modus počtu zapůjčených automobilů během jednoho dne. c) Určete pravděpodobnostní funkci, střední hodnotu, směrodatnou odchylku a modus zisku majitele servisu z automobilů zapůjčených během jednoho dne.
σሺ݅ ሻ ܲ ሺ ݅ݔሻ ൌ ͳ ܲሺܺ ൌ ͷሻ ൌ ͳ െ ሺͲǡͲͳ ͲǡͶͲ Ͳǡʹͷ Ͳǡͳͷ ͲǡͳͲ ͲǡͲ͵ሻ ൌ ͲǡͲ
75
3.6 Číselné charakteristiky náhodné veličiny
Řešení. a) Nechť náhodná veličina X označuje počet zapůjčených automobilů během jednoho dne. Je zřejmé, že jde o diskrétní náhodnou veličinu. Musí tedy platit, že X P (xi ) = 1. σ ܲሺ ݅ݔሻ ൌ ͳ ሺ݅ሻ (i) Z toho plyne, žeܲሺܺ P (X 01+0, 40+0, 25+0, 15+0, = 0,ൌ06. ൌ= ͷሻ5)ൌ=ͳ 1−(0, െ ሺͲǡͲͳ ͲǡͶͲ Ͳǡʹͷ Ͳǡͳͷ 10+0, ͲǡͳͲ 03) ͲǡͲ͵ሻ ͲǡͲ b) Dílčí výpočty potřebné pro stanovení střední hodnoty a směrodatné odchylky můžeme zaznamenat do tabulky.
Σ xi 0 1 2 3 4 5 6 P (X=xi) 0,01 0,40 0,25 0,15 0,10 0,06 0,03 1 0 0,4 0,5 0,45 0,4 0,3 0,18 2,23 xi .P(X=xi) 2 0 0,4 1 1,35 1,6 1,5 1,08 6,93 xi .P(X=xi) P E(X) = x · P (X = x ) = 2, 23, ܧሺܺሻ ൌ σሺ݅ሻ(i) ݅ݔήi ܲሺܺ ൌ ݅ݔሻi ൌ ʹǡʹ͵ P E(X 2 ) = x2i · P (X = xi ) = 6, 93, (i)
D(X) = E(X 2 ) − (E(X))2 = 9, 93 − (2, 23)2 = 1, 96, p √ σ = D(X) = 1, 96 = 1, 40. Střední počet automobilů zapůjčených během jednoho dne je 2,23, směrodatná odchylka je 1,40 automobilů. Modem je hodnota s nejvyšší pravděpodobnosti. s nejvyšší pravděpodobností půjčuje majitel autorizovaného servisu jedno auto denně (ˆ x = 1). c) Zisk majitele autorizovaného servisu se odvíjí od počtu zapůjčených automobilů. Nechť náhodná veličina Z označuje zisk majitele autorizovaného servisu ze zapůjčování automobilů. Vzhledem k dohodnutým podmínkám lze tvrdit, že Z = 500 · X − 800 [Kč]. Pravděpodobnostní funkce náhodné veličiny Z bude odvozena z pravděpodobnostní funkce náhodné veličiny X. Z + 800 = xi = P (Z = 500xi − 800) P (X = xi ) = P 500 (Pravděpodobnost toho, že majitel servisu zapůjčí denně 2 automobily je stejná jako pravděpodobnost, že jeho denní zisk bude 200,- Kč (500 · 2 − 800), apod.)
ܼ ͺͲͲ ܲሺܺ ൌ ݅ݔሻ ൌ ܲ ൬ ൌ ݅ݔ൰ ൌ ܲሺܼ ൌ ͷͲͲ ݅ݔെ ͺͲͲሻ ͷͲͲ
76
Náhodná veličina ሺͷͲͲ ή ʹ െ ͺͲͲሻ xi 0 1 2 3 P (X=xi) 0,01 0,40 0,25 0,15 zi [Kč] P (Z=zi)
4 0,10
5 0,06
6 0,03
-800 -300 200 700 1 200 1 700 2 200 0,01 0,40 0,25 0,15 0,10 0,06 0,03
Pro výpočet středního zisku a směrodatné odchylky zisku využijeme vlastností střední hodnoty a rozptylu. ܧሺܼሻ ൌ ܧሺͷͲͲܺ െ ͺͲͲሻ ൌ ͷͲͲܧሺܺሻ െ ͺͲͲ ൌ ͷͲͲ ή ʹǡʹ͵ െ ͺͲͲ ൌ ͵ͳͷሾ«ܭሿ
E(Z) = E(500X − 800) = 500E(X) − 800 = 500 · 2, 23 − 800 = 315 [Kč] ܦሺܼሻ ൌ ܦሺͷͲͲܺ െ ͺͲͲሻ ൌ ͷͲͲʹ ܦሺܺሻ ൌ ͷͲͲʹ ή ͳǡͻ ؆ ͻͻሾ ʹ«ܭሿ
. D(Z) = D(500X − 800) = 5002 D(X) = 5002 · 1, 96 = 979 [Kč2 ] ߪܼ p ൌ ඥܦሺܼሻ ൌ √ ξͻͻ ؆ ͵ͳሾ«ܭሿ . σZ = D(Z) = 979 = 31 [Kč] Očekávaný denní zisk majitele servisu je 315,- Kč se směrodatnou odchylkou 31,Kč.ݔො ൌ െ͵ͲͲሾ«ܭሿ xˆ = −300 [Kč]
+
Modem denního zisku je ztráta 300,- Kč. Lze říci, že i když to tak většinou nevypadá (modem je ztráta), průměrně majitel autoservisu na poskytované službě vydělá (střední hodnota denního zisku je kladná). N
Příklad 3.5. V tomto příkladě budeme pracovat se spojitou náhodnou veličinou X, jejíž rozdělení (hustota pravděpodobnosti a distribuční funkce) bylo určeno v řešeném příkladu 3.2. Pro náhodnou veličinu X určete a) střední hodnotu, b) rozptyl, c) směrodatnou odchylku, d) medián, x0,5 , tj. hodnotu, pro kterou platí: P (X < x0,5 ) = 0, 5 e) modus. Dále mějme náhodnou veličinu Y , která je dána jako funkce náhodné veličiny X. Y = 5X + 6 Určete f) distribuční funkci FY (y) náhodné veličiny Y ,
77
3.6 Číselné charakteristiky náhodné veličiny
g) hustotu pravděpodobnosti fY (y) náhodné veličiny Y , h) střední hodnotu E(Y ) náhodné veličiny Y , i) rozptyl D(Y ) náhodné veličiny Y .
Řešení. Připomeňme si, že náhodná veličina z řešeného příkladu 3.2 je popsána hustotou pravděpodobnosti ( 3 (1 − x2 ) x ∈ (−1; 1), fX (x) = 4 0 jinde a distribuční funkcí x ∈ (−∞; −1), 0 1 F (X) = (−x3 + 3x + 2) x ∈ h−1; 1) , 4 1 x ∈ h1; ∞) . a) Střední hodnota je Z
∞
Z
1
Z
1
3 x · (1 − x2 )dx + x · 0dx + x · f (x)dx = E(X) = 4 −1 −∞ −∞
∞
Z
x · 0dx = 1
1 3 x2 x4 =0+ − + 0 = 0, 00 4 2 4 −1
b) Rozptyl určíme pomocí výpočetního vztahu: D(X) = E(X 2 ) − (E(X))2 . Z
∞
Z
1
Z
1
3 x · (1 − x2 )dx + x · f (x)dx = x · 0dx + E(X ) = 4 −1 −∞ −∞ 2
2
2
2
Z
∞
x2 · 0dx =
1
1 3 x3 x5 =0+ − + 0 = 0, 20 4 3 5 −1 D(X) = E(X 2 ) − (E(X))2 = 0, 2 − 02 = 0, 2 c) Směrodatná odchylka je odmocninou rozptylu. σ =
p √ . D(X) = 0, 2 = 0, 45
78
Náhodná veličina
d) Pravděpodobnost, že náhodná veličina nabývá hodnot menších než x0,5 je 0,5. P (X < x0,5 ) = F (x0,5 ) = 0, 5 Ze vztahu pro distribuční funkci je zřejmé, že z intervaluh−1; 1). 1 (−x0,5 3 + 3x0,5 + 2) 4 −x0,5 3 + 3x0,5 x0,5 (−x0,5 2 + 1)
x0,5
medián může být pouze hodnota = 0, 5 = =
0 0
0 √ ∈ h−1; 1) / h−1; 1) ⇒ x0,5 = 0 − 3 ∈ = √ 3 ∈ / h−1; 1)
e) Modus spojité náhodné veličiny je hodnota, v níž hustota pravděpodobnosti této NV nabývá svého maxima. Pro maximum spojité funkce platí, že první derivace v něm musí být nulová (nebo nedefinována) a druhá derivace v něm musí být záporná nebo nedefinována. Je zřejmé, že rovněž modus budeme hledat na intervalu h−1; 1). df (x) dx 3 2 d (1 − x ) 4 dx 3x − 2 x d2 f (x) dx2 d2 f (0) dx2 xˆ
= 0
= 0 = 0 = 0 ... bod podezřelý z maxima 3 2 3 = − < 0 ... f (x) má v x = 0 maximum 2 = 0 = −
(Modus (hodnotu, v níž má hustota pravděpodobnosti maximum) jste mohli identifikovat pouhým pohledem na graf f (x), který je uveden na Obr. 3.10.)
3.6 Číselné charakteristiky náhodné veličiny
Nyní se zaměříme na popis náhodné veličiny Y , která je dána vztahem Y = 5X + 6. Pro určení rozdělení náhodné veličiny Y využijeme znalosti distribuční funkce, střední hodnoty a rozptylu náhodné veličiny X. x ∈ (−∞; −1), 0 1 FX (x) = (−x3 + 3x + 2) x ∈ h−1; 1) , EX = 0, DX = 0, 2 4 1 x ∈ h1; ∞) . y−6 y−6 f) FY (y) = P (Y < y) = P (5X + 6 < y) = P X < = FX 5 5 Nyní určíme distribuční funkci F Y (y) tak, že v předpisu pro distribuční funkci y−6 FX (x) provedeme substituci x = . 5 y − 6 0 ∈ (−∞; −1), ! 5 3 1 y−6 y−6 y−6 − FY (y) = +3 +2 ∈ h−1; 1) , 4 5 5 5 y−6 ∈ h1; ∞) . 1 5 Po úpravě dostaneme y ∈ (−∞; 1), 0 1 3 FY (y) = − (y − 18y 2 + 33y − 16) y ∈ h1; 11) , 500 1 y ∈ h11; ∞) . g) Hustotu pravděpodobnosti určíme jako derivaci distribuční funkce. fY (y) =
dFY (y) dy
1 (3y 2 − 36y + 33) y ∈ h1; 11) , 500 0 jinde.
(
−
(
1 2 (y − 12y + 11) y ∈ h1; 11) , 500 0 jinde.
fY (y) = Po úpravě fY (y) =
−
79
80
Náhodná veličina
h) z vlastností střední hodnoty plyne, že E(Y ) = E(5X + 6) = 5E(X) + 6 = 5 · 0 + 6 = 6. i) z vlastností rozptylu plyne, že D(Y ) = D(5X + 6) = 52 D(X) = 25 · 0, 2 = 5. Význam číselných charakteristik popisujících náhodnou veličinu může být prezentován pouze v případech, kdy víte, jaký problém je náhodnou veličinou modelován. v tomto příkladě jste si měli pouze procvičit matematické úkony spojené s výpočtem číselných charakteristik, konkrétní význam není číselným charakteristikám přiřazen. N
3.6 Číselné charakteristiky náhodné veličiny
Shrnutí:
81
X
Náhodná veličina je veličina, jejíž hodnota je jednoznačně určena výsledkem náhodného pokusu (je-li tento výsledek dán reálným číslem). Jde o reálnou funkci definovanou na základním prostoru a popsanou distribuční funkcí. Distribuční funkce je reálná funkce definována jako F (x) = P (X < x). Jde tedy o funkci, která každému reálnému číslu přiřazuje pravděpodobnost, že náhodná veličina nabývá hodnot menších než toto reálné číslo. Pravidlo, které každé hodnotě (popř. každému intervalu hodnot) přiřazuje pravděpodobnost, že náhodná veličina nabude této hodnoty (popř. hodnoty z tohoto intervalu), nazýváme rozdělením pravděpodobnosti náhodné veličiny. Podle toho, jakých může náhodná veličina nabýt hodnot (resp. z jakého intervalu), rozlišujeme spojitou a diskrétní náhodnou veličinu, přesněji řečeno náhodnou veličinu se spojitým a diskrétním rozdělením. Diskrétní náhodná veličina je náhodná veličina, která může nabývat pouze konečného (výsledek hodu kostkou) nebo spočetně nekonečného (počet zákazníků snažících se dovolat do call centra během dne) množství hodnot. Diskrétní náhodnou veličinu popisujeme prostřednictvím pravděpodobnostní funkce, popř. distribuční funkce. Spojitá náhodná veličina je náhodnou veličinou, která má spojitou distribuční funkci. Pro popis spojité náhodné veličiny používáme distribuční funkci a hustotu pravděpodobnosti. Pravděpodobnost výskytu náhodné veličiny na nějakém intervalu určujeme na základě následujících vztahů. P (X < a) = F (a) P (X = b) = 1 − F (b) P (a 5 X < b) = F (b) − F (a) V případě, že g(x) je nějaká prostá reálná funkce, definovaná na základním souboru náhodné veličiny X, můžeme snadno odvodit rozdělení transformované náhodné veličiny Y = g(X). V mnoha případech je výhodné shrnout celkovou informaci o náhodné veličině pomocí několika čísel, která charakterizují některé vlastnosti náhodné veličiny, případně umožňují srovnání různých náhodných veličin. Tato čísla se nazývají číselné charakteristiky náhodné veličiny. Mezi základní číselné charakteristiky řadíme střední hodnotu, rozptyl, směrodatnou odchylku, kvantily, modus, šikmost a špičatost.
82
?
Náhodná veličina
Test 1. Sestavte dvojice pojem - příklad. a) náhodný pokus
1) Doba přenosu testovacího datového souboru je delší než 30s. b) náhodný jev 2) Měření doby přenosu testovacího datového souboru. c) náhodná veličina 3) Doba přenosu testovacího datového souboru. 2. Určete pravdivost následujících výroků. a) Náhodnou veličinu chápeme jako výsledek náhodného pokusu. b) Diskrétní náhodná veličina může nabývat konečného nebo spočetného množství hodnot. c) Distribuční funkce náhodné veličiny X v bodě t udává pravděpodobnost, že náhodná veličina X nabývá hodnot menších než t. d) Má-li náhodná veličina spojitou distribuční funkci, je spojitá. P e) Je-li X diskrétní náhodná veličina, pak P (X = xi ) = 1. (i)
f) Oborem hodnot distribuční funkce jsou všechna reálná čísla. g) Medián je střední hodnota. h) Nabývá-li funkce f (x) hodnoty 1,3, nemůže jít o hustotu pravděpodobnosti. i) Rozdělení spojité náhodné veličiny můžeme popsat distribuční funkcí nebo σሺ݅ሻ ܲሺܺ ൌ ݅ݔሻ ൌ ͳ hustotou pravděpodobnosti. j) Střední hodnota součtu dvou náhodných veličin je rovna součtu jednotlivých středních hodnot. k) Rozptyl součtu dvou náhodných veličin je roven součtu jednotlivých rozptylů. l) Střední hodnota součinu dvou náhodných veličin je rovna součinu jednotlivých středních hodnot. m) Rozptyl součinu dvou náhodných veličin je roven součinu jednotlivých rozptylů. 3. Určete, která ze zadaných funkcí nemůže představovat pravděpodobnostní funkci. (ͳ 1 ሼʹǢ ͵Ǣ ݇ { א2; k∈ 3;ሽ 6} ൌ ݇ሻ a) Pܲሺܺ (X = k) ൌ = ቊ݇ k ሼʹǢ ͵Ǣ Ͳ݇ 0 k∈ /{ ב2; 3;ሽ 6} b)b) k 2 3 6 ܲሺܺ ൌ ݇ሻ 0,2 0,4 0,4
݇ אሼʹǢ ͵Ǣ ሽ ܲ ሺܺ ൌ ݇ሻ ൌ ቊ݇ Ͳ݇ בሼʹǢ ͵Ǣ ሽ ͳ
83
3.6 Číselné charakteristiky náhodné veličiny
ܲ ሺܺ ൌ ݇ ሻ
c)
P(X=k)
1 0,8e) 0,6 0,4 0,2 0 0
2
4
8k
6
4. Určete, zda by grafy znázorněných funkcí mohly představovat distribuční funkci.
F(x)
1
1 F(x)
0 -2
-1
0 0
1
2
-2
-1
0
1
2
x
x
-1
-1
a) F(x)
b)
1
1 F(x)
0 -2
-1
0 0
1
2
x
-1
1
3
c)
5
7
x
5
7
x
d)
F(x) 1
1 F(x)
0 -1
0
1
3
e)
5
7
x
-1
1
3
f)
84
Náhodná veličina
5. Určete, zda by grafy znázorněných funkcí mohly představovat hustotu pravděpodobnosti. f(x) f(x)
2
1
1,5
0,5
1 0,5
0 -2
-1
0
1
2
3
0
x 4
-0,5
-1
-0,5
0
0,5
-1
x
a) f(x)
b)
1 f(x)
1
0,8
0,8
0,6
0,6
0,4
0,4
0,2
0,2
0 -1
1
0
0
1
2
3
-0,5
-0,25
0
0,5 x
x
c)
0,25
d)
6. Nechť náhodná veličina X představuje životnost (dobu do poruchy) monitorů na počítačové učebně E320. Určete pravdivost následujících výroků. a) X je spojitou náhodnou veličinou. b) Rozdělení X může být popsáno pravděpodobnostní funkcí.
ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲ ሺܺ ൏ ͳͲሻͷሻ ܲሺܺ ܲሺܺ ͷሻ ܲ ሺܺ 7. Vyjádřete pravděpodobnosti pomocí distribuční funkce. ܲሺͷͷሻnásledující ܺ ൏ ͳͲሻ ܲሺͷ ܺ ൏ ͳͲሻ ሺͷP(X ܲa) ͳͲሻ <൏10), ܲሺܺ ൏ܺͳͲሻ ܲሺܺ ͷሻ b) P (X = 5), ܲሺܺ ൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ ܲሺͷ ܺ ൏ ͳͲሻ 5 ͷሻ ܲሺܺ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ c)ܲሺܺ P (5 X <ൌ10). ܲሺܺ ൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ ܲሺܺ ͳͲሻ ܲሺܺ ͷሻ ሺ ሻ ܲ ܺ ͷ ܲሺܺ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͳͲሻ ܲሺܺ Vyjádřete ൏ ͳͲሻ ܲሺܺconejjednodušeji ͳͲሻ ܲሺܺ ൌ ͷሻnásledující ܲሺܺ ൏ ͷሻ ܲሺͷ ൏ ͳͲሻ 8. Nechť XͳͲ jeሻܺdiskrétní náhodná veličina. ሺ ܲ ܺ ܲሺܺ ͳͲሻ ܲሺͷ ܺ ͳͲሻ ܲሺܺ ͷሻ pravděpodobnosti pomocí P (X = 10), P (X < 10), P (X > 10), P (X = 5), ܲሺܺ ͳͲሻ ܲሺͷ ൏ ܺ ͳͲሻ ܲሺܺ ͳͲሻ Pܲ(X <ܺ 5),PͳͲ (Xሻ > 5). ሺͷ ൏ ܲሺͷ ܺ ͳͲሻ ܲሺܺ ͳͲሻ ܲa)ሺͷP ͳͲሻ (Xܺ510), ܲሺܺ ൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ ܲሺͷ ൏ ܺ ͳͲሻ ܲሺܺ ͷሻ b) P (X ܲሺͷ ܺ=5), ͳͲሻ ܲሺܺ ܲሺܺ ͳͲሻൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ c) P (5 < X 5 10), ܲ ሺܺ ൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲ ሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ ܲሺܺ ͷሻ ܲሺܺ ͳͲሻܲሺܺ ͷሻ ܲሺܺ ൌ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͷሻ ܲሺܺ ͳͲሻ ܲሺܺ ሺ ሻ ܲ ܺ ͷሻ ͳͲ ܲሺͷ ൏ ܺ ͳͲሻ ሺܺ ͳͲ ሻ ͳͲሻ ܲܲሺܺ ܲሺͷ ܺ ͳͲሻ ܲሺͷ ൏ ܺ ͳͲሻ
ܲሺͷ ܺ ͳͲሻ
3.6 Číselné charakteristiky náhodné veličiny
d) P (5 5 X 5 10). 9. Nechť X je spojitá náhodná veličina. Vyjádřete co nejjednodušeji následující pravděpodobnosti pomocí P (X = 10), P (X < 10), P (X > 10), P (X = 5), P (X < 5), P (X > 5). a) P (X 5 10), b) P (X = 5), c) P (5 < X 5 10), d) P (5 5 X 5 10). 10. Nechť X je spojitá náhodná veličina. Vyjádřete následující pravděpodobnosti pomocí hustoty pravděpodobnosti. a) P (X 5 10), b) P (X = 5), c) P (5 < X 5 10), d) P (5 5 X 5 10).
85
86
!
Náhodná veličina
Úlohy k řešení 1. Náhodná veličina X je dána součtem počtu ok při dvou hodech klasickou hrací kostkou. Pro náhodnou veličinu X určete a) pravděpodobnostní funkci, b) distribuční funkci, c) střední hodnotu, d) rozptyl.
2. Ve městě byl po dobu 60 dnů evidován počet dopravních nehod v průběhu každého dne a podle počtu nehod v jednom dni vytvořena následující tabulka:
0 1 2 3 4 5 6 Počet nehod/ den Počet dnů s uvedeným počtem nehod 4 28 10 7 6 4 1 Pro náhodnou veličinu počet nehod v jednom dni určete a) pravděpodobnostní funkci, b) distribuční funkci, c) střední hodnotu, d) směrodatnou odchylku, e) modus. 3. Známe distribuční funkci náhodné veličiny X: Ͳݔ ͳͲͲ 0 x 5 100 ۓ ͲǡͳͷͳͲͲ ݔ ൏ ۖ 100 < x 5 150ͳͷͲ 0, 15 ܨሺF ݔሻ(x) ൌ= ͲǡͶͷͳͷͲ 0, 45 150 <x ݔ 5൏ 300͵ͲͲ ۔ ͲǡͺͲ͵ͲͲ 0, 80 300 <x ݔ 5൏ 500ͷͲͲ ۖ ݔͳ ە 1 x > 500ͷͲͲ Určete pravděpodobnostní funkci P (x). 4. Rozdělení náhodné veličiny X je dáno hustotou 2x + 2 x ∈ (−1; 0) f (x) = 0ʹ ݔ ʹ א ݔjinde. ሺെͳǢ Ͳሻ Určete
ܲሺെʹ ܺ െͲǡͷሻ b) P (−2 5 X 5 −1), ܲ ሺെʹ ܺ െͳሻ
a) P (−2 5 X 5 −0, 5), c) E(X), D(X), σx
݂ ሺ ݔሻ ൌ ൜
Ͳ ݆݅݊݀݁Ǥ
87
Úlohy k řešení
d) modus e) medián x0,5 .
5. Náhodná veličina X má distribuční funkci 0 ax3 F (x) = 1
x50 0<x52 x>2
Určete a) parametr a, b) hustotu pravděpodobnosti, c) střední hodnotu a směrodatnou odchylku, d) pravděpodobnost, že X se od své střední hodnoty neliší o více než 0, 5, e) modus.
6. X je spojitá veličina s hustotou pravděpodobnosti f (x) = 12 e−|x| . Určete P (1 5 |X| 5 5 2). 7. Nezávislé náhodné veličiny X a Y mají následující střední hodnotu a rozptyl: E(X) = 1, E(Y ) = 3, D(X) = 4, D(Y ) = 9. Definujme náhodné veličiny Z a Q jako Z = 4X − − 2Y + 12 a Q = −2X + Y − 7. Určete střední hodnotu a rozptyl náhodných veličin Z a Q.
88
Náhodná veličina
Řešení
Test 1. 1) a–2, b–1, c–3, 2) a) NE (NV chápeme jako výsledek náhodného pokusu, který je dán reálným číslem.), b) ANO, c) ANO, d) ANO, e) ANO, f) NE (F (x) ∈ hO; 1i), g) NE (srovnejte definici střední hodnoty a mediánu), h) NE (f (x) h0; ∞) , i) ANO, j) ANO, k) NE (platí pouze pro nezávislé NV), l) NE (platí pouze pro nezávislé NV), m) NE, P 3) c) ( P (X = xi ) 6= 1), (i)
4) a) NE (F (x) není neklesající), b) NE (F (x) ∈ / hO; 1i), c) NE (limx→−∞ F (x) 6= 0),d) NE (F (x) není zleva spojitá. Pozor! Někdy se distribuční funkce definuje jako F (x) = P (X 5 x), pak je F (x) zprava spojitá, čemuž odpovídá graf d)), e) ANO (Pozor! Je-li distribuční funkce definována jako F (x) = P (X 5 x), pak funkce znázorněna v grafu e) není distribuční funkcí), f) NE (F (x) není neklesající), R∞ 5) a) NE (f (x) není nezáporná funkce), ሺܨሺݔb) ሻ אANO, ܱۃǢ ͳۄሻ c) NE ( −∞ f (x) 6= 1), d) NE (limx→∞ f (x) 6= 0) ሺ݂ሺݔሻ Ͳۃ אǢ λሻሻ 6) a) ANO, b) NE (pravděpodobnostní f-ce je nulová), ൫σሺ݅ሻ ܲሺܺ ൌ ݅ݔሻ ് ͳ൯ 7) a) F (10), b) 1 − F (5), c) F (10) − Fሺܨ (5), ሺݔሻ ܱۃ בǢ ͳۄሻ
ሺݔ՜െλ ܨሺݔሻ ് Ͳሻ
ܨሺݔሻ ൌ ܲሺܺ ݔሻ 8) a) P (X < 10) + P (X = 10), b) P (X > 5) + P (X = 5) = 1 − P (X < 5), c) P (X < 10) + P (X = 10) − P (X < 5) − P (X = 5), d) P (X < 10) + P (X = 10) − ܨሺݔሻ ൌ ܲሺܺ ݔሻ − P (X < 5), λ
ሺݔ՜λ ݂ሺݔሻ ് ݂ሺݔሻ ് ͳ൯ െλ − P (X < 5), d) P (X 9) a) P (X < 10), b) 1 − P (X < 10), c) P (X <൫10) < 10) − Ͳሻ − P (X < 5), R 10 R 10 R 10 ͳ െ ܨሺͷሻR ∞ ܨሺͳͲሻ െ ܨሺͷሻ 10) a)ܨሺͳͲሻ −∞ f (x)dx, b) 5 f (x)dx, c) 5 f (x)dx, d) 5 f (x)dx ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൌ ͳͲሻ ܲሺܺ ͳͲሻ ܲሺܺ ൌ ͳͲሻ ൌ ͳ െ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൌ ͳͲሻ െ ܲሺܺ ൏ ͷሻ െ ܲሺܺ ൌ ͷሻ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൌ ͳͲሻ െ ܲሺܺ ൏ ͷሻ ܲሺܺ ൏ ͳͲሻ ͳ െ ܲሺܺ ൏ ͳͲሻ ܲሺܺ ൏ ͳͲሻ െ ܲሺܺ ൏ ͷሻ ܲሺܺ ൏ ͳͲሻ െ ܲሺܺ ൏ ͷሻ ͳͲ ͳͲ ͳͲ λ െλ ݂ሺݔሻ݀ݔ ݂ Ͳͳሺݔሻ݀ݔ ͷ ݂ሺݔሻ݀ݔ ͷ ݂ሺݔሻ݀ݔ Úlohy k řešení
1. X ... diskrétní NV a) xi P(X=xi)
2 1/36
3 2/36
4 3/36
5 4/36
6 5/36
7 6/36
8 5/36
9 4/36
10 3/36
11 2/36
12 1/36
89
Úlohy k řešení
0,18 0,16 0,14
P(X=xi)
0,12 0,10 0,08 0,06 0,04 0,02 0,00 0
2
4
6
8
10
12
14
x
b) xi F(xi) xi F(xi)
ሺെλǢ ʹۄ ሺെλǢ ʹۄ 0 ሺǢ ͳۄ ሺǢ ͺۄ 21/36
ሺʹǢ ͵ۄ ሺʹǢ ͵ۄ 1/36 ሺͺǢ ͻۄ ሺͺǢ ͻۄ 26/36
ሺ͵Ǣ Ͷۄ ሺ͵Ǣ Ͷۄ 3/36
ሺͻǢ ͳͲۄ ሺͻǢ ͳͲۄ 30/36
ሺͶǢ ͷۄ ሺͶǢ ͷۄ 6/36
ሺͳͲǢ ͳͳۄ ሺͳͲǢ ͳͳۄ 33/36
ሺͷǢ ۄ ሺͷǢ ۄ 10/36
ሺͳͳǢ ͳʹۄ ሺͳͳǢ ͳʹۄ 35/36
Distribuční funkce 1,2
1
F(x)
0,8
0,6
0,4
0,2
0 -5
0
5 x
c) E(X) = 7 . d) D(X) = 210/39 = 5, 83
2. a)
0 1 2 3 4 5 6 x P(x) 4/60 28/60 10/60 7/60 6/60 4/60 1/60 b)
10
15
ሺǢ ۄ ሺǢ ۄ 15/36 (12; ) 1
ሺെλǢ Ͳ ۄሺͲǢ ͳ ۄሺͳǢ ʹ ۄሺʹǢ ͵ ۄሺ͵Ǣ Ͷ ۄሺͶǢ ͷ ۄሺͷǢ ۄሺǢ λሻ 90
Náhodná veličina
ܧሺܺሻ ൌ ʹǡͲ
ሺെλǢ Ͳ ۄሺͲǢ ͳ ۄሺͳǢ ʹ ۄሺʹǢ ͵ ۄሺ͵Ǣ Ͷ ۄሺͶǢ ͷ ۄሺͷǢ ۄሺǢ λሻ xߪ ൌ ͳǡͷ 4/60 32/60 42/60 49/60 55/60 59/60 1 P(x) ݔො ൌ ͳ 0
c) E(X) = 2, 0
d) σ = ܧሺܺሻ 1, 5 ൌ ʹǡͲ ߪ e) x ˆ = 1 ൌ ͳǡͷ ݔො ൌ ͳ 3.
x 100 150 300 500 P(x) 0,15 0,30 0,35 0,20 4. a) 0, 25 b) 0 c) E(X) = −1/3, D(X) = 1/18, σ = 0, 236
d) x ˆ =ܧሺܺ 0 ሻ ൌ െͳȀ͵ ܦሺܺሻ ൌ ͳȀͳͺ ߪ ൌ Ͳǡʹ͵
ݔො ൌ Ͳ Ͳݔǡͷ ൌ െͲǡʹͻ͵
e) x0,5 = −0, 293
ܧሺܺሻ ൌ െͳȀ͵ ܦሺܺሻ ൌ ͳȀͳͺ ߪ ൌ Ͳǡʹ͵ ݔ 5. a) 1/8 ො ൌ Ͳ Ͳݔǡͷൌ 3െͲǡʹͻ͵ 2 x ∈ (0; 2) 8x b) f (x) = 0 ͵ xʹ∈ / (0; 2) ݔ ߳ݔሺͲǢ ʹሻ ݂ሺݔሻ=ൌ1,ቊ c) E(X) 50, ͺσ = 0, 39 ͵ Ͳݔ בሺͲǢ ʹሻ
d) 0, 875 ߳ݔ ʹ ݔሺͲǢ ʹሻ ቊ ͺ ߪ ൌ Ͳǡ͵ͻ ܧሺ݂ሺݔሻ ܺሻ ൌൌͳǡͷͲ e) x ˆ=2 Ͳ ב ݔሺͲǢ ʹሻ ܧሺܺሻ ൌ ͳǡͷͲ ߪ ൌ Ͳǡ͵ͻ
ݔො ൌ ʹ
−1 −2 6. P (1 5 |X| ݔො ൌ5ʹ2) = e − e
ܲሺͳ ȁܺȁ ʹሻ ൌ ݁ െͳ െ ݁ െʹ
െʹ ȁܺȁ = −6, ʹሻ ൌD(Z) ݁ െͳ െ=݁100, 7. E(Z) = ܲሺͳ 10, E(Q) D(Q) = 25
ܧሺܼሻ ൌ ͳͲ ܧሺܳ ሻ ൌ െ ܦሺܼሻ ൌ ͳͲͲ ܦሺܳ ሻ ൌ ʹͷ ܧሺܼሻ ൌ ͳͲ ܧሺܳሻ ൌ െ ܦሺܼሻ ൌ ͳͲͲ ܦሺܳሻ ൌ ʹͷ
91
Kapitola 4 Náhodný vektor Cíle Po prostudování této kapitoly budete umět
ó
• popsat náhodný vektor a jeho rozdělení, • vysvětlit pojmy spojené se sdruženým, marginálním a podmíněným rozdělením pravděpodobnosti, • určit marginální a podmíněné charakteristiky náhodného vektoru, stejně jako kovarianci a korelaci jeho složek.
Průvodce studiem
S Z
V předcházející kapitole jsme se seznámili s popisem náhodné veličiny, kterou chápeme jako výsledek náhodného pokusu, který je popsán reálným číslem. Výsledek náhodného pokusu je však mnohdy hodnocen nikoliv jedním reálným číslem, ale uspořádanou n- ticí čísel. Bude-li například meteorolog chtít popsat počasí na určitém místě, nebude sledovat pouze teplotu, bude sledovat celý soubor náhodných veličin – nadmořskou výšku, tlak, teplotu, rosný bod... Soubor takovýchto náhodných veličin nazýváme náhodným vektorem. Jednotlivé náhodné veličiny v rámci náhodného vektoru mohou být naprosto nezávislé, mohou však také mít silnou vazbu. V této kapitole byste se měli naučit náhodný vektor popisovat pomocí vhodných funkcí a číselných charakteristik.
V J
92
Náhodný vektor
Náhodným vektorem rozumíme vektor X = (X1 , X2 , ..., Xn ), jehož složky X1 , X2 , ..., Xn jsou náhodné veličiny definované na stejném pravděpodobnostním prostoru (Ω, A, P). Pro ilustraci se omezíme na studium vztahu mezi dvěma náhodnými veličinami (tj. budeme se zabývat dvourozměrnýmࢄnáhodným vektorem) s tím, že ܺučiněné ൌ ሺܺͳ ǡ ܺʹ ǡ ڮ ǡ ܺ݊ ሻ ǡ ܺ݊ ͳ ǡ ܺʹ ǡ ڮzávěry lze jednoduše zobecnit na n-rozměrný náhodný vektor. ሺȳǡ ࣛǡ ܲሻ
4.1
Sdružené rozdělení pravděpodobnosti
Rozdělení náhodného vektoru lze, obdobně jako rozdělení náhodné veličiny, popsat pomocí distribuční funkce. Sdružená (simultánní) distribuční funkce dvourozměrného vektoru X = (X, Y ) je definována předpisem F (x, y) = P ((X < x) ∧ (Y < y)).
ࢄ ൌ ሺܺǡ ܻሻ
Pro P ((X < x)∧(Y < y)) budeme nadále používat zkrácený zápis P (X < x, Y < y) ܨሺݔǡ ݕሻ ൌ ܲሺܺ ൏ ܻ ר ݔ൏ ݕሻ ܲሺܺ ൏ ܻ ר ݔ൏ ݕሻ ܲሺܺ ൏ ݔǡ ܻ ൏ ݕሻ Hodnota sdružené distribuční funkce F (x, y) je rovna pravděpodobnosti, s jakou se hodnota náhodného vektoru Xܨሺݔǡ = ݕሻ (X, Y ) vyskytne ve vyšrafované části roviny z Obr. 4.1. ࢄ ൌ ሺܺǡ ܻሻ Y y X=(X, Y)T
x
X
Obr. 4.1: Ilustrace významu sdružené distribuční funkce F (x, y)
Sdružená distribuční funkce má podobné vlastnosti jako distribuční funkce jedné proměnné. ሺݔǡ ݕሻ אsdružené Թʹ ǣͲ ܨሺݔǡ ݕሻ ͳ funkce: Vlastnosti distribuční א ݕԹǣ ݔ՜െλ ܨሺݔǡ ݕሻ ൌ Ͳǡ א ݔԹǣ ܨሺݔǡ ݕሻ ൌ Ͳ ݕ՜െλ 1. ∀(x, y) ∈ R2 : 0 5 F (x, y) 5 1, ݔ՜λ ݕ՜λ ܨሺݔǡ ݕሻ ՜ ͳ 2. ∀y ∈ R : lim F (x, y) = 0, ∀x ∈ R : lim F (x, y) = 0, x→−∞ y→−∞ ܨሺݔǡ ݕሻ ܨሺݔǡ ݕሻ
93
4.1 Sdružené rozdělení pravděpodobnosti
3. je-li x → ∞ a současně y → ∞, pak F (x, y) = 1, 4. F (x, y) je neklesající v každé proměnné, 5. F (x, y) je zleva spojitá v každé proměnné. Pravděpodobnost, že náhodný vektor je z obdélníkové oblasti, lze vyjádřit pomocí distribuční funkce. P (a 5 X < b, c 5 Y < d) = F (b, d) − F (a, d) − F (b, c) + F (a, c) ܲሺܽ ܺ ൏ ܾǡ ܿ ܻ ൏ ݀ሻ ൌ ܨሺܾǡ ݀ሻ െ ܨሺܽǡ ݀ሻ െ ܨሺܾǡ ܿሻ ܨሺܽǡ ܿሻ Hodnota pravděpodobnosti P (a 5 X < b, c 5 Y < d) je rovna pravděpodobnosti s jakou se hodnota ܲሺܽ náhodného ܺ ൏ ܾǡvektoru ܿ ܻ ൏X݀ሻ= (X, Y ) vyskytne ve vyšrafované části roviny z Obr. 4. 2. ࢄ ൌ ሺܺǡ ܻሻ
Y
d X=(X, Y)T
c a
b
X
ܲሺܽP(aܺ5൏Xܾǡ< ܿ ൏ Y݀ሻ< d) Obr. 4.2: Ilustrace významu b, cܻ 5
4.1.1
Diskrétní náhodný vektor a jeho sdružené rozdělení
Řekneme, že náhodný vektor má diskrétní rozdělení (je diskrétní), jestliže existuje nejvýše spočetně mnoho hodnot náhodného vektoru tak, že X σሺሻ σX ሺሻ ൫ݔ ǡ ݕ ൯ ൌ ͳ p(xi , yi ) = 1. i
j
൫ݔ ǡ ݕ ൯ ൌ ܲ൫ܺ ൌ ݔ ܻ רൌ ݕ ൯ Funkce p(xi , yj ) = P ((X = xi ) ∧ (Y = yj )) se nazývá sdružená (simultánní) pravděpodobnostní funkce, popř. (dvojrozměrná) pravděpodobnostní funkce náhodného vektoru X.
Vlastnosti sdružené pravděpodobnostní funkce: 1. Existuje pouze konečná nebo spočetná množina (xi , yj ) , ൫ݔ pro ǡkteré ൫ݔhodnot ǡ ݕ ൯ ݕ ൯ je p(xi , yj ) > 0, Ͳ 2. ∀xi , yi : 0 5 p(xi , yj ) 5 1, PP ݔ ǡ3. ݕ ǣͲ p(x ൫ݔi , ǡyݕi ) ൯=1.ͳǡ i
j
σሺሻ σሺሻ ൫ݔ ǡ ݕ ൯ ൌ ͳ
ܨሺݔǡ ݕሻ ൌ σ௫ ழ௫ σ௬ೕழ௬ ൫ݔ ǡ ݕ ൯
94
Náhodný vektor
Pro vyjádření sdružené distribuční funkce pomocí sdružené pravděpodobnostní funkce lze využít vztah XX F (x, y) = p(xi , yi ). xi <x yi
V případě diskrétního dvousložkového náhodného vektoru s konečným počtem hodnot se sdružená pravděpodobnostní funkce často reprezentuje prostřednictvím tabulky sdružených pravděpodobností (Tab. 4.1). Tab. 4.1: Tabulka sdružených pravděpodobností
+
X\Y x1 x2
y1 p(x1, y1) p(x2, y1)
y2 p(x1, y2) p(x2, y2)
M
M
M
... ... ... ...
xn1
p(xn1, y1)
p(xn1, y2)
...
yn2 p(x1, yn2) p(x2, yn2) p(xn1, yn2)
M
Příklad 4.1. Představme si, že budeme třikrát opakovat hod poctivou mincí. Za úspěch budeme považovat padnutí rubu mince. Nechť náhodné veličiny Y ... počet pokusů do prvního úspěchu, Z ... počet po sobě jdoucích úspěchů tvoří složky náhodného vektoru X = (Y, Z). Sestavte a) sdruženou pravděpodobnostní funkci náhodného vektoru X, ሺܻǡ ܼሻ ࢄ ൌ náhodného b) sdruženou distribuční funkci vektoru X.
Řešení. ada) Abychom mohli sestavit sdruženou pravděpodobnostní funkci, vypíšeme si nejdříve všechny možné výsledky, k nimž by mohlo dojít při trojím hodu poctivou mincí (U – úspěch, N – neúspěch) a určíme jejich pravděpodobnosti. Pro přehlednost budeme používat zjednodušené zápisy (N ∩ N ∩ N ) = N N N, (U ∩ ∩ N ∩ N ) = U N N , apod. Možné výsledky trojího hodu mincí: {N N N, U N U, U U N, U U U, N U U, N U N, N N U, U N N, U U U } ሼܰ ܰ ת ܰ תሽ ൌ ܰܰܰ ሼܷ ܰ ת ܰ תሽ ൌ ܷܰܰ Je-li výsledek hodu N N N , pak položme počet pokusů do prvního úspěchu Y = 3 a počet po sobě jdoucích úspěchů Z = 0; je-li výsledek hodu U N U , pak počet pokusů ሼܰܰܰǡ ܷܷܰǡjdoucích ܷܷܰǡ ܷܷܰǡ ܷܰܰǡ ܷܰܰǡ ܷܰܰǡ ܷܷܷሽ do prvního úspěchu Y = 0 a počet po sobě úspěchů Z= 1, atd. Je zřejmé,
ܻൌ͵ ܼൌͲ ܻൌͲ
ܼൌͳ ሼͲǡ ͳǡ ʹǡ ͵ሽ ሼͲǡ ͳǡ ʹǡ ͵ሽ
95
4.1 Sdružené rozdělení pravděpodobnosti
že náhodná veličina Y může nabývat hodnot 0, 1, 2, 3, náhodná veličina Z může nabývat hodnot 0, 1, 2, 3. Nyní sestavíme tabulku sdružených pravděpodobností. Nejdříve si do pomocné tabulky vypíšeme jevy, které vyhovují příslušným podmínkám a poté na základě jejich neslučitelnosti určíme pravděpodobnosti výskytu příslušných skupin jevů. Tab. 4.2: Výčet jevů příznivých jednotlivým hodnotám náhodného vektoru X Y/Z 0 1 2 3
0 NNN
1 UNU, UNN NUN NNU -
2 UUN NUU -
3 UUU -
ܲሺܵሻ ൌ ܲሺܨሻ ൌ Ͳǡͷ Vzhledem k tomu, že se jedná o hody poctivou mincí, je P (U ) = P (N ) = 0, 5. Je ܲሺܵሻ ൌ ܲሺܨሻ ൌ Ͳǡͷ zřejmé, že výsledky jednotlivých hodů jsou nezávislé, proto ܲሺܨܨܨሻ ൌ ܲሺܨሻ ή ܲሺܨሻ ή ܲሺܨሻ ൌ Ͳǡͷଷ ൌ Ͳǡͳʹͷ 3 P (N N N ) = P (N ) · P (N ) · P (F ) = 0.5 = 0, 125. ܲሺܨܨܨሻ ൌ ܲሺܨሻ ή ܲሺܨሻ ή ܲሺܨሻ ൌ Ͳǡͷ͵ ൌ Ͳǡͳʹͷ Obdobně dostaneme, že P (U N U ൌ ) = P (U UൌNܲሺܵܵܨሻ ) = P (N UU) = ൌ P (N UN) ൌ = ܲሺܵܨܨሻ P (N N Uൌ) ܲሺܵܵܵሻ = P (Uൌ NͲǡͳʹͷ N) = ܲሺܵܵܨሻ ܲሺܵܵܨሻ ൌ ܲሺܨܵܨሻ ܲሺܵܨܨሻ = P (U U U ) = 0, 125 ܲሺܵܵܨሻ ൌ ܲሺܵܵܨሻ ൌ ܲሺܵܵܨሻ ൌ ܲሺܨܵܨሻ ൌ ܲሺܵܨܨሻ ൌ ܲሺܵܨܨሻ ൌ ܲሺܵܵܵሻ ൌ Ͳǡͳʹͷ Vzhledem k neslučitelnosti (disjunktnosti) jevů UNU a UNN je P (U N U ∪Uܵܨܨሻ NN)ൌ = ܲሺܵܵܨሻ P (U N U )+ P (U N N = 0.250. ܲሺܵܵܨ ܲሺܵܨܨሻ ൌ)ͲǡʹͷͲ
ܲሺܵܨܨܵ ܵܨሻ ൌ ܲሺܵܵܨሻ ܲሺܵܨܨሻ ൌ ͲǡʹͷͲ
Tab. 4.3: Tabulka sdružených pravděpodobností náhodného vektoru X Y/Z 0 1 2 3
0 0 0 0 0,125
1 0,250 0,125 0,125 0
2 0,125 0,125 0 0
3 0,125 0 0 0
adb) Ze sdružené pravděpodobnostní funkce určíme sdruženou distribuční funkci, která je pro přehlednost uvedena v Tab. 4.4. Postup výpočtu sdružené distribuční funkce F (y, z) ze sdružené pravděpodobnostní funkce p(y, z) ukážeme například (0,ͳۄ5; 2, 7), distribuční funkce Ͳ ۄFሺͲǢ ሺͳǢ ʹ ۄtj. ͵ ۄvýpočtu ሺെλǢna ሺʹǢ na ሺ͵Ǣ λሻ na intervalu (0; 1i × (2; 3i. ሺെλǢ Ͳ ۄሺെλǢ Ͳ ۄሺͲǢ ͳ ۄሺͳǢ ʹ ۄሺʹǢ ͵ ۄሺ͵Ǣ λሻ ሺͲǢ ͳۄͲۄ ሺെλǢ ሺͳǢ ሺͲǢ ʹۄ ͳ ۄ ʹ ۄ ሺʹǢ ሺͳǢ ͵ۄ ͵ ۄ ሺ͵Ǣ ሺʹǢλሻ ሺ͵Ǣ λሻ
ሺݕǡ ݖሻ
ܨሺݕǡ ݖሻ ܨሺݕǡ ݖሻ ܨሺͲǡͷǢ ʹǡሻ
96
Náhodný vektor
Tab. 4.4: Distribuční funkce náhodného vektoru X Y/Z ሺെλǢ Ͳ ۄሺͲǢ ͳۄ ሺെλǢ Ͳۄ 0 0 ሺͲǢ ͳۄ 0 0 ሺͳǢ ʹۄ 0 0 ሺʹǢ ͵ۄ 0 0 ሺ͵Ǣ λሻ 0 0,125
ሺͳǢ ʹۄ 0 0,250 0,375 0,500 0,625
ሺʹǢ ͵ۄ 0 0,375 0,625 0,750 0,875
ሺ͵Ǣ λሻ 0 0,500 0,750 0,875 1
ܨሺݕǡ ݖሻ F (0, 5; 2, 7) = P (Y < 0, 5; Z < 2, 7) = P ((Y = 0) ∧ ((Z = 0) ∨ (Z = 1) ∨ (Z = 2)) = ሺݕǡ ݖሻ ܨሺͲǡͷǢ ʹǡሻ = P ((Y = 0 ∧ Z = 0) ∨ (Y = 0 ∧ Z = 1) ∨ (Y = 0 ∧ Z = 2) = p(0, 0) + p(0, 1) + ሺͲǢ ͳ ۄൈ ሺʹǢ ͵ۄ + p(0, 2) = 0 + 0, 250 + 0, 125 = 0, 375 ܨሺͲǡͷǢ ʹǡሻ ൌ ܲሺܻ ൏ ͲǡͷǢ ܼ ൏ ʹǡሻ ൌ ܲ ቀሺܻ ൌ Ͳሻ ר൫ሺܼ ൌ Ͳሻ שሺܼ ൌ ͳሻ שሺܼ ൌ ʹሻ൯ቁNൌ
4.1.2
ൌ ܲ൫ሺܻ ൌ Ͳ ܼ רൌ Ͳሻ שሺܻ ൌ Ͳ ܼ רൌ ͳሻ שሺܻ ൌ Ͳ ܼ רൌ ʹሻ൯ ൌ ൌ ሺͲǡͲሻ ሺͲǡͳሻ ሺͲǡʹሻ ൌ Ͳ ͲǡʹͷͲ Ͳǡͳʹͷ ൌ Ͳǡ͵ͷ
Spojitý náhodný vektor a jeho sdružené rozdělení
O náhodném vektoru se spojitým rozdělením (spojitém náhodném vektoru) mluvíme v případě, že náhodný vektor má spojitou distribuční funkci F (x, y), tj. pokud existuje nezáporná funkce f (x, y) taková, že Z y Z x F (x, y) = f (s, t) dsdt. −∞
−∞
Funkci f (x, y) nazýváme sdruženou (simultánní) hustotou náhodného vektoru X. Vlastnosti sdružené hustoty 1. f (x, y) = 0, R∞ R∞ 2. −∞ −∞ f (x, y) dxdy = 1, ∂ 2 F (x,y) , ∂x∂y
2
2
F (x,y) F (x,y) takové že ∂ ∂x∂y = ∂ ∂y∂x , pak f (x, y) = RdRa 4. P (a 5 X < b, c 5 Y < d) = c b f (x, y) dxdy.
+
3. existuje-li
∂ 2 F (x,y) , ∂x∂y
Příklad 4.2. Najděte konstantu c tak, aby funkce c(x + y), (x, y) ∈ h0; 1i × h0; 1i f (x, y) = 0, (x, y) ∈ / h0; 1i × h0; 1i mohla být hustotou pravděpodobnosti nějakého náhodného vektoru (X, Y ). Řešení. Aby funkce f (x, y) mohla být hustotou náhodného vektoru, musí být splněna podmínka, že Z ∞Z ∞ f (x, y) dxdy = 1. −∞
−∞
97
4.2 Marginální rozdělení pravděpodobnosti Z
1
Z
1
c(x + y) dxdy = 1 0
R1R1 0
0
c(x + y) dxdy = c
R1 0
0
2
[ x2 + xy]10 dy = c
R1 0
( 12 + y) dy = c[ 21 y +
y2 1 ] 2 0
=c
Takže musí platit c = 1. z toho plyne, že x + y (x, y) ∈ h0; 1i × h0; 1i f (x, y) = 0, (x, y) ∈ / h0; 1i × h0; 1i N
4.2
Marginální rozdělení pravděpodobnosti
Kromě rozdělení náhodného vektoru nás často zajímá i rozdělení jeho složek, tj. náhodných veličin X a Y . Je-li (X, Y ) náhodný vektor, pak rozdělení náhodných veličin X a Y se nazývá marginální rozdělení. Je-li F (x, y) sdružená distribuční funkce náhodného vektoru (X, Y ) , pak jsou marginální distribuční funkce Fx (x) , resp. Fy (y) náhodné veličiny X, resp. Y zřejmě určeny vztahy: Fx (x) = P (X < x) = lim F (x, y), x ∈ R, y→∞
Fy (y) = P (Y < y) = lim F (x, y), y ∈ R. x→∞
Poznámka: Všimněte si, že pro rozlišení distribučních funkcí náhodných veličin X a Y jsme použili dolní index. V případě potřeby bude tento způsob rozlišení používán i u dalších funkčních a číselných charakteristik náhodných veličin X a Y .
4.2.1
Marginální rozdělení diskrétního náhodného vektoru
Je-li p(xi , yj ) sdružená pravděpodobnostní funkce diskrétního náhodného vektoru (X, Y ), pak jsou marginální pravděpodobnostní funkce Px (x), resp. Py (y) náhodné veličiny X, resp. Y určeny vztahy: X Px (xi ) = p(xi , yj ), i = 1, (yj )
Py (yj ) =
X
p(xi , yj ), j = 1.
(xi )
Poznámka: Všimněte si, že zadáme-li sdruženou pravděpodobnostní funkci tabulkou, pak hodnoty jedné marginální pravděpodobnostní funkce získáme sečtením čísel
98
Náhodný vektor
v jednotlivých řádcích tabulky. Hodnoty této marginální pravděpodobnostní funkce zapisujeme do sloupce na okraji tabulky (okraj = anglicky „margin“). Obdobně hodnoty druhé marginální pravděpodobnostní funkce dostaneme sečtením čísel v jednotlivých sloupcích tabulky. Hodnoty druhé marginální pravděpodobnostní funkce zapisujeme do řádku na okraji tabulky. (Tab. 4.5.) (Modře zvýrazněné pole je kontrolní. Součet marginálních pravděpodobností, stejně jako součet sdružených pravděpodobností, ܲሺܵሻ ൌ ܲሺܨሻ ൌ Ͳǡͷ musí být roven jedné.) Tab. 4.5: Rozšířená tabulka sdružených pravděpodobností ܲሺܨܨܨሻ ൌ ܲሺܨሻ ή ܲሺܨሻ ή ܲሺܨሻ ൌ Ͳǡͷ͵ ൌ Ͳǡͳʹͷ X\Y x1 x2
y1 p(x1, y1) p(x2, y1)
y2 p(x1, y2) p(x2, y2)
... ... ... ...
yn2 p(x1, yn2) p(x2, yn2)
...
p(xn1, yn2) PY(yn2)
PX (xi) PX (x1) PX (x2)
M M ൌ ܲሺܵܵܵሻ M ൌ Ͳǡͳʹͷ ܲሺܵܵܨሻ ൌ ܲሺܵܵܨሻ ൌ ܲሺܵܵܨሻ ൌM ܲሺܨܵܨሻ ൌ Mܲሺܵܨܨሻ ൌ ܲሺܵܨܨሻ p(xn1, y1) PY(y1)
+
xn1 PY (yj)
p(xn1, y2) PY(y2)
PX (xn1) 1
ܲሺܵܵܨna ܨܨܵ ሻ ܲሺܵܵܨሻ4.1. ܲሺܵܨܨሻ ൌ vektor ͲǡʹͷͲ X je popsán sdruPříklad 4.3. Navážeme řešenýൌpříklad Náhodný ženou pravděpodobnostní funkcí uvedenou v tabulce. Y/Z 0 1 2 3
0 0 0 0 0,125
1 0,250 0,125 0,125 0
2 0,125 0,125 0 0
3 0,125 0 0 0
Určete a) marginální pravděpodobnosti Py (yi ),Pz (zj ). b) marginální distribuční funkce Fy (y),Fz (y). ܻܲ ሺ ݅ݕሻ ܼܲ ൫ ݆ݖ൯ Řešení. Jak již víte, marginální rozdělení ܻܨሺݕሻ ܼܨሺݕሻslouží k popisu jednotlivých složek náhodného vektoru. ሺെλǢ Ͳ ۄሺͲǢ ͳ ۄሺͳǢ ʹ ۄሺʹǢ ͵ ۄሺ͵Ǣ λሻ ሺെλǢ Ͳۄ
ada) ሺͲǢ ͳۄ Je zřejmé, že marginální Py (yi ), tj. pravděpodobnostní funkci náʹۄ ሺͳǢpravděpodobnost hodné veličiny Y , získáme do vztahu: ሺʹǢ ͵ۄdosazením X ሺ͵Ǣ λሻ ሻ 1 5 j 5 4. ܻܲi ,ሺݕ Py (yj ) = p(y zj݅),
ܨሺݕǡ ݖሻ ሺݕǡTo ݖሻ odpovídá sečtení čísel ܲ ܨሺͲǡͷǢ ʹǡሻ vܻjednotlivých řádcích pravděpodobnosti. ሺ ݅ݕሻ ൌ σ൫ ݆ ݖ൯ ൫ݕ ͳ ݆ sdružené Ͷ ݅ ǡ ݆ݖ൯ ǡtabulky ൈ ሺʹǢ ͵ۄ ሺͲǢ ͳۄ Např. Py (0)=p(0,0)+p(0,1)+p(0,2)+p(0,3)=0+0,250+0,125+0,125=0,500. ܨሺͲǡͷǢ ʹǡሻ ൌ ܲሺܻ ൏ ͲǡͷǢ ܼ ൏ ʹǡሻ ൌ ܲ ቀሺܻ ൌ Ͳሻ ר൫ሺܼ ൌ Ͳሻ שሺܼ ൌ ͳሻ שሺܼ ൌ ʹሻ൯ቁ ൌ získáte marginální pravděpodobnost Pz (zj ).Ͳǡͳʹͷ Ͳǡͳʹͷ ൌ ͲǡͷͲͲ ܲAnalogicky ሺͲǡͳሻ ͲǡʹͷͲ ሺܻ ൌ ൌ ܻ ሺͲሻ ൌ ሺͲǡͲሻ ൌ ܲ൫ሺܻ ൌ Ͳ רሺͲǡʹሻ ܼ ൌ ͲሻשሺͲǡ͵ሻ Ͳ ܼ Ͳר ൌ ͳሻ שሺܻ ൌ Ͳ ܼ רൌ ʹሻ൯ ൌ ൌ ሺͲǡͲሻ ሺͲǡͳሻ ሺͲǡʹሻ ൌ Ͳ ͲǡʹͷͲ Ͳǡͳʹͷ ൌ Ͳǡ͵ͷ (zj )
ܼܲ ൫ ݆ݖ൯
ܻܲ ሺ ݅ݕሻ ൌ σ൫ ݆ ݖ൯ ൫ ݅ݕǡ ݆ݖ൯ ǡ ͳ ݆ Ͷ ܻܲ ሺͲሻ ൌ ሺͲǡͲሻ ሺͲǡͳሻ ሺͲǡʹሻ ሺͲǡ͵ሻ ൌ Ͳ ͲǡʹͷͲ Ͳǡͳʹͷ Ͳǡͳʹͷ ൌ ͲǡͷͲͲ 4.2 Marginální rozdělení pravděpodobnosti
99
ܼܲ ൫ ݆ݖ൯
Tab. 4.6: Tabulka sdružené pravděpodobnosti rozšířená o marginální pravděpodobnosti Y/Z 0 1 2 3 PZ (zj)
0 0 0 0 0,125 0,125
1 0,250 0,125 0,125 0 0,500
2 0,125 0,125 0 0 0,250
3 0,125 0 0 0 0,125
PY (yi) 0,500 0,250 0,125 0,125 1
adb) Pro nalezení marginálních distribučních funkcí již stačí využít zkušeností, které jste získali při popisu náhodné veličiny. Y je diskrétní náhodná veličina popsaná pravděpodobnostní funkcí Py (yi ). Je tedy zřejmé, že
ܻܲ ሺሺ ݅ݕሻሻ ܻܲ ݅ݕ
Y 0 1 2 3
PY (yi) 0,500 0,250 0,125 0,125
֜ ֜
Y ሺെλǡ Ͳۄ ሺെλǡ Ͳۄ ሺͲǡ ͳۄ ሺͲǡ ͳۄ ሺͳǡ ʹۄ ሺͳǡ ʹۄ ሺʹǡ ͵ۄ ሺʹǡ ͵ۄ ሺ͵ǡ λሻ ሺ͵ǡ λሻ
FY (y) 0 0,500 0,750 0,875 1
Z ሺെλǡ Ͳۄ ሺെλǡ Ͳۄ ሺͲǡ ͳۄ ሺͲǡ ͳۄ ሺͳǡ ʹۄ ሺͳǡ ʹۄ ሺʹǡ ͵ۄ ሺʹǡ ͵ۄ ሺ͵ǡ λሻ ሺ͵ǡ λሻ
FZ (z) 0 0,125 0,625 0,875 1
Analogicky lze určit Fz (z).
ܼܨሺሺݕሻሻ ݕ ܼܨ Z 0 1 2 3
PZ (zj) 0,125 0,500 0,250 0,125
֜ ֜
Poznámka: Uvědomte si, že zatímco součet hodnot pravděpodobnostní funkce musí být vždy roven 1 (a lze jej tedy použít například jako kontrolní údaj), součet hodnot distribuční funkce je číslo, které nemá žádný význam. N
4.2.2
Marginální rozdělení spojitého náhodného vektoru
Jestliže má náhodný vektor (X, Y ) spojité rozdělení určené sdruženou hustotou f (x, y), pak pro jeho marginální distribuční funkce platí: Z x Z ∞ Fx (x) = f (s, y) dsdy, x ∈ R,
ሺܺǡ ܻሻ ሺܺǡ ܻሻ
−∞
ݔ
λ
ݕ
λ
−∞
ݔλ ݂ ሺݏǡ ݕሻ݀ ݕ݀ݏǡ א ݔԹ ܨሺݔሻ ൌ െλ ܺܺܨሺݔሻ ൌ ݂ሺݏǡ ݕሻ݀ ݕ݀ݏǡ א ݔԹ െλ െλ െλ ݕ λ ݂ ሺݔǡ ݐሻ݀ ݔ݀ݐǡ א ݕԹ ܻܨሺሺݕሻሻ ൌ െλ ݕ ܻܨൌ െλ ݂ሺݔǡ ݐሻ݀ ݔ݀ݐǡ א ݕԹ െλ െλ
݂ ሺሺݔǡ ݕሻሻ ݂ ݔǡ ݕ
100
Náhodný vektor Z
y
Z
∞
f (x, t) dtdx, y ∈ R.
Fy (y) = −∞
−∞
Marginálními hustotami spojitého náhodného vektoru rozumíme hustoty náhodných veličin X a Y , které lze vypočítat jako Z ∞ fx (x) = f (x, y) dy, x ∈ R
+
−∞
Příklad 4.4. Tato úloha navazuje na příklad 4.2. Nechť je spojitý náhodný vektor X = (X, Y ) popsán sdruženou hustotou f (x, y). (x + y), (x, y) ∈ h0; 1i × h0; 1i f (x, y) = 0, (x, y) ∈ / h0; 1i × h0; 1i Určete a) marginální hustoty pravděpodobnosti fx (x) a fy (y), b) marginální distribuční funkce Fx (x) a Fy (y). Řešení. Z
∞
R1 f (x, y) dy =
fx (x) = −∞
0
0,
(x + y) dy = [xy +
y2 1 ] 2 0
= x + 0, 5, (x, y) ∈ h0; 1i (x, y) ∈ / h0; 1i
x + 0, 5, (x, y) ∈ h0; 1i 0, (x, y) ∈ / h0; 1i R1 2 R∞ (x + y) dx = [ x2 + xy]10 = y + 0, 5, x ∈ h0; 1i 0 fy (y) = −∞ f (x, y) dx = 0, y∈ / h0; 1i y + 0, 5, y ∈ h0; 1i fy (y) = 0, y∈ / h0; 1i fx (x) =
adb) Fx (x) =
Rx −∞
fx (t) dt
x<0 0, Rx t2 x 2 Fx (x) = (t + 0, 5) dt = [ 2 + 0, 5t]0 = 0, 5(x + x), 0 5 x 5 1 0 1, x>1 x<0 0, 0, 5(x2 + x), 0 5 x 5 1 Fx (x) = 1, x>1 Analogicky lze určit, že y<0 0, 2 0, 5(y + y), 0 5 x 5 1 Fy (y) = 1, y>1 N
4.3 Podmíněné rozdělení pravděpodobnosti
4.3
Podmíněné rozdělení pravděpodobnosti
Rozdělení náhodné veličiny X za předpokladu, že náhodná veličina Y nabyla hodnoty y popisuje, podmíněné rozdělení X vzhledem k Y . Podmíněné rozdělení je chápáno jako podíl rozdělení sdruženého a příslušného marginálního (viz definice podmíněné pravděpodobnosti).
4.3.1
Podmíněné rozdělení diskrétního náhodného vektoru
Je-li X = (X, Y ) diskrétní náhodný vektor, pak podmíněné pravděpodobnostní funkce jsou definovány vztahy: P (x|y) =
p(x, y) , PY (y) 6= 0, PY (y)
P (y|x) =
p(x, y) , Px (x) 6= 0. Px (x)
a podmíněné distribuční funkce jsou definovány jako P p(xi , y) x<xi F (x|y) = , i = 1, PY (y) 6= 0, PY (y) P F (y|x) =
4.3.2
p(x, yj )
y
PX (x)
, j = 1, PX (x) 6= 0.
Podmíněné rozdělení spojitého náhodného vektoru
Je-li (X, Y ) spojitý náhodný vektor, pak podmíněné hustoty jsou definovány vztahy f (x, y) , fY (y) 6= 0, f (x|y) = fY (y) f (y|x) =
f (x, y) , fX (x) 6= 0. fX (x)
a podmíněné distribuční funkce jsou definovány jako: Rx f (s, y)ds F (x|y) = −∞ , fY (y) 6= 0, fY (y) Ry f (x, t)dt F (y|x) = −∞ , fX (x) 6= 0. fX (x)
101
102
Náhodný vektor
4.4
Nezávislost náhodných veličin
Nechť X = (X, Y ) je náhodný vektor. Řekneme, že náhodné veličiny X, Y jsou nezávislé právě, když ∀(x, y) ∈ R2 platí: F (x, y) = FX (x) · FY (y), kde F (x, y) je sdružená distribuční funkce náhodného vektoru (X, Y ) a FX (x), resp. FY (y) jsou marginální distribuční funkce náhodné veličiny X, resp. Y . Lze ukázat, že je-li X = (X, Y ) diskrétní náhodný vektor, pak náhodné veličiny X, Y jsou nezávislé právě, když ∀i = 1, ∀j = 1 platí: p(xi , yj ) = PX (xi ) · PY (yi ). Analogicky pro spojitý náhodný vektor (X, Y ) lze ukázat, že náhodné veličiny X, Y jsou nezávislé právě, když ∀(x, y) ∈ R2 platí:
+
f (x, y) = fX (x) · fY (y) Příklad 4.5. Nechť X je náhodný vektor, s nímž jsme pracovali v příkladech 4.1 a 4.3. Připomeňme si, že náhodným pokusem je trojí opakování hodu poctivou mincí. Za úspěch považujeme padnutí rubu mince. Náhodné veličiny Y a Z jsou definovány jako Y ... počet pokusů do prvního úspěchu, Z ... počet po sobě jdoucích úspěchů. Rozdělení tohoto náhodného vektoru (sdružená a marginální pravděpodobnostní funkce) jsou uvedeny v následující tabulce. Určete
a) P (y|z), b) zda jsou náhodné veličiny Y a Z nezávislé.
Řešení. ad a) P (y|z) =
p(y,z) , PZ (z) PZ (z)
6= 0
ሺݕǡ ݖሻ ܲሺݕȁݖሻ 4.5 ൌ Číselné ǡ charakteristiky ܼܲ ሺݖሻ ് Ͳnáhodného vektoru ܼܲ ሺݖሻ
103
Například pravděpodobnost, že při třech hodech mincí padl rub poprvé při druhém ሺܼ ൌ ʹሻ hodu (Y = 1), víme-li, že padl ve třech hodech dvakrát (z = 2) je
ሺܻ ൌ ͳሻ
ሺͳǡʹሻ
Ͳǡͳʹͷ
2) ൌ 0, 125ൌ ͲǡͷͲͲ ȁܼ = ܲPሺ(Y ܻൌ ൌ 2) ʹሻ=ൌp(1, =ͳ 1|Z ܲ ሺʹሻ = ͲǡʹͷͲ = 0.500. pZܼ(2)
0, 250
Ostatní podmíněné pravděpodobnosti určíme obdobně a zapíšeme je do tabulky. Tab. 4.7: Podmíněné pravděpodobnosti P (y|z) Y/Z 0 1 2 3
0 0 0 0 1
1 0,500 0,250 0,250 0
2 0,500 0,500 0 0
3 1 0 0 0
ad b) Jsou-li náhodné veličiny Y , Z nezávislé, pak 1 5 i 5 4, 1 5 j 5 4:
൫ ݅ݕǡ ݆ݖ൯ ൌ ܻܲ ሺ ݅ݕሻ ή ܼܲ ൫ ݆ݖ൯ǡͳ ݅ Ͷǡ ͳ ݆ Ͷ p(yi , zj ) = PY (yi ) · PZ (zj ).
Každá z hodnot sdružené pravděpodobnosti uvedené v rozšířené tabulce sdružených pravděpodobností (Tab. 4.6) by musela být rovna součinu příslušných marginálních ሻൌ ሻ ή ·ܲP Ͳ ൌ0 =ሺͲǡͲ ്6=ܻܲPሺYͲ(0) pravděpodobností. Toto zcela zřejmě neplatí (např.: p(0,ሻ0) (0) = ͲǡͷͲͲ ή ܼሺ ZͲ Ͳǡͳʹͷ = 0, 500 · 0, 125 ). Náhodné veličiny Y , Z proto nejsou nezávislé. N
4.5
Číselné charakteristiky náhodného vektoru
Obdobně jako v případě náhodné veličiny, shrnuje číselná charakteristika náhodného vektoru celkovou informaci o náhodném vektoru do jednoho čísla, vektoru nebo matice.
4.5.1
Marginální číselné charakteristiky
Marginální charakteristiky shrnují informaci o jednotlivých složkách náhodného vektoru (X, Y ), tj. o náhodných veličinách X a Y . Připomeňme si, že popisují polohu (střední hodnota), variabilitu (rozptyl, směrodatná odchylka), šikmost a špičatost rozdělení. Definiční vztahy jednotlivých charakteristik jsou uvedeny v kapitole 3.7. Marginální číselné charakteristiky náhodného vektoru často zapisujeme ve formě vektoru. Je-li X = (X, Y ) náhodný vektor, pak
104
Náhodný vektor
střední hodnota náhodného vektoru X je dána jako E(X) = (E(X), E(Y )), rozptyl náhodného vektoru X je dán jako D(X) = (D(X), D(Y )), apod. V dalších podkapitolách si ukážeme, jak lze popsat vztahy mezi jednotlivými složkami náhodného vektoru.
4.5.2
Smíšené momenty
• Sdružený obecný moment řádu (r+s) náhodného vektoru (X, Y ) je definován následovně. PP r s Pro diskrétní náhodný vektor: E(X r · Y s ) = xi · yj · p(xi , yj ), i
pro spojitý náhodný vektor: E(X r · Y s ) =
j
R∞ R∞ −∞
−∞
xr · y s · f (x, y) dxdy.
• Sdružený centrální moment řádu (r+s) náhodného vektoru (X, Y ) je definován následovně. Pro diskrétní náhodný vektor: E(X − E(X))r · (Y − E(Y ))s =
XX (xi − E(X))r · (yj − E(Y ))s · p(xi , yj ), i
j
pro spojitý náhodný vektor: E(X − E(X))r · (Y − E(Y ))s =
4.5.3
R∞ R∞ −∞
−∞
(X − E(X))r · (Y − E(Y ))s · f (x, y) dxdy,
Kovariance a koeficient korelace
Nejjednodušším ukazatelem vztahu mezi dvěma náhodnými veličinami je kovariance. • Kovariance cov(X, Y ) je definována jako smíšený centrální moment řádu (1 + 1) cov(X, Y ) = E((X − E(X)) · (Y − E(Y ))) Kladná hodnota kovariance znamená, že se zvětšením hodnoty X se pravděpodobně zvýší i hodnota Y . Oproti tomu záporná hodnota kovariance informuje o tom, že se zvětšením hodnoty X se pravděpodobně sníží hodnota Y .
4.5 Číselné charakteristiky náhodného vektoru
Vlastnosti kovariance 1. cov(X, Y ) = E(XY ) − E(X) · E(Y ) (výpočetní vztah umožňující rychlejší výpočet než vztah definiční), 2. cov(X, X) = D(X), 3. cov(a1 X + b1 , a2 Y + b2 ) = a1 a2 cov(X, Y ), 4. jsou-li X, Y nezávislé náhodné veličiny, pak cov(X, Y ) = 0 V praxi se často setkáváme s reprezentací centrálních momentů 2. řádu ve formě tzv. kovarianční matice. • Kovarianční matice cov(X, X) cov(X, Y ) D(X) cov(X, Y ) var(X) = = cov(Y, X) cov(Y, Y ) cov(X, Y ) D(Y ) Vlastnosti kovarianční matice 1. Kovarianční matice je symetrická a pozitivně semidefinitní, 2. D(X ± Y ) = D(X) + D(Y ) ± 2cov(X, Y ) • Korelační koeficient (korelace) ρ(X, Y ) Korelační koeficient je definován jako ( cov(X,Y ) √ , D(X), D(Y ) 6= 0, D(X)·D(Y ) ρ(X, Y ) = 0, jinak. (Jednoduchý) korelační koeficient je mírou lineární závislosti dvou složek náhodného vektoru. Vlastnosti korelačního koeficientu 1. −1 5 ρ(X, Y ) 5 1, 2. ρ(X, Y ) = ρ(Y, X), 3. ρ(X, X) = 1, 4. jsou-li X, Y nezávislé náhodné veličiny, pak ρ(X, Y ) = 0, 5. je-li ρ(X, Y ) = 0, říkáme, že X, Y jsou nekorelované náhodné veličiny (POZOR! Jsou-li X, Y nekorelované náhodné veličiny, nemusí to znamenat, že jsou nezávislé!!! Jsou-li X, Y nekorelované náhodné veličiny, víme pouze to, že mezi X, Y neexistuje lineární závislost. (Obr. 4.3c)), 6. je-li ρ(X, Y ) = 1, pak existuje a, b ∈ R, a > 0 takové, že Y = aX + b s pravděpodobností 1 (Y je lineární funkcí X, s rostoucím X roste Y ),
105
ߩሺܺǡ ܻሻ ൌ Ͳ
106
Náhodný vektor ߩሺܺǡ ܻሻ ൌ ͳ
ܽǡ ܾ אԹ
ܽͲ
ܻ ൌ ܽܺ ܾ
ܽ൏Ͳ
ܻ ൌ ܽܺ ܾ
7. je-li ρ(X, Y ) = −1, pak existuje a, b ∈ R, a < 0 takové, že Y = aX + b s pravděpodobností 1 (Y je lineární funkcí X, s rostoucím X klesá Y ), ߩሺܺǡ ܻሻ ൌ െͳ
ܽǡ ܾ אԹ
8. je-li ρ(X, Y ) > 0, říkáme, že X, Y jsou pozitivně korelované (s rostoucím X roste Y ), ߩሺܺǡ ܻሻ Ͳ
9. je-li ρ(X, Y ) < 0, říkáme, že X, Y jsou negativně korelované (s rostoucím ߩሺܺǡ ܻሻ ൏ Ͳ X klesá Y). Y
Y
ߩሺܺǡ ܻሻ ൌ ͳ
ߩሺܺǡ ܻሻ ൌ െͳ
X
a) Y
Y
ߩሺܺǡ ܻሻ ൌ Ͳ
X
b)
e)
d)
Y
ߩሺܺǡ ܻሻ ൌ Ͳǡͺ
ߩሺܺǡ ܻሻ ൌ െͲǡͳͶ͵ X
X
c)
Y
ߩሺܺǡ ܻሻ ൌ Ͳǡͻ X
Y
X
f)
Y
ߩሺܺǡ ܻሻ ൌ Ͳǡͻ͵ X
ߩሺܺǡ ܻሻ ൌ Ͳǡͳ
g)
X
h)
ܻሻY ) a závislostí náhodných veličin X, Y Obr. 4.3: Grafická ilustrace souvislosti mezi ߩሺܺǡ ρ(X,
Korelace mezi složkami náhodného vektoru mnohdy zapisujeme do korelační matice. ߩሺܺǡ ܺሻ ߩሺܺǡ ܻሻ
ͳ
ߩሺܺǡ ܻሻ
൰ • Korelační maticeܿݎሺࢄሻ ൌ ൬ߩሺܻǡ ܺሻ ߩሺܻǡ ܻሻ൰ ൌ ൬ߩሺܺǡ ܻሻ ͳ ρ(X, X) ρ(X, Y ) 1 ρ(X, Y ) cor(X) = = ρ(Y, X) ρ(Y, Y ) ρ(X, Y ) 1
Zápis korelací, stejně jako zápis kovariancí, formou matice nabývá na významu v případě více než dvourozměrného náhodného vektoru, kdy přispívá k přehlednosti zápisu.
Průvodce studiem
S Z
V J
Stále nemáte představu o významu korelačního koeficientu? Pokusíme se tedy o jeho méně formální přiblížení.
107
4.5 Číselné charakteristiky náhodného vektoru
Výklad korelace Několik autorů publikovalo doporučení pro výklad míry korelace. Cohen, například, v roce 1988 navrhl, jak vykládat korelaci pro účely psychologického výzkumu (Tab. 4.8.). Výklad Tab. 4.8: Výklad míry korelace - Cohen (1988)
Typ korelace
ȁ࣋ȁ
Velmi slabá
0,00 – 0,09
Slabá
0,09 – 0,29
Střední
0,30 – 0,49
Silná
0,50 – 1,00
míry korelace však není jednoznačný, silně závisí na kontextu. Korelace 0,9 může být hodnocena jako velmi slabá v případě, že byla sledována závislost mezi proudem a napětím na odporu (Ohmův zákon – U = RI),ܷzatímco ൌ ܴ ܫv případě sledování souvislosti pocitu deprese a úspěšnosti v zaměstnání (psychologický výzkum) může stejná hodnota (0, 9) ukazovat na silnou korelaci. A ještě jedna poznámka. Uvědomte si, že korelace neznamená nutně kauzalitu (příčinnou souvislost). Výzkumy prokázaly korelaci mezi věkem a výškou dětí. V tomto případě můžeme jednoznačně říci, že mezi věkem a výškou dětí existuje příčinná souvislost – čím starší dítě, tím větší dítě. Zároveň však bylo v jiné studii ukázáno, že existuje silná korelace mezi výskytem čápů a počtem narozených dětí. Znamená to snad, že děti nosí čáp? Samozřejmě, že ne! Jedno z možných vysvětlení je to, že v místech většího výskytu čápů je zdravější životní prostředí, které ovlivňuje také porodnost v dané oblasti. Obecně hovoříme v obdobných případech o zdánlivé (falešné) korelaci. Ta vzniká v případě, kdy jsou náhodné veličiny X a Y , které spolu nijak nesouvisí, ovlivňovány náhodnou veličinou W. (Kde všude lze najít zdánlivou korelaci naznačuje článek Frederika Velinského Potrhlá astrologie.) Při výkladu míry korelace proto mějte na paměti hlavně to, že: • jsou-li náhodné veličiny nekorelované, neznamená to, že jsou nezávislé (Obr. 4.3c), • míru korelace musíme hodnotit v kontextu s modelovanou realitou, • korelace neznamená nutně kauzalitu (příčinnou souvislost).
4.5.4
Podmíněné číselné charakteristiky
Vlastnosti podmíněných rozdělení pravděpodobnosti popisují podmíněné charakteristiky. Jde o charakteristiky náhodné veličiny X za podmínky, že náhodná veličina
108
Náhodný vektor
Y nabyla určité hodnoty, resp. o charakteristiky náhodné veličiny Y za podmínky, že náhodná veličina X nabyla určité hodnoty. Jsou-li složkami dvourozměrného náhodného vektoru například náhodné veličiny X (nadmořská výška) a Y (teplota), může nás zajímat střední teplota a rozptyl teploty v nadmořské výšce 600 m.n.m., tj. E(Y |X = 600) a D(Y |X = 600), apod. • Podmíněné střední hodnoty Je-li X = (X, Y ) diskrétníPnáhodný vektor, pak: E(X|Y = y) = E(X|Y ) = xi P (Xi |y), i = 1, Pi E(Y |X = x) = E(Y |x) = yj P (Yj |x), j = 1. j
Je-li X = (X, Y ) spojitý náhodný vektor, pak: R∞ E(X|Y = y) = E(X|Y ) = −∞ x · f (x|y) dx, R∞ E(Y |X = x) = E(Y |x) = −∞ y · f (y|x) dy. • Podmíněné rozptyly Je-li X = (X, Y ) diskrétní pak: Pnáhodný vektor, 2 D(X|Y = y) = D(X|y) = (xi − E(X|y)) · P (xi |y), i = 1, (i) P D(Y |X = x) = D(Y |x) = (yi − E(Y |x))2 · P (yj |x), j = 1. (i)
+
Je-li X = (X, Y ) spojitý Rnáhodný vektor, pak: ∞ D(X|Y = y) = D(X|y) = −∞ (x − E(X|y))2 · f (x|y) dx, R∞ D(Y |X = x) = D(Y |x) = −∞ (y − E(Y |x))2 · f (y|x) dy.
Příklad 4.6. Vrátíme se naposledy k řešenému příkladu 4.1. Náhodný vektor X = = (Y, Z) je popsán sdruženou pravděpodobnostní funkci, známe jeho marginální pravděpodobnosti (Tab. 4.6) a v řešeném příkladu 4.5 jsme určili podmíněnou pravděpodobnostní funkcí P (y|z) (Tab. 4.7). Nyní určete: a) E(Y ),E(Z),D(Y ),D(Z), b) E(X),D(X), c) cov(Y, Z), var(X), ρ(Y, Z),cor(X), d) E(Y |Z = 2).
ܲሺݕȁݖሻ
4.5 Číselné charakteristiky náhodného vektoru ܧሺܻሻ ܧሺܼሻ ܦሺܻሻ ܦሺܼሻ ܧሺࢄሻ ܦሺࢄሻ ܿݒሺܻǡ ܼሻ ݎܽݒሺࢄሻ ߩሺܻǡ ܼሻ ܿݎሺࢄሻ Řešení. ܧሺܻȁܼ ൌ ʹሻ
ada) E(Y ), E(Z), D(Y ) a D(Z) jsou číselné charakteristiky náhodných veličin Y a Z (marginální charakteristiky vektoru X). Pro jejich nalezení použijeme marginální ܧሺܻሻ ܧሺܼሻ ܦሺܻሻ ܦሺܼሻ pravděpodobnosti vektoru X. Pomocné výpočty si můžeme zaznamenat do tabulky. (Hodnoty uvedené ve žlutě zvýrazněných polích jsou rovny součtům hodnot v příslušných řádcích, resp. sloupcích.) 0
0
0
0,25 0,125 0,125
1
0
0,125 0,125
2
0
0,125
0
3
0,125
0
0
0
0,125
0,5
0,25 0,125
zj.PZ (zj)
0
0,5
0,5
0,375 1,375
zj2.PZ (zj)
0
0,5
1
1,125 2,625
PZ (zj)
1
2
3
PY (yi) yi.PY (yi) yi2.PY (yi)
Y/Z
0,5
0
0
0
0,25
0,25
0,25
0
0,125
0,25
0,5
0,125
0,375
1,125
1
0,875
1,875
4Ͷ ݅ݕή ܻܲ ሺ ݅ݕሻ ൌ Ͳ ή Ͳǡͷ ͳ ή Ͳǡʹͷ ʹ ή Ͳǡͳʹͷ ͵ ή Ͳǡͳʹͷ ൌ Ͳǡͺͷ ܧሺܻሻ ൌ σ P ݅ൌͳ
yi · PY (yi ) = 0 · 0.5 + 1 · 0.25 + 2 · 0.125 + 3 · 0.125 = 0, 875
E(Y ) =
σͶ݅ൌͳ ʹ݅ݕή ܻܲ ሺ ݅ݕሻ ൌ Ͳʹ ή Ͳǡͷ ͳʹ ή Ͳǡʹͷ ʹʹ ή Ͳǡͳʹͷ ͵ʹ ή Ͳǡͳʹͷ ൌ ͳǡͺͷ ܧሺܻ ʹ ሻ ൌi=1 ʹ
ʹ 4 ʹሻ P ܦሺܻሻ െ Ͳǡͺͷ ൌ ͳǡͳͲͻ 2 ൌ ܧሺܻ 2 െ ൫ܧሺܻሻ൯ ൌ ͳǡͺͷ 2 2 2
yi · PY (yi ) = 0 · 0.5 + 1 · 0.25 + 2 · 0.125 + 32 · 0.125 = 1, 875
E(Y ) =
i=1
ܧሺܼሻ ܦሺܼሻ
D(Y ) = E(Y 2 ) − (E(Y ))2 = 1, 875 − 0, 8752 = 1, 109 ܧሺܼሻ ൌ σͶ
ݖή ܲ ൫ ݖ൯ ൌ Ͳ ή Ͳǡͳʹͷ ͳ ή Ͳǡͷ ʹ ή Ͳǡʹͷ ͵ ή Ͳǡͳʹͷ ൌ ͳǡ͵ͷ
ܼ ݆ ݆ ൌͳ ݆ Obdobně určíme E(Z) a D(Z)
ܧሺܼ ʹ ሻ ൌ σͶ݆ ൌͳ ʹ݆ݖή ܼܲ ൫ ݆ݖ൯ ൌ Ͳʹ ή Ͳǡͳʹͷ ͳʹ ή Ͳǡͷ ʹʹ ή Ͳǡʹͷ ͵ʹ ή Ͳǡͳʹͷ ൌ ʹǡʹͷ
E(Z) =
4 P
z · P (z ) =ʹ 0 · 0.125 + 1 · 0.5 + 2 · 0.25 + 3 · 0.125 = 1, 375
z i ܦሺܼሻ ൌ j=1 ܧሺܼ ʹjሻ െ ൫ܧሺܼሻ൯ ൌ ʹǡʹͷ െ ͳǡ͵ͷʹ ൌ Ͳǡ͵Ͷ
E(Z 2 ) =
4 P
zj2 · Pz (zj ) = 02 · 0.125 + 12 · 0.5 + 22 · 0.25 + 32 · 0.125 = 2, 625
j=1
ܧሺࢄሻ ൌ ൫ܧሺܻሻǡ ܧሺܼሻ൯ ൌ ሺͲǡͺͷǢ ͳǡ͵ͷሻ
D(Z) = E(Z 2 ) − (E(Z))2 = 2, 625 − 1, 3752 = 0, 734 ܦሺࢄሻ ൌ ൫ܦሺܻሻǡ ܦሺܼሻ൯ ൌ ሺͲǡͺͷǢ ͳǡ͵ͷሻ
adb) E(X) = (E(Y ), E(Z)) = (0, 875; 1, 375) D(X) = (D(Y ), D(Z)) = (0, 875; 1, 375)
109
110
Náhodný vektor
adc) Podobně jako pro výpočet rozptylu, i pro výpočet kovariance je vhodnější použít místo definičního tzv. výpočetní vztah ( cov(Y, Z) = E(Y Z) − E(Y ) · E(Z) ) E(Y Z) =
4 P 4 P
yi · zj · p(yi , zj ) = 0 · 0 · 0 + 0 · 1 · 0, 25 + 0 · 2 · 0, 125 + 0 · 3 · 0, 125 +
i=1 j=1
+ 1 · 0 · 0 + 1 · 1 · 0, 125 + · · · + 3 · 3 · 0 = 0, 625 ܿݒሺܻǡ ܼሻ ൌ ܧሺܻ ή ܼሻ െ ܧሺܻሻ ή ܧሺܼሻ
Ͷ cov(Y, ܧሺܻ Z) = Z)σ− E(Z) −0,578, ή ܼሻE(Y ൌ σͶ݅ൌͳ ݅ݕή )݆ݖή ·൫ݕ ൌ Ͳ0,ή Ͳ625 ή Ͳ −Ͳ0, ή ͳ875 ή Ͳǡʹͷ· 1, Ͳ375 ή ʹ ή= Ͳǡͳʹͷ ݅ ǡ ݆ݖ൯ = ݆ ൌͳE(Y
Ͳ ή ͵ ή Ͳǡͳʹͷ ͳ ή Ͳ ή Ͳ ͳ ή ͳ ή Ͳǡͳʹͷ ڮ
cov(Z, Y ) = cov(Y, Z).
͵ ή ͵ ή Ͳ ൌ Ͳǡʹͷ
ܿݒሺܻǡ ܼሻ ൌ ܧሺܻ ήje ܼሻ െ ܧሺܻሻ ή ܧሺܼሻ ൌ Ͳǡʹͷ െ Ͳǡͺͷ ή ͳǡ͵ͷ ൌ െͲǡͷͺ Kovarianční matice ܻሻ ൌ ܿݒሺܻǡ ܼሻǤ ܿݒሺܼǡ D(X) cov(Y, Z) 1, 109 −0, 578 var(X) = = cov(Z, Y ) D(Z) −0, 578 0, 734
Pomocí kovarianční matice určíme tím i korelační matici. ܦሺܻሻ korelační ܿݒሺܻǡ ܼሻkoeficient ͳǡͳͲͻ a െͲǡͷͺ ݎܽݒሺࢄሻ ൌ ൬
ρ(Y, Z) = √cov(Y,Z)
D(Y )·D(Z)
ρ(Z, Y ) = ρ(Y, Z)
=
ܿݒሺܼǡ ܻሻ
√ −0,578 1,109·0,734
ߩሺܻǡ ܼሻ ൌ
ܦሺܼሻ
= −0, 641
ܿݒሺܻǡ ܼሻ
ඥܦሺܻሻ ή ܦሺܼሻ
ൌ
൰ൌቀ
െͲǡͷͺ
െͲǡͷͺ
ξͳǡͳͲͻ ή Ͳǡ͵Ͷ
Ͳǡ͵Ͷ
ቁ
ൌ െͲǡͶͳǡ
Na základě této hodnoty korelačního koeficientu můžeme říci, že mezi náhodnými ܻሻ negativní ൌ ߩሺܻǡ ܼሻǤ veličinami Y a Z existuje středně ߩሺܼǡ silná korelace, tj. že pravděpodobně s růstem Y bude Z klesat (lineárně). 1 ρ(Y, Z) 1 −0, 641 cor(X) = = ρ(Z, Y ) 1 −0, 641 1 ͳ ܿݎሺࢄሻ ൌ ൬ ߩሺܼǡ ܻሻ
add)
ߩሺܻǡ ܼሻ ͳ െͲǡͶͳ ൰ൌቀ ቁǤ െͲǡͶͳ ͳ ͳ
Pro výpočet E(Y |Z = 2) potřebujeme znát podmíněnou pravděpodobnostní funkci P (y|z). P (z|y) jsme určili v příkladu 4.3. Je dána Tab. 4.7, kterou pro přehlednost ܧሺܻȁܼ ൌ ʹሻ ܲሺݕȁݖሻ uvádíme znovu. ܲሺݕȁݖሻ Y/Z 0 1 2 3
0 0 0 0 1
ܲሺܻȁݖሻ 1 0,500 0,250 0,250 0
2 0,500 0,500 0 0
3 1 0 0 0
4 P ȁܼ ʹሻ = ( ݅ݕy ή ܲሺݕ ൌ Ͳ0 ή·ͲǡͷͲͲ ͳ ʹή+ Ͳ 2͵· ή0Ͳ + ൌ ͲǡͷͲͲ E(Y |Zܧሺܻȁܼ = 2)ൌ=ʹሻ ൌ σyͶ݅ൌͳ 0, 500 +ή ͲǡͷͲͲ 1 · 0, 500 3 · 0 = 0, 500 i·P i |Z݅ =ൌ2) i=1
N
Příklad 4.7. Poslední příklad v této kapitole bude věnován výpočtu číselných charakteristik popisujících spojitý náhodný vektor definovaný v příkladu 4.2. Nechť X = (X, Y ) je spojitý náhodný vektor popsaný hustotou x + y, (x, y) ∈ h0; 1i × h0; 1i f (x, y) = 0, (x, y) ∈ / h0; 1i × h0; 1i Určete: a) E(X), E(Y ), D(X), D(Y ), b) cov(X, Y ), var(X), ρ(X, Y ), cor(X), c) E(X|Y ) = 0, 3.
Řešení. ada) Pro určení marginálních charakteristik náhodného vektoru X využijeme marginální hustoty, které byly určeny v příkladu 4.4. x + 0, 5, x ∈ h0; 1i fX (x) = 0, x∈ / h0; 1i y + 0, 5, y ∈ h0; 1i fY (y) = 0, y∈ / h0; 1i E(X) =
R∞ −∞
x · fx (x) dx =
R1 0
R∞
x2 · fx (x) dx = −∞
R1
D(X) = E(X 2 ) − (E(X))2 =
5 12
E(X 2 ) =
x2 1 ] 4 0
3
x · (x + 0, 5)dx = [ x3 + 0
4
x2 · (x + 0, 5) dx = [ x3 + 7 2 − ( 12 ) =
=
x3 1 ] 6 0
7 12
=
5 12
11 144
Vzhledem k symetrii fX (x) a fY (y) můžeme přímo napsat, že E(Y ) = 11 = 144 .
7 , 12
D(Y ) =
adb) Pro určení kovariance použijeme opět její výpočetní vztah, tzn. že nejdříve musíme určit E(XY ). R1R1 R1R1 R1 2 2 E(XY ) = 0 0 xy(x + y) dydx = 0 0 x2 y + xy 2 ) dydx = 0 [ x 2y + R1 2 3 2 = 0 ( x2 + x3 ) dx = [ x6 + x6 ]10 = 13 cov(X, Y ) = E(XY ) − E(X) · E(Y ) =
1 3
−
7 7 12 12
1 = − 144
xy 3 1 ] 3 0
dx =
+
111
4.5 Číselné charakteristiky náhodného vektoru
112
Náhodný vektor
cov(Y, X) = cov(X, Y ). Kovarianční matice je 11 1 D(X) cov(X, Y ) − 144 144 var(X) = = 1 11 cov(Y, X) D(Z) − 144 144 Pomocí hodnot z kovarianční matice určíme korelační koeficient a tím i korelační matici. 1
ρ(X, Y ) = √cov(X,Y )
D(X)·D(Y )
− 1 = √ 1114411 = − 11 144 144
Z velikosti korelačního koeficientu můžeme usuzovat na to, že mezi X a Y je pravděpodobně slabá lineární závislost, tj. X a Y jsou slabě negativně korelované náhodné veličiny. 1 1 − 11 1 ρ(X, Y ) cor(X) = = 1 − 11 1 ρ(Y, X) 1) adc) Pro nalezení podmíněné střední hodnoty E(X|Y = 0, 3) musíme určit podmíněnou hustotu f (x|Y = 0, 3). Je-li fY (y)6= 0: f (x, y) f (x|y) = fY (y)
x+y , y+0,5
0,
f (x, 0, 3) f (x|Y = 0, 3) = fY (0, 3) f (x|Y = 0, 3) =
E(X|Y = 0, 3) =
R∞
x · f (x|y)dx = −∞
R1 0
(x, y) ∈ h0; 1i (x, y) ∈ / h0; 1i
x+0,3 , 0,3+0,5
0,
10x+3 , 8
0, x·
x ∈ h0; 1i x∈ / h0; 1i
x ∈ h0; 1i x∈ / h0; 1i
10x+3 dx 8
3
= [ 10x + 24
3x2 1 ] 16 0
=
29 48
N
4.5 Číselné charakteristiky náhodného vektoru
113
Shrnutí:
X
Náhodným vektorem rozumíme vektor složený z náhodných veličin X = (X1 , X2 , ..., Xn ), který je charakterizován sdruženým rozdělením pravděpodobnosti. Ze sdruženého rozdělení pravděpodobnosti můžeme snadno najít marginální rozdělení pravděpodobnosti charakterizující jednotlivé složky náhodného vektoru.
Podmíněné rozdělení pravděpodobnosti pak chápeme jako podíl sdruženého a marginálního rozdělení pravděpodobnosti (má-li tento podíl smysl), v souladu s definicí podmíněné pravděpodobnosti. Nezávislost složek náhodného vektoru se projevuje tím, že jeho sdružená distribuční funkce (sdružená pravděpodobnostní funkce, resp. sdružená hustota pravděpodobnosti) se dá matematicky vyjádřit jako součin marginálních distribučních funkcí (marginálních pravděpodobnosti, resp. marginálních hustot pravděpodobnosti) jednotlivých náhodných veličin. Mezi nejvýznamnější smíšené momenty náhodného vektoru patří kovariance. Mírou lineární závislosti dvojice složek náhodného vektoru je korelační koeficient.
114
?
Náhodný vektor
Test 1. Určete, zda jsou pravdivé následující výroky. a) Náhodný vektor je definován jako dvourozměrný vektor, jehož složky jsou náhodné veličiny. b) Náhodný vektor lze popsat sdruženým rozdělením pravděpodobnosti. c) Marginální rozdělení popisují rozdělení jednotlivých složek náhodného vektoru. d) Je-li X = (X, Y ), pak E(X) = E(XY ). e) E(XY ) = E(X) · E(Y ) f) Marginální charakteristiky náhodného vektoru popisují vztah mezi náhodnými veličinami, které tvoří jeho složky. g) Kovariance je mírou závislosti náhodných veličin. h) Je-li cov(X, Y ) = 0 , pak jsou náhodné veličiny X a Y nezávislé. i) Je-li cov(X, Y ) = 0, pak jsou náhodné veličiny X a Y nekorelované. j) Je-li ρ(X, Y ) = 0 , pak jsou náhodné veličiny X a Y nekorelované. k) Jsou-li náhodné veličiny X a Y nekorelované, jsou lineárně nezávislé. l) cov(X, X) = 1 m) ρ(X, X) = 1 n) cov(X, Y ) = E(XY ) − E(X) · E(Y )
115
Úlohy k řešení
Úlohy k řešení 1. Hodíme dvěma poctivými mincemi. Pro každou minci zaznamenáme výsledek„1“, když padne rub mince, „0“, když padne líc mince. Označme S součet výsledků na obou mincích, R rozdíl výsledků na obou mincích. Definujme dvousložkový náhodný vektor X = (S, R) . Určete ሺܵǡ ܴሻ ࢄ ൌnáhodného a) typ vektoru (diskrétní, spojitý), b) sdruženou pravděpodobnostní funkci, c) marginální pravděpodobnostní funkce, d) střední hodnoty a rozptyly jednotlivých složek, e) kovarianční matici, f) korelační matici, g) zda jsou náhodné veličiny S, R nezávislé. 2. Při průzkumu příčin dopravních nehod byl měřen systolický tlak řidičů autobusů v závislosti na teplotě ovzduší. Vypočtěte korelační koeficient a pouze z jeho hodnoty odhadněte, zda se s rostoucí teplotou ovzduší spíše zvyšuje či spíše snižuje systolický tlak řidičů. Teplota ovzduší [oC] Systolický tlak [mm Hg]
-10,5
-5,4
0,2
6,4
10,2
15,6
18,5
25,5
31,5
35,8
76
78
81
81
74
72
76
81
82
83
ࢄ ൌ ሺܴǡ ܵሻ 3. Náhodný vektor X = (R, S) má sdruženou hustotu ʹ ሺݎ 2 ʹݏሻሺݎǡ ݏሻ Ͳۃ אǢ ͳ ۄൈ ͲۃǢ ͳۄ ͵ 3 (r + 2s), (r, s) ∈ h0; 1i × h0; 1i ݂ሺݎǡf ݏሻ ൌ ቊ (s) = r Ͳሺݎǡ ݏሻ ב1iͲۃǢ 0, (r, s) ∈ / h0; × ͳۄ h0;ൈ1iͲۃǢ ͳۄ
Určete: ݂ܴ ሺݎሻ ݂ܵ ሺݏሻ a) marginální hustoty pravděpodobnosti (r), fS (s), ܴܨሺݎሻ fܨR ܵ ሺݏሻ b) marginální distribuční funkce fR (r), fS (s), c) střední hodnoty a rozptyly náhodných veličin R a S, d) korelaci mezi R a S.
!
116
Náhodný vektor
Řešení Test 1. a) NE (Náhodný vektor muže být i vícerozměrný.), b) ANO, c) ANO, d) NE (E(X) = (EX, EY )), e) NE
PP xi · yi · p(xi .yi ), i = 1, j = 1 pro diskrétní náh. vektor (i) (j) E(XY ) = , R R ∞ ∞ x · y · f (x, y)dxdy pro spojitý náh. vektor −∞ −∞
f) NE (Marginální charakteristiky náhodného vektoru popisují jednotlivé složky náhodného vektoru), g) NE, h) NE (Je-li cov(X, Y ) = 0, mohou, ale nemusí být náhodné veličiny X a Y nezávislé.), i) ANO, j) ANO, k) ANO, l) NE, (cov(X, X) = D(X)) m) ANO, n) ANO. Úlohy k řešení 1. S...součet výsledků na obou mincích R... rozdíl výsledků na obou mincích a) Diskrétní náhodný vektor b) Korelační tabulka (sdružené pravděpodobnosti, marginální pravděpodobnosti) 7
012 4 3 4 68
3
4
5
689
c) Marginální pravděpodobnosti najdete ve výše uvedené korelační tabulce. d) E(S) = 1, 0,D(S) = 0, 5,E(R) = 0, 0, D(R) = 0, 5, e) cov(S, R) = 0, 0,
117
Úlohy k řešení var(X) =
0, 5 0, 0 0, 0 0, 5
f)ρ(S, R) ൌ = ͲǡͲ 0, 0, ߩሺܵǡ ܴሻ ͳ1 ͲǡͲ 0, 0 ܿݎሺࢄሻ=ൌ ቀ ቁ var(X) ͲǡͲ 0, 0 ͳ1 g) S,R nejsou nezávislé náhodné veličiny. 2. Následující výsledky byly získány pomocí programu Statgraphics. Correlations
Teplota Teplota Tlak
Tlak 0,3823
0,3823
ρ(Tߩሺܶ݁ܽݐ݈ǡ eplota, T lak) =ൌ 0, Ͳǡ͵ͺʹ 382 ⇒ ֜ středně silná pozitivní korelace, tj. pravděpodobně s ros݈ܶܽ݇ሻ toucí teplotou roste i systolický tlak řidičů autobusu. To potvrzuje i grafický záznam naměřených hodnot uvedený níže (graf vpravo nahoře). (Otázkou je, zda lze tvrdit, že rostoucí teplota působí na růst tlaku – tuto kauzalitu by bylo vhodné konzultovat s lékaři. Zrovna v tomto případě by mohlo jít pouze o zdánlivou korelaci.)
Teplota
Tlak
ሺͶ ݏ ͳሻͲۃ א ݏǢ ͳ ۄ ݂ 2 ൌ ቊ ͵ ܵ ሺݏሻ (r + 1), r ∈ h0; 1iͲۃ בǢ ͳۄ 3 Ͳݏ fR (r) = 0, r∈ / h0; 1i 1 (4s + 1), s ∈ h0; 1i 3 fS (s) = ሺെλǢ Ͳא ݎ Ͳሻ Ͳݏ 0, s∈ / h0; 1i אሺെλǢ Ͳሻ ͳ ͳ ܴܨሺݎሻ ൌ ቐ ͵ ݎሺ ݎ ʹሻͲۃ א ݎǢ ͳ ܵܨ ۄሺݏሻ ൌ ቐ ͵ ݏሺʹ ݏ ͳሻͲۃ א ݏǢ ͳ ۄ b) ͳ א ݎሺͳǢ λሻ ͳ א ݏሺͳǢ λሻ ͷ ͳ͵ ͳͳ ʹ͵ r ∈ (−∞; 0i 0 ܧሺܴሻ ൌ ܦሺܴሻ ൌ ܧሺܵሻ ൌ ܦሺܵሻ ൌ ͻ ͳʹ FR (r) = ͳͺ 1 r(r + 2), ͵ʹͶ r ∈ / h0; 1i 3 1 r ∈ (1; ∞) ͺ ʹͶήξͷͻͺ ܿݒሺܴǡ ܵሻ ൌ െ ߩሺܴǡ ܵሻ ൌ െ ؆ െͲǡͻͺ ֜ ͺͳ ͷͻͺ
3. X je spojitý náhodný vektor. ʹ ሺ ݎ ͳሻͲۃ א ݎǢ ͳ ۄ ݂ܴ ሺݎሻ ൌ ቊ ͵ ͲͲۃ ב ݎǢ ͳۄ a)
ͳ
118
Náhodný vektor
FS (s) =
0
1 3 s(2s
c) E(R) = 59 , D(R) =
13 162 ,
E(S) =
1 11 18 ,
s ∈ (−∞; 0i + 1) s ∈ h0; 1i s ∈ (1; ∞)
D(S) =
23 324 ,
√ . 8 , ρ(R, S) = − 24598598 = −0, 98 ⇒ silná negativní korelace, tj. s vysod) cov(R, S) = − 81 kou pravděpodobností s rostoucím R lineárně klesá S.
119
Kapitola 5 Diskrétní rozdělení pravděpodobnosti Cíle Po prostudování této kapitoly budete umět • charakterizovat hypergeometrické rozdělení, • charakterizovat Bernoulliho pokusy a z nich odvozené jednotlivé typy diskrétních rozdělení: binomické, geometrické, negativně binomické, • charakterizovat Poissonův proces a z něj vycházející Poissonovo rozdělení, • popsat vzájemné souvislosti mezi diskrétními rozděleními.
ó
120
Diskrétní rozdělení pravděpodobnosti
Připomeňme, že rozdělení náhodné veličiny X je předpis, kterým charakterizujeme pravděpodobnost jevů, jež lze touto náhodnou veličinou popsat. u diskrétní náhodné veličiny je tímto předpisem (rozdělením) většinou pravděpodobnostní funkce, rozdělení spojité náhodné veličiny je dáno distribuční funkci, popř. hustotou pravděpodobnosti. V této kapitole si shrneme základní poznatky o nejčastěji používaných typech rozdělení diskrétní náhodné veličiny. Odvození některých funkcí a číselných charakteristik popisujících zavedené náhodné veličiny je pak věnována Kap. 5.7, která je určena studentům majícím hlubší zájem o problematiku různých rozdělení.
5.1
Alternativní rozdělení
Uvažujme náhodnou veličinu X popisující výsledek náhodného pokusu takto: Nastane-li sledovaný náhodný jev A (budeme říkat, že došlo k výskytu události, resp. že došlo k úspěchu), bude mít náhodná veličina X hodnotu x = 1, nenastane-li jev A, bude mít náhodná veličina X hodnotu x = 0. Lze tedy říci, že X udává počet výskytů daného náhodného jevu (úspěchů) v jednom pokusu. Aby byla náhodná veličina s alternativním rozdělením definována, musíme znát pouze pravděpodobnost náhodného jevu (úspěchu) p. (0 < p < 1). Má-li náhodná veličina X alternativní rozdělení s pravděpodobností p, pak píšeme X → A(p). Pravděpodobnostní funkce alternativní náhodné veličiny tedy stanovuje, jaká je pravděpodobnost, že dojde k úspěchu či neúspěchu. P (X = 1) = p P (X = 0) = 1 − p Lze snadno vypočíst, že střední hodnota a rozptyl alternativní náhodné veličiny jsou dány vztahy E(X) = p, D(X) = p · (1 − p).
5.2
Binomické rozdělení
Při popisu náhodné veličiny s alternativním rozdělením jsme uvažovali pokus, v němž úspěch může nastat s pravděpodobností p a nenastat s pravděpodobností (1 − p). Posloupnost takových nezávislých pokusů (tj. takových pokusů, kdy úspěch v libovolné skupině pokusů neovlivňuje pravděpodobnost úspěchu v pokusu, který do této
121
5.2 Binomické rozdělení
skupiny nepatří) označujeme jako Bernoulliho pokusy. Pravděpodobnost úspěchu p v jednotlivých Bernoulliho pokusech je konstantní. Náhodnou veličinu X, která udává počet úspěchů v n Bernoulliho pokusech za předpokladu, že pravděpodobnost úspěchu v jednom pokusu je p, nazýváme binomickou náhodnou veličinou. Pomocí binomického rozdělení lze modelovat například • počet chlapců mezi 10 000 novorozenci, • počet vadných výrobků mezi 30 testovanými, • počet nevzrostlých rostlin ze 100 zasazených cibulek, apod. Proto, aby byla binomická náhodná veličina definována, musíme znát dva její parametry - n (celkový počet Bernoulliho pokusů) a p (pravděpodobnost úspěchu v každém z pokusů). To, že náhodná veličina má binomické rozdělení zapisujeme X → Bi(n, p). Pravděpodobnostní funkce binomické náhodné veličiny stanovuje jaká je pravděpodobnost, že v n Bernoulliho pokusech dojde ke k úspěchům. n k P (X = k) = p (1 − p)n−k k Podotkněme, že při výpočtu hodnot pravděpodobnostních funkcí nejčastěji používaných diskrétních náhodných veličin se většinou v současnosti používá statistický software, v němž jsou tyto funkce implementovány. Pro střední hodnotu a rozptyl binomické náhodné veličiny platí E(X) = np, D(X) = np(1 − p). Poznámka: Uvědomte si, že alternativní náhodná veličina je pouze speciálním případem binomické náhodné veličiny pro n = 1.
ܲሺܺ ൌ ݇ሻ ൌ ቀ ቁ ሺͳ െ ሻ ݇
ܧሺܺሻ ൌ ݊
122
Diskrétní rozdělení pravděpodobnosti
ܦሺܺሻ ൌ ݊ሺͳ െ ሻ
0,2
p,n 0,1,50 0,5,50 0,7,50
P(k)
0,16 0,12 0,08 0,04 0 0
10
20
30
40
50
k
+
Obr. 5.1: Vliv parametru p na tvar pravděpodobnostní funkce binomické náhodné veličiny
Příklad 5.1. Předpokládejme, že pravděpodobnost narození dívky je 0,49. Jaká je pravděpodobnost, že v rodině s 8 dětmi jsou a) právě 3 dívky, b) více než 2 dívky, c) méně než 3 dívky. Řešení. Považujeme-li narození dítěte za náhodný pokus, pak studovanou náhodnou veličinou X je počet dívek v rodině s 8 dětmi. Předpokládejme, že náhodné pokusy jsou nezávislé, tj. že pohlaví dříve narozených dětí neovlivní pravděpodobnost narození dítěte určitého pohlaví při dalším „pokusu“. Pak můžeme náhodnou veličinu X považovat za binomickou (určuje počet úspěchů (narození dívky) v n = 8 pokusech, přičemž pravděpodobnost úspěchu p = 0, 49 je stejná pro všechny pokusy). X ... počet dívek v rodině s 8 dětmi X → Bi(n; p), tj. X → Bi(8; 0, 49) Pravděpodobnostní funkce náhodné veličiny X je pak dána 8 8 k 8−k P (X = k) = (0, 49) (1 − 0, 49) = (0, 49)k (0, 51)8−k . k k Nyní můžeme přistoupit ke hledání odpovědí na položené otázky. 8 8! · (0, 49)3 (0, 51)5 = 0, 23 ada) P (X = 3) = (0, 49)3 (0, 51)8−3 = 5! · 3! 3 V rodině s 8 dětmi jsou právě 3 dívky s pravděpodobností 0,23.
123
5.3 Hypergeometrické rozdělení
adb) k > 2; tj. k = 3; 4; 5; 6; 7; 8 P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) + P (X = 6) + P (X = 7)+ 8 X 8 +P (X = 8) = 0, 49k (0, 51)8−k k k=3
Vzhledem k tomu, že tento výpočet je poněkud zdlouhavý, pokusíme se hledanou pravděpodobnost najít pomocí pravděpodobnosti doplňku jevu X > 2. P (X > 2) = 1 − P (X 5 2) = 1 − [P (X = 0) + P (X = 1) + P (X = 2)] = 1 − 2 P 8 0, 49k (0, 51)8−k = 1 − 0, 16 = 0, 84 − k k=0 V rodině s 8 dětmi jsou více než 2 dívky s pravděpodobností 0,84. adc) k < 3; tj. k = 0; 1; 2 2 X 8 0, 49k (0, 51)8−k = 0, 16 P (X < 3) = [P (X = 0) + P (X = 1) + P (X = 2)] = k k=0
V rodině s 8 dětmi jsou méně než 3 dívky s pravděpodobností 0,16. N
5.3
Hypergeometrické rozdělení
Hypergeometrická náhodná veličina se, podobně jako binomická náhodná veličina, používá v situacích, kdy potřebujeme popsat počet úspěchů v n pokusech. Rozdíl mezi oběma náhodnými veličinami spočívá v tom, že zatímco binomická náhodná veličina popisuje počet úspěchů v n Bernoulliho pokusech, hypergeometrická náhodná veličina popisuje počet úspěchů v n závislých pokusech. (Jsou-li pokusy závislé, pravděpodobnost úspěchu v určitém pokusu může záviset na výsledcích v předcházejících pokusech.) Předpokládejme, že v základním souboru N prvků je M prvků s danou vlastností a zbylých N − M prvků tuto vlastnost nemá. Náhodně vybereme ze základního souboru n prvků, z nichž žádný nevracíme zpět. Je-li náhodná veličina X definována jako X ... počet prvků se sledovanou vlastností ve výběru n z N prvků,
124
Diskrétní rozdělení pravděpodobnosti
má tato náhodná veličina hypergeometrické rozdělení s parametry N, M, n, což značíme X → H(N, M, n). Hypergeometrické rozdělení je základním pravděpodobnostním rozdělením při výběru bez vracení. Hypergeometrické rozdělení lze využít k modelování • počtu vadných výrobků mezi 10 vybranými z dodávky 30 výrobků, mezi nimiž bylo 7 vadných, • počtu dívek v náhodně vybrané skupině 4 dětí ze třídy, v níž je 6 chlapců a 8 dívek, • počtu cibulí červených tulipánů v balíčku 10 cibulí vybraných ze směsi, která obsahuje 20 cibulí žlutých a 20 cibulí červených tulipánů, apod. Pravděpodobnostní funkce hypergeometrické náhodné veličiny je dána M N −M P (X = k) =
k
n−k N n
.
Lze ukázat, že pro střední hodnotu a rozptyl hypergeometrické náhodné veličiny platí M E(X) = n · , N M M N −n D(X) = n · 1− . N N N −1 Hypergeometrické rozdělení hraje významnou roli při statistické kontrole jakosti v případech, kdy zkoumáme jakost malého počtu výrobků, nebo když kontrola má ráz destrukční zkoušky (tj. výrobek je při zkoušce zničen).
5.3.1
Aproximace hypergeometrického rozdělení
+
Je-li n/N , tzv. výběrový poměr, menší než 0,05, lze hypergeometrické rozdělení nahradit binomickým s parametry n a (M/N ). n M < 0, 05 ⇒ H(N ; M ; n) ∼ Bi n; N N Příklad 5.2. Mezi 200 vajíčky určenými pro prodej v jisté maloobchodní prodejně je 50 vajíček prasklých. Jaká je pravděpodobnost, že vybereme-li si náhodně 20 vajec, bude 8 z nich prasklých?
125
5.3 Hypergeometrické rozdělení
Řešení. Jde o výběr bez vracení (vybrané vajíčko nevracíme zpět), jednotlivé pokusy jsou závislé. Nadefinujeme-li náhodnou veličinu X jako počet prasklých vajíček mezi 20-ti vybranými, pak má tato náhodná veličina hypergeometrické rozdělení s parametry: N = 200; M = 50; n = 20. X → H(200; 50; 20)
200 (celkový počet vajec) .
&
50 (počet prasklých vajec)
150 (počet dobrých vajec)
Vzorec pro pravděpodobnostní funkci hypergeometrického rozdělení si nemusíme pamatovat, hledanou pravděpodobnost určíme z klasické definice pravděpodobnosti.
Počet všech možností určíme jako C(200; 20), neboť celkem vybíráme 20 vajec z 200 vajec (bez ohledu na pořadí). 200 C(200; 20) = 20 Počet příznivých možností určíme jako C(50; 8) · C(150; 12), neboť mezi vybranými 20-ti vejci má být 8 prasklých, tj. vybíráme 8 prasklých vajec z 50-ti prasklých a zároveň 12 (20-8) dobrých vajec ze 150-ti. 50 150 C(50; 8) · C(150; 12) = · 8 12 Pak
50 8
P (X = 8) =
150 12
· 200 20
= 0, 057.
Pravděpodobnost, že mezi 20 vybranými vejci je 8 prasklých je 0,057. N
126
Diskrétní rozdělení pravděpodobnosti
5.4
Geometrické rozdělení
Geometrická náhodná veličina X je definována jako počet Bernoulliho pokusů do prvního výskytu události (úspěchu), včetně něj. Geometrické rozdělení má pouze jeden parametr a to pravděpodobnost výskytu události (úspěchu) v každém z pokusů – p. To, že má náhodná veličina X geometrické rozdělení zapisujeme X → G(p) Pomocí geometrického rozdělení lze modelovat například • počet volání nutných k tomu, abychom se dovolali do televizní soutěže, • počet řidičů, kteří podstoupí test na obsah alkoholu v krvi do doby, než bude nalezen první podnapilý řidič, atd. Pravděpodobnostní funkce geometrické náhodné veličiny stanovuje jaká je pravděpodobnost, že pro dosažení prvního úspěchu musíme provést n pokusů (včetně toho úspěšného). P (X = n) = (1 − p)n−1 · p
0,8
p 0,1 0,8
P(n)
0,6 0,4 0,2 0 0
10
20
30
40
50
60
n Obr. 5.2: Vliv parametru p na tvar pravděpodobnostní funkci geometrické náhodné veličiny
Snadno lze vypočítat, že pro střední hodnotu aଵrozptyl geometrické náhodné veličiny ܧሺܺሻ ൌ platí 1ଵି E(X) ܦሺܺሻ= ൌ p,మ D(X) =
1−p . p2
127
5.4 Geometrické rozdělení
Příklad 5.3. Jaká je pravděpodobnost, že aby padla na klasické kostce šestka, musíme házet a) právě 5x, b) více než 3x.
Řešení. Považujeme-li za náhodný pokus hod kostkou (opakované hody tvoří Bernoulliho pokusy), pak počet hodů nutných k 1. úspěchu (padnutí „6“) je geometrickou náhodnou veličinou X s parametrem p = 1/6 (pravděpodobnost úspěchu v každém pokusu). 1 X→G 6 Pravděpodobnostní funkce náhodné veličiny X je pak definována jako n−1 n−1 1 1 5 1 P (X = n) = · 1 − = · , 1 5 n < ∞. 6 6 6 6 ada) Pravděpodobnost, že „6“ padne v 5. hodu určíme přímým dosazením do vztahu pro pravděpodobnostní funkci. 1 P (X = 5) = · 6
5−1 4 5 1 5 . = · = 0, 080 6 6 6
Pravděpodobnost, že poprvé padne šestka v 5. hodu je 8,0% . Poznámka: v případě, že bychom hodnotu pravděpodobnostní funkce hledali pomocí softwaru, v němž je geometrická náhodná veličina definována jako počet pokusů před prvním úspěchem, museli bychom otázku přeformulovat. Hledáme-li pravděpodobnost, že šestka padne v 5. hodu, je to totéž jako bychom hledali pravděpodobnost, že před prvním padnutím šestky musíme házet 4 krát.
+
POZOR!!! Definice geometrické náhodné veličiny není ustálená. v některých publikacích a statistických softwarech se můžeme setkat s tím, že geometrická náhodná veličina je definována jako počet neúspěchů před prvním úspěchem. Pak se samozřejmě liší i příslušné pravděpodobnostní funkce, střední hodnoty a rozptyly. Pokud určujeme konkrétní hodnotu pravděpodobnostní (distribuční) funkce za pomoci statistického softwaru, je nutné si ověřit, jaká definice byla použita a podle toho modifikovat vstupní parametr pro požadovaný výpočet.
128
Diskrétní rozdělení pravděpodobnosti
adb) P (X > 3) = P (X = 4) + P (X = 5) + . . . = = 1 − P (X 5 3) = 1 − [P (X = 1) + P (X = 2) + P (X = 3)] = = 1 − [p + p(1 − p) + p(1 − p)2 ] = " 2 # 1 1 5 1 5 . =1− + + = 0, 578 6 6 6 6 6 Pravděpodobnost, že poprvé padne šestka nejdříve ve 4. hodu je přibližně 0,578. N
5.5
Negativně binomické (Pascalovo) rozdělení
Negativně binomická, někdy nazývaná také Pascalova, náhodná veličina X je definována jako počet Bernoulliho pokusů do k-tého výskytu události (úspěchu), včetně k-tého výskytu. Z definice je zřejmé, že se jedná o obecnější případ geometrické náhodné veličiny (geometrická náhodná veličina je speciálním případem negativně binomické náhodné veličiny pro k = 1). POZOR!!! Obdobně jako u geometrické náhodné veličiny, ani v případě negativně binomické náhodné veličiny není definice ustálená. Někteří statistici (popř. statistický software) ji definují jako počet neúspěchů před k-tým úspěchem. Důsledek této nejednoznačnosti je stejný jako v případě geometrické náhodné veličiny. v případě výpočtů je vždy nutné ověřit, kterou definici autoři použili a tomu přizpůsobit parametry v softwaru. Negativně-binomické (Pascalovo) rozdělení lze využít k modelování • počtu dárců neznajících svou krevní skupinu, které musíte testovat proto, abyste našli 4 dárce s krevní skupinou 0, • počtu cestujících, které musí revizor zkontrolovat do chvíle, než najde 10 černých pasažérů, • počtu výrobků testovaných při výstupní kontrole do chvíle, než bude nalezeno 5 vadných výrobků, atd. Proto, aby byla negativně binomická náhodná veličina definována, musíme znát dva její parametry: požadovaný celkový počet výskytu události (úspěchů) – k a
129
5.5 Negativně binomické (Pascalovo) rozdělení
pravděpodobnost výskytu události (úspěchu) v každém z pokusů – p. Pak to, že má náhodná veličina negativně binomické rozdělení zapisujeme X→ Nܰܤሺ݇ǡ B(k, p). ܺ՜ ሻ Pravděpodobnostní funkce negativně binomické náhodné veličiny stanovuje, jaká je pravděpodobnost, že pro dosažení k výskytů události (úspěchů) musíme uskutečnit n Bernoulliho pokusů. n−1 k P (X = n) = p (1 − p)n−k k−1 (X 0,001) 15 k=10, p=0,1 k=30, p=0,1
P(n)
12 9 6 3 0 0
100
200
300 n
400
500
600
Obr. 5.3: Vliv parametru k na pravděpodobnostní funkci negativně binomické náhodné veličiny
ܰܤሺ݇ǡ ሻ ݇
ൌ ǡ Pro střední hodnotu a rozptyl negativněܧሺܺሻ binomické náhodné veličiny N B(k, p) platí
E(X) = D(X) =
5.5.1
k , p
k(1 − p) . p2
Porovnání binomického a negativně binomického rozdělení
Ačkoliv se může na první pohled zdát, že obě rozdělení mají podobnou pravděpodobnostní funkci, existují významné rozdíly.
130
Diskrétní rozdělení pravděpodobnosti
Binomické rozdělení n k P (X = k) = p (1 − p)n−k , 0 5 k 5 n k V tomto vztahu je k náhodné a n deterministické (předem známé). Negativně binomické rozdělení n−1 k P (X = n) = p (1 − p)n−k , k 5 n < ∞ k−1
+
V tomto vztahu je n náhodné a k deterministické (předem známé). Příklad 5.4. Dle http://ksicht.natur.cuni.cz/serialy/detektivni-chemie/3 je pravděpodobnost výskytu krevní skupiny A+ 35% . v polní nemocnici nutně potřebují najít 3 dárce krve s touto krevní skupinou. Potenciálních dárců je dostatek, nikdo z nich však nezná svou krevní skupinu. Jaká je pravděpodobnost, že pro nalezení 3 dárců krevní skupiny A+, budeme muset postupně vyšetřit a) právě 10 potenciálních dárců, b) více než 9 potenciálních dárců, c) více než 7 a méně než 12 potenciálních dárců. Řešení. Za náhodný pokus budeme považovat vyšetření jedné osoby (2 možné výsledky - má krevní skupinu A+ (úspěch), nemá krevní skupinu A+). Definujeme-li náhodnou veličinu X jako počet osob, které musíme vyšetřit, chceme-li najít 3 dárce s krevní skupinou A+, můžeme X považovat za negativně binomickou náhodnou veličinu. X → N B(3; 0, 35) Pravděpodobnostní funkce náhodné veličiny X pak vypadá takto: n−1 n−1 3 n−3 P (X = n) = (0, 35) (1−0, 35) = (0, 35)3 (0, 65)n−3 ; 3 5 n < ∞. 3−1 2 Nyní můžeme přistoupit k hledání konkrétních pravděpodobností. . ada) P (X = 10) = 92 (0, 35)3 (0, 65)7 = 0, 076. Pravděpodobnost, že pro nalezení 3 dárců krevní skupiny A+ musíme vyšetřit právě 10 potencionálních dárců je 0,076. adb) P (X > 9) = 1 − P (X 5 9) = 1 −
3 P n=3
n−1 2
. (0, 35)3 (0, 65)n−3 = 0, 337.
131
5.6 Poissonovo rozdělení
Pravděpodobnost, že pro nalezení 3 dárců krevní skupiny A+ musíme vyšetřit více než 9 potencionálních dárců je 0,337. adc) P (7 < X < 12) =
11 P n=8
n−1 2
. (0, 35)3 (0, 65)n−3 = 0, 332.
Pravděpodobnost, že pro nalezení 3 dárců krevní skupiny A+ musíme vyšetřit více než 7 a méně než 12 potencionálních dárců je 0,332. N
5.6
Poissonovo rozdělení
Dalším z obecných modelů schémat sběru dat, který má široké využití v praxi, je Poissonův proces. Lze ho chápat jako zobecnění Berhoulliho posloupnosti pokusů. Poissonův proces popisuje počet náhodných událostí v nějakém pevném časovém intervalu. Obecným názvem pro takové procesy je bodový proces. Poissonův proces je speciálním případem bodového procesu. U Poissonova procesu musí být, zjednodušeně řečeno, dodrženy následující tři předpoklady. • Ordinarita – pravděpodobnost výskytu více než jedné události v limitně krátkém časovém intervalu (t → 0) je nulová. Hovoříme o tzv. řídkých jevech. • Stacionarita – pravděpodobnost výskytu jevu závisí pouze na délce intervalu, nikoli na jeho umístění na časové ose, neboli rychlost výskytu událostí je konstantní v průběhu celého intervalu. • Nezávislé přírůstky – počty události ve vzájemně disjunktních časových intervalech jsou nezávislé. Z požadavku na nezávislé přírůstky vyplývá důležitá vlastnost Poissonova procesu a tou je beznáslednost. • Beznáslednost – pravděpodobnost výskytu události není závislá na čase, který uplynul od minulé události. Poissonův proces lze obdobně jako v časovém intervalu definovat na libovolné uzavřené prostorové oblasti (na ploše, v objemu). Parametrem Poissonova procesu je rychlost výskytu události (hustota výskytu události na ploše, resp. v objemu), kterou značíme λ. Rychlost výskytu události
132
Diskrétní rozdělení pravděpodobnosti
je úměrná pravděpodobnosti výskytu jedné události za jednotku času (na jednotce plochy, resp. v jednotce objemu). Definujme si náhodný pokus jako Poissonův proces (nezávislé události probíhající v čase t, s rychlostí výskytu λ; popř. nezávislé události objevující se na ploše t, resp. v objemu t s hustotou výskytu λ). Pokud si náhodnou veličinu X za těchto předpokladů definujeme jako počet výskytu události v časovém intervalu délky t nebo počet výskytu události na ploše t (v objemu t), pak můžeme X považovat za náhodnou veličinu s Poissonovým rozdělením, což značíme X → P o(λt). Pomocí Poissonova rozdělení lze modelovat například • počet pacientů ošetřených během dopoledních ordinačních hodin, • počet mikrodefektů na zadaném vzorku materiálu, • počet mikroorganismů v 1 dl vody, atd. Pravděpodobnostní funkce Poissonovy náhodné veličiny udává, jaká je pravděpodobnost, že v časovém intervale délky t (na ploše t, v objemu t) dojde ke k událostem. (λt)k e−λt P (X = k) = k! Poissonovo rozdělení je charakteristické tím, že jeho střední hodnota a rozptyl se rovnají. E(X) = D(X) = λt Protože střední hodnota je rovna λt, můžeme tvrdit, že parametr Poissonova rozdělení λt je roven střednímu počtu události, k nimž došlo během časového intervalu délky t (popř. na ploše t, resp. v objemu t).
5.6.1
Aproximace binomického rozdělení Poissonovým rozdělením
Poissonovo rozdělení bývá označováno jako rozdělení řídkých jevů, neboť se podle něj řídí počet výskytů události (jevů), které mají velmi malou pravděpodobnost výskytu. Poissonovým rozdělením lze velmi dobře aproximovat binomické rozdělení pro případ, že počet pokusů n je dostatečně velký (n > 30) a pravděpodobnost
133
5.6 Poissonovo rozdělení
Příklad 5.5. V jisté nemocnici se průměrně 30 krát ročně vyskytne porucha srdeční činnosti po určité operaci. Předpokládejme, že se jednotlivé poruchy srdeční činnosti po dané operaci vyskytují nezávisle na sobě, s konstantní rychlosti výskytu. Určete a) pravděpodobnost, že se v této nemocnici vyskytne příští měsíc právě 5 těchto poruch, b) pravděpodobnost, že se v této nemocnici vyskytne příští měsíc 2 a více těchto poruch, c) střední hodnotu a směrodatnou odchylku počtu těchto poruch během jednoho měsíce. Řešení. Náhodnou veličinu X ... počet výskytu poruch srdeční činnosti během měsíce (po dané operaci) můžeme považovat za náhodnou veličinu s Poissonovým rozdělením. Její parametr λt určíme jako průměrný počet výskytu poruch srdeční činnosti během měsíce (střední hodnota Poissonova rozdělení je rovna λt). t = 1 měsíc ⇒ E(X) = λt =
30 = 2, 5 ⇒ X → P o(2, 5) 12
(λt)k e−λt ;05k<∞ k! ada) Pravděpodobnost, že se v nemocnici vyskytne příští měsíc právě 5 těchto poruch, určíme jednoduše dosazením do pravděpodobnostní funkce. P (X = k) =
P (X = 5) =
(2, 5)5 e−2,5t = 0, 067 = 6, 7% 5!
adb) Pravděpodobnost, že se v nemocnici vyskytne příští měsíc 2 a více těchto poruch, bychom museli určit jako součet pravděpodobností pro počet výskytu (k) od 2 do ∞. Proto pro výpočet použijeme v tomto případě pravděpodobnost doplňku daného jevu. P (X = 2) = 1−P (X < 2) = 1−[P (X = 0)+P (X = 1)] = 1−
1 X (λt)k e−λt k=0
. = 1 − e−2,5 + 2, 5e−2,5 = 1 − 3, 5e−2,5 = 0, 713 = 71, 3%
k!
=
+
výskytu události (úspěchu) je dostatečně malá (p < 0, 1). v takovém případě je λt = np. (n > 30 ∧ p < 0, 1) ⇒ Bi(n, p) ∼ P o(np)
134
Diskrétní rozdělení pravděpodobnosti
adc) Střední hodnota i rozptyl náhodné veličiny X jsou rovny jejímu parametru, směrodatná odchylka je rovna odmocnině z rozptylu. p p . E(X) = D(X) =; λt = 2, 5 σx = D(X) = 2, 5 = 1, 6. V uvedené nemocnici dochází k (2, 5 ± 1, 6) poruchám srdeční činnosti (po určité operaci) měsíčně. N
5.7
Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů
Pro zájemce o hlubší pochopení studované látky je určena tato část textu. Měla by vám ukázat, jak byly sestaveny jednotlivé pravděpodobnostní funkce a jak lze pomocí nich odvodit příslušné střední hodnoty a rozptyly.
5.7.1
Alternativní rozdělení
má náhodná veličina X popisující počet úspěchů v jednom pokusu majícím pouze dva možné výsledky označované jako úspěch (X = 1) a neúspěch (X = 0). Je-li pravděpodobnost úspěchu p, pak je zřejmé, že pravděpodobnostní funkce alternativní náhodné veličiny je dána vztahem P (X = 1) = p, P (X = 0) = 1 − p. Dle známých vztahů lze odvodit střední hodnotu a rozptyl alternativní náhodné veličiny. P E(X) = xi · P (xi ) = 1 · p + 0 · (1 − p) = p, (i)
E(X 2 ) =
P
x2i · P (xi ) = 12 · p + 02 · (1 − p) = p,
(i)
D(X) = E(X 2 ) − (E(X))2 = p − p2 = p(1 − p).
5.7.2
Binomické rozdělení
má náhodná veličina X popisující počet úspěchů v n Bernoulliho pokusech. Hledáme pravděpodobnost, že mezi n Bernoulliho pokusy bude k úspěchů. Je zřejmé, že každá „úspěšná posloupnost pokusů“ musí obsahovat právě k úspěchů (pravděpodobnost každého úspěchu je p) a (n − k) neúspěchů (pravděpodobnost každého neúspěchu je 1 − p). Vzhledem k nezávislosti jednotlivých Bernoulliho pokusů je pravděpodobnost
5.7 Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů výskytu každé takové „úspěšné posloupnosti pokusů“ rovna pk (1−p)n−k . Uvážíme-li, že existuje nk takových úspěšných posloupnosti pokusů, tak je zřejmé, že n k P (X = k) = p (1 − p)n−k , 0 5 k 5 n. k Pro odvození střední hodnoty a rozptylu binomické náhodné veličiny využijeme toho, že binomická náhodná veličina je součtem n nezávislých náhodných veličin Ni s alternativním rozdělením se stejným parametrem p. Nechť ∀i = 1, 2, . . . , n : Wi → A(p). Pak X=
n X
Wi → Bi(n; p).
i=1
E(X) = E
n P
=
Wi
i=1
D(X) = D
n P i=1
5.7.3
n P
E(Wi ) =
i=1
Wi
=
n P
n P
p = np,
i=1
D(Wi ) =
i=1
n P
p(1 − p) = np(1 − p).
i=1
Hypergeometrické rozdělení
má náhodná veličiny X popisující počet úspěchů v n závislých pokusech, kdy každý má pouze dva možné výsledky (úspěch a neúspěch). Hledáme pravděpodobnost, že ve výběru n prvků z N bude k prvků s danou vlastností. Definice pravděpodobnostní funkce hypergeometrického rozdělení vychází z klasické definice pravděpodobnosti: počet příznivých možností ku počtu všech možností. N (celkový počet prvků) . M (počet prvků s danou vlastností, resp. úspěchů)
& (N-M) (počet prvků bez dané vlastnosti, resp. neúspěchů)
Počet všech možností – vybíráme bez vracení n prvků z N prvkové množiny, bez ohledu na pořadí, tj. jde o kombinace bez opakování n-tého řádu z N prvků N C(N, n) = . n Počet všech možností – vybíráme k z M prvků bez ohledu na pořadí (k prvků má mít danou vlastnost) a zároveň vybíráme (n − k) prvků z (N − M ) prvků bez
135
136
Diskrétní rozdělení pravděpodobnosti
ohledu na pořadí (ostatní prvky z vybírané n-tice (tj, (n−k) prvků) danou vlastnost (úspěch) mít nemají). Na základě kombinatorického pravidla o součinu nezávislých výběrů můžeme tvrdit, že počet příznivých možností je C(M, k) · C(N − M, n − k) =
M k
N −M . n−k
A proto na základě klasické definice pravděpodobnosti můžeme vyjádřit pravděpodobnostní funkci hypergeometrické náhodné veličiny jako P (X = k) =
M k
N −M n−k . N n
Střední hodnotu a rozptyl hypergeometrického rozdělení odvozovat nebudeme.
5.7.4
Geometrické rozdělení
má náhodná veličina X popisující počet Bernoulliho pokusů do prvního úspěchu. Hledáme pravděpodobnost, že do prvního úspěchu (včetně) musíme uskutečnit n pokusů. Je zřejmé, že úspěšná je pouze posloupnost (n − 1) neúspěchů následována jedním úspěchem. Pravděpodobnost výskytu takovéto posloupnosti pokusů je dána vztahem P (X = n) = p(1 − p)n−1 , 1 5 n < ∞. Dále odvodíme střední hodnotu a rozptyl geometrického rozdělení. ∞ P
E(X) =
n · P (X = n) =
n=1
∂ =p·
∞ P
∞ P n=1
n
(1 − p)
n=1
∂(1 − p)
Poznámka:
∞ P
n · p(1 − p)n−1 = p ·
∞ P
n(1 − p)n−1 =
n=1
1−p ∂ 1 1 p =p· =p· 2 = , ∂(1 − p) p p
(1 − p)n upravujeme jako součet geometrické řad s kvocientem p a
n=1
prvním členem (1-p).
137
5.7 Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů Pro výpočet rozptylu použijeme výpočetní vztah D(X) = E(X 2 ) − (E(X))2 , kde 2
∞ P
n−1
2
∞ P
n−1
2
(n − n + n)(1 − p) ∞ ∞ P 2 P n−1 n−1 = = p (n − n)(1 − p) + n(1 − p) n=2 n=1 ∞ ∞ P P = p n · (n − 1)(1 − p)n−1 + n(1 − p)n−1 =
E(X ) =
n p(1 − p)
=p
n=1
=
n=1
n=2
n=1
= p(1 − p)
∞ P
n · (n − 1)(1 − p)n−2 +
n=2
∂
n(1 − p)n−1 =
n=1
∞ P 2
k
(1 − p)
k=1 ∂ 2 (1
= p(1 − p)
∞ P
∂
∞ P
k
(1 − p)
k=1
+p − p) ∂(1 − p) 1−p 1−p ∂ ∂2 p p +p = = p(1 − p) 2 ∂ (1 − p) ∂(1 − p) 2 1 2(1 − p) 1 = p(1 − p) 3 + p 2 = + . p p p2 p
=
2 2(1 − p) 1 1−p 1 2 − 2p + p − 1 D(X) = E(X ) − (E(X)) = + = − = p2 p p p2 p2 2
5.7.5
2
Negativně binomické (Pascalovo) rozdělení
má náhodná veličina X popisující počet Bernoulliho pokusů nutných k uskutečnění k úspěchů. Hledáme pravděpodobnost toho, že do k-tého úspěchu musíme uskutečnit právě n pokusů. Úspěšnou je tedy posloupnost (n − 1) pokusů obsahujících (k − 1) úspěchů následována úspěchem. Nechť náhodná veličina Y popisuje počet úspěchů v (n − 1) Bernoulliho pokusech. Je zřejmé, že náhodná veličina Y má binomické rozdělení. Y → Bi(n − 1, p) Pravděpodobnost, že v (n − 1) Bernoulliho pokusech bude (k − 1) úspěchů je pak dána vztahem n − 1 k−1 n − 1 k−1 (n−1)−(k−1) P (Y = k − 1) = p (1 − p) = p (1 − p)n−k . k−1 k−1
138
Diskrétní rozdělení pravděpodobnosti
Vzhledem k nezávislosti Bernoulliho pokusů lze jednoduše ukázat, že n − 1 k−1 n−1 k n−k P (X = n) = P (Y = k − 1) · p = p (1 − p) ·p = p (1 − p)n−k . k−1 k−1 Pro odvození střední hodnoty a rozptylu negativně binomické náhodné veličiny využijeme toho, že negativně binomickou náhodnou veličinu si můžeme představit jako součet k nezávislých náhodných veličin s geometrickým rozdělením. Nechť ∀i = 1, 2, . . . , k : Wi → A(p). Pak X=
k X
Wi → N B(k; p).
i=1
E(X) = E
k P
=
Wi
i=1
D(X) = D
k P i=1
5.7.6
k P
E(Wi ) =
k 1 P k = , p i=1 p
D(Wi ) =
k (1 − p) P k(1 − k) = . 2 p p2 i=1
i=1
Wi
=
k P i=1
Poissonovo rozdělení
má náhodná veličina X popisující počet výskytu události na uzavřené oblasti (v čase, na ploše, v objemu). Výskyt náhodných události musí podléhat podmínkám Poissonova procesu. Uvažujme Poissonův proces, který je pozorován v průběhu času. Předpokládejme, že rychlost výskytu událostí je λ. Potom pravděpodobnost výskytu událostí během intervalu (0; t) bude úměrná hodnotě λt. Nyní rozdělíme interval délky t na n subintervalů stejné délky (t/n). Výskyt událostí v každém z těchto subintervalů bude nezávislý a pravděpodobnost výskytu událostí během jednoho tohoto malého intervalu bude úměrná hodnotě (λ.(t/n)). Volně řečeno - pokud n je dostatečně velké číslo, pak délka intervalu (t/n) bude natolik malá, že pravděpodobnost výskytu více než jedné události v tomto intervalu je téměř nulová a pravděpodobnost výskytu jedné události je rovna (λ.(t/n)) . Potom pravděpodobnostní rozdělení počtu událostí, které nastanou během celého intervalu délky t, bude možno aproximovat binomickým rozdělením s parametry n a (λt/n) – za předpokladu, že (n → ∞). Tedy " n−k # k λt n λt 1− . P (X = k) = lim n→∞ n n k
5.7 Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů
Po úpravě dostáváme k n−k n λt λt P (X = k) = lim 1− = n→∞ k n n n! (λt)k lim = k! n→∞ (n − k)!nk
n−k λt 1− = n
=
(λt)k e−λt n! lim = n→∞ (n − k)!nk k!
=
n(n − 1)(n − 2) . . . (n − k + 1) (λt)k e−λt lim = n→∞ k! nk
=
nk + k · nk−1 + . . . (λt)k e−λt (λt)k e−λt lim = . n→∞ k! k! k!
Pravděpodobnostní funkci Poissonova rozdělení tedy můžeme vyjádřit jako P (X = k) =
(λt)k e−λt ; 0 5 k < ∞. k!
Dosazením do známých definičních vztahů odvodíme střední hodnotu a rozptyl Poissonova rozdělení. ∞ ∞ ∞ X P P (λt)k e−λt (λt)k−1 E(X) = kP (X = k) = k = λt · e−λt · k = k! (k − 1)! k=0 k=0 k=0 = λt · e−λt · E(X 2 ) =
∞ P k=0
=
∞ P k=0
∞ (λt)l P = λt · e−λt · eλt = λt l! l=0
k 2 P (X = k) =
∞ P
(k 2 − k + k)P (X = k) =
k=0
k(k − 1)P (X = k) +
∞ P
kP (X = k) =
k=0
∞ X (λt)k e−λt (λt)k−2 k −λt = k(k − 1) + EX = (λt) e · + λt = k! (k − 2)! k=2 k=2 ∞ P
= (λt)2 · e−λt · eλt + λt = (λt)2 + λt
D(X) = E(X 2 ) − (E(X))2 = (λt)2 + λt − (λt)2 = λt
139
140
X
Diskrétní rozdělení pravděpodobnosti
Shrnutí: Rozdělení náhodné veličiny X je předpis, kterým charakterizujeme pravděpodobnost jevů, jež lze touto náhodnou veličinou popsat. Základním rozdělením popisujícím výběry bez vracení je hypergeometrické rozdělení. Název NV X
Popis
Pravděpodobnostní funkce
Hypergeometrická
Počet prvků se sledovanou vlastností ve výběru n prvků, který byl proveden ze základního souboru rozsahu N (v základním souboru má M prvků sledovanou vlastnost)
æ M öæ N - M ö ÷ çç ÷÷çç k n - k ÷ø P( X = k ) = è øè æNö çç ÷÷ ènø
Bernoulliho pokusy: • posloupnost nezávislých pokusů majících pouze 2 možné výsledky (událost nastane-nenastane; úspěch-neúspěch; popřípadě 1-0) • pravděpodobnost výskytu události (úspěchu) p je konstantní v každém pokuse Rozdělení diskrétní náhodné veličiny založená na Bernoulliho pokusech Název NV X Binomická
Počet úspěchů (k) v n pokusech
Alternativní
Počet úspěchů v jednom pokusu
Pravděpodobnostní funkce ænö P ( X = k ) = çç ÷÷ p k ( 1 - p )n -k èk ø P ( X = 1) = p P( X = 0) = 1 - p
Geometrická
Počet pokusů (n) do 1. úspěchu
P( X = n ) = p ( 1 - p )n-1
1 p
Negativně binomická
Počet pokusů (n) do k-tého úspěchu
æ n - 1ö k ÷÷ p ( 1 - p ) n -k P( X = n ) = çç 1 k è ø
k p
Popis
E(X)
D(X)
np
np(1 - p)
p
p(1 - p)
(1 - p ) p2
k (1 - p) p2
Poissonův proces popisuje výskyt řídkých náhodných událostí na nějakém pevném časovém intervalu. U Poissonova procesu musí být, zjednodušeně řečeno, dodrženy následující tři předpoklady. • ordinarita, • stacionarita, • nezávislé přírůstky.
141
5.7 Odvození pravděpodobnostních funkcí, středních hodnot a rozptylů
Poissonův proces lze obdobně jako v časovém intervalu definovat na libovolné uzavřené prostorové oblasti (na ploše, v objemu). Rozdělení diskrétní náhodné veličiny založené na Poissonově procesu Název NV X Poissonova
Popis Počet události (k) v časovém intervalu (na ploše, v objemu) (t)
Pravděpodobnostní funkce (lt )k e -lt P (X = k ) = k!
E(X)
D(X)
lt
lt
142
?
Diskrétní rozdělení pravděpodobnosti
Test 1. Určete pravdivost následujících tvrzení. (a) Rozdělení pravděpodobnosti diskrétní náhodné veličiny může být dáno výhradně pravděpodobnostní funkcí. (b) Posloupnost nezávislých pokusů majících pouze dva možné výsledky se stejnou pravděpodobnosti úspěchu nazýváme Bernoulliho pokusy. (c) Počet úspěchů v n pokusech lze popsat binomickou náhodnou veličinou. (d) Geometrické rozdělení je speciálním případem negativně binomického rozdělení. (e) Pascalovo rozdělení je pouze jiný název pro negativně binomické rozdělení. (f) Jistý supermarket má otevřeno 24h denně. Počet zákazníků v supermarketu během otevírací doby lze popsat náhodnou veličinou s Poissonovým rozdělením. 2. Charakterizujte rozdělení náhodné veličiny popisující (a) počet studentů, kteří úspěšně ukončí kurz STA1 v tomto semestru (z minulých let víme, že pravděpodobnost, že student úspěšně dokončí kurz STA1 je 0,63; do kurzu je v tomto semestru přihlášeno 248 studentů), (b) počet vadných mikroprocesorů na chipu (na chipu je průměrně 1 vadný mikroprocesor), (c) počet hodů poctivou kostkou nutných k padnutí šestky, (d) počet řidičů obsloužených na čerpací stanici za půl hodiny (během 1h je na čerpací stanici obslouženo průměrně 72 řidičů), (e) počet řidičů obsloužených do chvíle, kdy 1. řidič ujede bez placení (průměrně ujíždí bez placení 1 z 50 řidičů), (f) počet týdnů v roce (52 týdnů), v nichž neujede žádný řidič z čerpací stanice bez placení (během týdne je na čerpací stanici obslouženo průměrně 4 000 řidičů, z nichž cca 2 % ujedou bez placení), (g) počet dnů do chvíle, kdy 4. řidič ujede bez placení (průměrně ujíždí bez placení 1 z 50 řidičů).
Úlohy k řešení
Úlohy k řešení 1. Mějme Bernoulliho pokusy. Pravděpodobnost úspěchu je 0,1. Určete pravděpodobnost, že do prvního úspěchu provedeme a) méně než 5 pokusů, b) více než 10 pokusů, c) mezi 6 a 8 pokusy, d) právě 7 pokusů. 2. Víme, že pravděpodobnost vady výrobku je 17 %. Určete pravděpodobnost, že mezi 20 výrobky bude a) více než 5 vadných výrobků, b) méně než dva vadné výrobky, c) mezi 4 a 8 vadnými výrobky, d) právě 3 vadné výrobky. 3. Kolikrát (průměrně) musíme hodit poctivou mincí, aby nám 5x padl líc? 4. Továrna produkuje integrované obvody. Při jedné fázi výroby dochází často k závadě, proto je 25 % výrobků vadných. Jaká je pravděpodobnost, že mezi 12 integrovanými obvody budou a) 4 vadné, b) méně než 4 vadné? c) Jaká je střední hodnota a rozptyl počtu vadných IO, budeme-li testovat 15 vzorků? d) Nyní uvažme, že bylo vyrobeno pouze 48 IO a my vybereme 12 z nich. Jaká je pravděpodobnost, že mezi vybranými IO budou právě 4 vadné? 5. Distributor prodává knihu XY po telefonu. 12 % hovorů je úspěšných (tj. objednají si knihu). Jaká je pravděpodobnost, že distributor předtím než bude úspěšný bude muset uskutečnit a) 5 hovorů, b) méně než 5 hovorů, c) více než 8 hovorů. Předpokládejme, že distributor musí splnit denní kvótu - prodat 10 knih. d) Jaká je pravděpodobnost, že distributor bude pro splnění denní kvóty potřebovat méně než 30 telefonátů? e) Určete střední hodnotu a rozptyl počtu telefonátů potřebných pro splnění denní kvóty.
143
!
144
Diskrétní rozdělení pravděpodobnosti
Uvažme nyní, že ne každý z těch, kdo si telefonicky objednají danou knihu, ji skutečně odebere. Přesněji řečeno - 65 % osob objednanou knihu skutečně zaplatí. Distributor je podle této skutečnosti ohodnocen. Dostává 30,- Kč za každou objednávku a dalších 50,Kč ve chvíli, kdy je objednávka převzata. f) Jaká je pravděpodobnost, že výdělek distributora ve chvíli, kdy splní svou denní kvótu, bude vyšší než 500,- Kč? g) Jaký je jeho průměrný výdělek (a směrodatná odchylka jeho výdělku) při splnění denní kvóty? 6. Celník na hranici EU má za úkol kontrolovat nepřetržitě projíždějící vozidla. Víme, že 25 % vozidel veze kontraband a 40 % z nich celník odhalí. Jaká je pravděpodobnost, že celník, předtím než objeví první vozidlo s kontrabandem, bude muset prohlédnout a) 5 aut, b) více než 10 aut. c) Určete střední hodnotu a rozptyl počtu aut, jež musí celník prohlédnout předtím než objeví první automobil s kontrabandem. Nadřízený tohoto celníka vydal příkaz, že celník může jít domů poté, co nalezne 5 aut s kontrabandem. Předpokládejme, že prohlédnutí jednoho auta trvá celníkovi 10 minut. d) Jaká je pravděpodobnost, že tento příkaz prodlouží celníkovi pracovní den (8 hodin)? e) Jaká je nyní průměrná pracovní doba (a její směrodatná odchylka) celníka? 7. Bankovní úředník provádějící kontrolu návrhů půjček zjistil, že se v nich nachází 0,5 chyby na návrh. Jaká je pravděpodobnost, že úředník v deseti návrzích a) najde 6 chyb, b) najde více než 6 chyb, c) nenajde ani jednu chybu. V 35 % chyb je nutno chybu přičíst úmyslné chybné prezentaci dat. d) Jaký je průměrný počet chyb způsobených chybnou prezentací v celkovém množství 100 návrhů? e) Pokud všechny chybné návrhy vyřadíme, jaká je pravděpodobnost, že více než 2 návrhy z deseti budou vyřazeny vlivem úmyslné chybné prezentace dat? 8. Počet návštěvníků Fitness Centra VŠB je v průměru 10 na hodinu. Určete a) pravděpodobnost, že v určitou hodinu je ve fitcentru přesně 10 lidí, b) pravděpodobnost, že v určitou hodinu je ve fitcentru méně než 5 lidí, c) pravděpodobnost, že v určitou hodinu je ve fitcentru mezi 8 a 15 osobami.
145
Úlohy k řešení
Řešení Test 1. a) NE (diskrétní rozdělení lze zadat rovněž distribuční funkcí), b) ANO, c) NE (binomická NV popisuje pouze počet úspěchů v n Bernoulliho pokusech), d) ANO, e) ANO, f) NE (příchody zákazníků do supermarketu během 24h nesplňují podmínku stacionarity Poissonova procesu). 2. a) binomické, b) Poissonovo (za předpokladu stacionarity procesu), c) negativně binomické (Pascalovo) (k=1,p=1/6), nebo geometrické (p=1/6), d) Poissonovo, e) geometrické, f) binomické, g) negativně binomické (Pascalovo). Úlohy k řešení 1. X .. počet pokusů do 1. úspěchu, X → G(p = 0, 1) a) 0,344 b) 0,349 c) 0,160 d) 0,053 2. X .. počet vadných výrobků z 20, X → Bi(n = 20, p = 0, 17) a) 0,110 b) 0,123 c) 0,446 d) 0,236 3. 10x (X ... počet hodů mincí nutných proto, aby 5x padnul líc, X → N B k = 5, p =
4. X .. počet vadných výrobků z 12, X → Bi(n = 12, p = 0, 25) a) 0,190 b) 0,650 c) E(X) = 1, 75;
D(X) = 2, 81
1 2
146
Diskrétní rozdělení pravděpodobnosti
d) Y ... počet vadných výrobků z 12, X → H(N = 48, M = 12, n = 12) 0,220 5. X ... počet hovorů, které musí distributor uskutečnit proto, aby byl jednou úspěšný, X → G(p = 0, 12) a) 0,063 b) 0,472 c) 0,316 Y ... počet hovorů, které musí distributor uskutečnit proto, aby byl 10x úspěšný, X → N B(k = 10, p = 0, 12) d) 0,001 e) E(Y ) = 83, 33; D(Y ) = 611, 11 R ...počet knih z 10, které budou distributorovi skutečně uhrazeny, R → Bi(n = 10, p = = 0, 65), S ... výdělek distributora při splnění denní kvóty, S = 50R + 300 f) 0,910 g) E(S) = 625, −Kč, σ = 75, −Kč 6. X .. počet vozidel, které bude muset celník prohlédnout proto, aby našel jedno s kontrabandem, X → G(p = 0, 1) a) 0,059 b) 0,310 c) E(X) = 10 aut; D(X) = 90 aut2 Y ... počet vozidel, které bude muset celník prohlédnout proto, aby našel pět s kontrabandem, Y → N B(k = 5, p = 0, 1) D ... nová pracovní doba dělníka [min], D = 10Y d) P (D > 480) = P (Y > 48) = 0, 470 e) ED = 8h 20min, σD = 3h 32min 7. X .. počet chyb v deseti návrzích, X → P o(λt = 5) a) 0,146 b) 0,238 c) 0,007 Y ... počet chyb způsobených chybnou prezentací ve 100 návrzích, X → Bi(n = 100, p = = 0, 35) d) E(Y ) = 17, 5 e) 0,738 8. X ... počet návštěvníků fitcentra za 1 hodinu, X → P o(λt = 10) a) 0,125 b) 0,029 c) 0,731
147
Kapitola 6 Spojitá rozdělení pravděpodobnosti Cíle Po prostudování této kapitoly budete umět • charakterizovat jednotlivé typy spojitých rozdělení: rovnoměrné, exponenciální, Erlangovo, Weibullovo, normální, normované normální, logaritmicko-normální, • popsat vzájemnou souvislost mezi rozděleními v diskrétním procesu a v bodovém procesu ve spojitém čase.
ó
148
Spojitá rozdělení pravděpodobnosti
V předcházející kapitole jsme se věnovali vybraným rozdělením diskrétní náhodné veličiny, nyní přejděme k popisu rozdělení náhodné veličiny spojité. Připomeňme si, že rozdělení spojité náhodné veličiny je dáno distribuční funkci, popř. hustotou pravděpodobnosti. v této kapitole je uveden přehled vybraných rozdělení spojité náhodné veličiny, přičemž odvození některých funkcí, středních hodnot a rozptylů je věnována podkapitola 6.9, která je určena zájemcům o matematické pozadí uvedených vztahů.
6.1
Rovnoměrné rozdělení
Jde o rozdělení, jehož hustota pravděpodobnosti je konstantní na nějakém intervalu (a; b) a všude jinde je nulová. X...náhodná veličina s rovnoměrným rozdělením na intervalu (a; b) X → R(a; b) Hustota pravděpodobnosti: f (x) =
1 b−a
x ∈ (a; b) x∈ / (a; b)
0
Distribuční funkce: F (x) =
0
x−a , b−a
1
x ∈ (−∞; ai x ∈ (a; b) x ∈ hb; ∞)
Střední hodnota a rozptyl náhodné veličiny s rovnoměrným rozdělením jsou dány vztahy (a − b)2 a+b E(X) = , D(X) = 2 12 1
0,7 0,6
0,8
0,4
F(x)
f(x)
0,5
0,3
0,6 0,4
0,2
0,2
0,1 0
0 -1
-0,6 -0,2
0,2
0,6
1
x
1,4
1,8
2,2
2,6
3
-1
-0,6 -0,2
0,2
0,6
1
1,4
1,8
2,2
2,6
3
x
Obr. 6.1: Grafy hustoty pravděpodobnosti a distribuční funkce náhodné veličiny s rovnoměrným rozdělením na (0;2)
149
6.2 Exponenciální rozdělení
6.2
Exponenciální rozdělení
Mějme Poissonův proces, tj. v určitém časovém intervalu se s konstantní střední rychlostí výskytu λ objevují události, které jsou na sobě nezávislé (např. dopravní nehody na Martinovské křižovatce během jedné hodiny, příchody zákazníku do supermarketu mezi 15:00h a 16:00h, poruchy elektronického systému během dvou let, atd.). Pak vhodným rozdělením pro popis doby do výskytu první události, popř. doby mezi událostmi je exponenciální rozdělení. Toto rozdělení úzce souvisí s rozdělením Poissonovým. Jestliže Poissonovo rozdělení popisuje počet výskytů událostí v časovém intervalu, exponenciální rozdělení se používá k popisu doby do výskytu příslušné události. Např. počet dopravních nehod na Martinovské křižovatce za určitý časový interval se popisuje Poissonovým rozdělením, zatímco dobu od jedné nehody do druhé lze popsat rozdělením exponenciálním. Obě tato rozdělení hrají důležitou roli v teorii spolehlivosti. Časté aplikace jsou též v teorii hromadné obsluhy (teorii front), kde se pomocí exponenciálního rozdělení modeluje doba čekání ve frontě. To, že náhodná veličina X má exponenciální rozdělení s parametrem λ (λ > 0), budeme zapisovat ሺߣ Ͳሻ X → Exp(λ) ܺ ՜ ݔܧሺߣሻ
Funkce hustoty pravděpodobnosti exponenciálního rozdělení je dána vztahem λ · e−λt , t > 0 ିఒ௧ f (t) = Ͳ0. t5 ݂ሺݐሻ ൌ0,൜ ߣ ή ݁ ǡݐ Ͳǡ ݐ ͲǤ
Distribuční funkce náhodné veličiny s exponenciálním rozdělením Exp(λ) je dána ݔܧሺߣሻ vztahem െ−λt ݁ ିఒ௧ Ͳ0 , ǡݐt > ܨሺݐሻ ൌ1൜−ͳ e F (t) = Ͳǡݐ ͲǤ 0, t5 0. 1
0,08
0,8
0,06
0,6
f(t)
F(t)
0,1
0,04
0,4
0,02
0,2
0
0 0
10
20
30 t
40
50
60
0
10
20
30
40
50
60
t
Obr. 6.2: Hustota a distribuční funkce exponenciální náhodné veličiny
150
Spojitá rozdělení pravděpodobnosti
Střední hodnota a rozptyl náhodné veličiny s exponenciálním rozdělením jsou dány vztahy 1 1 E(X) =ଵ , D(X) =ଵమ 2 . ܧሺܺሻ ൌ ܦሺܺሻ ൌ ఒλ ఒ λ Převrácená hodnota rychlosti výskytu události λ, tj. 1/λ, bývá v literatuře označoߣ ͳȀߣ vána také jako „parametr měřítka“. E(X) 3 5 10
f(t) 0,4
0,3 0,2 0,1 0 0
10
20
30 t
40
50
60
Obr. 6.3: Vliv parametru měřítka na tvar grafu hustoty exponenciálního rozdělení
6.2.1
Intenzita poruch
Modelujeme-li dobu do výskytu události (životnost, dobu do poruchy, dobu do relapsu (návratu onemocnění),apod.), používáme kromě hustoty pravděpodobnosti a distribuční funkce také funkci známou pod názvem intenzita poruch (hazardní funkce, angl. „hazard function“). Pro nezápornou náhodnou veličinu X se spojitým rozdělením popsaným distribuční funkcí F (t) definujeme pro F (t) 6= 1 (tj. F (t) < 1) intenzitu poruch λ(t) jako f (t) . 1 − F (t) Představuje-li náhodná veličina X dobu do poruchy nějakého zařízení, pak pravděpodobnost, že pokud do času t nedošlo k žádné poruše, tak k ní dojde v následujícím krátkém úseku délky ∆t, je přibližně λ(t) · ∆t. P (t 5 X < t + ∆t|X = t) ≈
f (t) ∆t = λ(t) · ∆t 1 − F (t)
Jak vypadá model intenzity poruch? Pokud zůstaneme u představy, že náhodná veličina X popisuje dobu do poruchy nějakého systému, pak empirický model intenzity poruch je zobrazen na Obr. 6.4. Křivka na Obr. 6.4 se nazývá vanová křivka (angl. „bath tube“) a obvykle se dělí na tři úseky (I, II, III).
151
6.2 Exponenciální rozdělení
λ(t)
I.
II.
III. t
Obr. 6.4: Model intenzity poruch I. v prvním úseku křivka intenzity poruch klesá. Odpovídající časový interval se nazývá období časných poruch (období záběhu, období počátečního provozu, období osvojování nebo období dětských nemocí podle analogie s úmrtnostní křivkou člověka). Příčinou zvýšené intenzity poruch v tomto období jsou poruchy v důsledku výrobních vad, nesprávné montáže, chyb při návrhu, nebo při výrobě apod. II. Ve druhém úseku dochází k běžnému využívání zaběhnutého výrobku, k poruchám dochází většinou z vnějších příčin, nedochází k opotřebení, které by změnilo funkční vlastnosti výrobku. Intenzita poruch je v tomto období přibližně konstantní. Příslušný časový interval se nazývá období normálního užití, či období stabilního života. III. Ve třetím úseku procesy stárnutí a opotřebení mění funkční vlastnosti výrobku, projevují se nastřádané otřesy výrobku z období II, trhliny materiálu a intenzita poruch vzrůstá. Příslušný časový interval se nazývá období poruch v důsledku stárnutí a opotřebení. ݔܧሺߣሻ
ߣሺݐሻ ൌ ߣ ൌ ݇ݐݏ݊Ǥ ǡ ݐ ͲǤ
Intenzitu poruch modelujeme v jednotlivých úsecích pomocí různých rozdělení
6.2.2
Exponenciální rozdělení = „rozdělení bez paměti“
Dosazením lze jednoduše ukázat, že intenzita poruch náhodné veličiny s exponenciálním rozdělením Exp(λ) je dána vztahem λ(t) = λ = konstanta,
t > 0.
Má-li doba do výskytu události exponenciální rozdělení, pak je intenzita poruch konstantní. Tzn., že není závislá na délce předcházejícího provozu sledovaného systému. Říkáme, že exponenciální rozdělení je „rozdělení bez paměti“. Zdá se jako by sledovaný systém „zapomněl“ na dříve odpracovanou dobu. (Považovali-li bychom
152
Spojitá rozdělení pravděpodobnosti
dobu do poruchy monitoru za exponenciální náhodnou veličinu, pak pravděpodobnost, že se monitor porouchá za více než 200 hodin od této chvíle, by nijak nezávisela na jeho stáří (době jeho předcházejícího provozu)). Modelujeme-li dobu do poruchy exponenciálním rozdělením, pak pravděpodobnost, že systém, který pracoval bez poruchy po dobu t1 , bude pracovat bez poruchy ještě alespoň po dobu t2 , je rovna pravděpodobnosti, že systém, který dosud nebyl v provozu, bude pracovat alespoň po dobu t2 . (Má-li doba do výskytu události exponenciální rozdělení, pak informace o tom, že událost nenastala po dobu t1 , nemění pravděpodobnost výskytu události v následujícím období délky t2 .) P (X > (t1 + t2 )|X > t1 ) = P (X > t2 );
t1 ; t2 = 0
+
Tato vlastnost vysvětluje použití exponenciálního rozdělení v teorii spolehlivosti. Exponenciální rozdělení popisuje dobře rozdělení doby života systémů, u kterých dochází k poruše ze zcela náhodných příčin a nikoliv v důsledku opotřebení (mechanické opotřebení, únava materiálu apod.), tj. u systémů nacházejících se v období stabilního života. Příklad 6.1. Výrobce žárovek Edison ví, že průměrná životnost žárovek Edison je 10.000 h. v rámci své propagační kampaně chce garantovat dobu T , do níž se nespálí více než 3% žárovek. Určete tuto dobu. (Pro modelování doby života žárovek použijte exponenciální rozdělení.)
Řešení. X ... životnost žárovky (doba do poruchy) má exponenciální rozdělení. X → Exp(λ) • Určíme parametr λ. E(X) = 10 000h. ⇒ λ = 10−4 h−1 E(X) = λ1 • Na základě zadané pravděpodobnosti najdeme dobu T . P (X < T ) 5 0, 03 F (T ) 5 0, 03 1 − e−λT 0, 97 5 e−λT ln(0, 97) 5 −λT T 5 − λ1 · ln(0, 97) T 5 −104 · ln(0, 97) . T = 304h. Výrobce může tvrdit, že více než 97% žárovek má životnost delší než 304 hodin. N
153
6.3 Weibullovo rozdělení
6.3
Weibullovo rozdělení
Weibullovo rozdělení, stejně jako rozdělení exponenciální, slouží k modelování doby do výskytu události (doby do poruchy, doby bezporuchovosti, doby do relapsu (návratu onemocnění), apod.). Zatímco exponenciálním rozdělením lze modelovat pouze dobu do výskytu události u systémů, které se nacházejí v období stabilního života, Weibullovo rozdělení je mnohem flexibilnější a umožňuje tak modelovat dobu do výskytu události i u systému, které jsou v období časných poruch nebo v období stárnutí (tj. tam kde se projevuje mechanické opotřebení nebo únava materiálu). Weibullovo rozdělení má dva parametry: Θ – parametr měřítka (angl. „scale“, Θ > 0, závisí na materiálu, namáhání a podmínkách užívání) a β – parametr tvaru (angl. „shape“, β > 0 ovlivňuje tvar intenzity poruch a tím i vhodnost použití pro určité období doby života). Má-li náhodná veličina X Weibullovo rozdělení, značíme to X → W (Θ, β). Distribuční funkce náhodné veličiny s Weibullovým rozdělením je dána vztahem t β 1 − e−( Θ ) , t > 0 F (t) = 0, t 5 0. Všimněte si, že exponenciální rozdělení je speciálním typem Weibullova rozdělení pro β = 1. (Je-li β = 1, pak Θ = λ1 .) Hustota pravděpodobnosti: f (t) =
t β β β−1 −( Θ t e ) , Θβ
0,
t>0 t 5 0.
Vztahy pro střední hodnotu a rozptyl náhodné Rveličiny s Weibullovým rozdělením ∞ se vyjadřují pomocí gama funkce Γ(X) (Γ(X) = 0 tx−1 e−t dt). 1 1 1 + 1)Θ2 = Γ( + 1) , β β λ 2 1 2 1 1 D(X) = [Γ( + 1) − Γ2 ( + 1)]Θ2 = [Γ( + 1) − Γ2 ( + 1)]( )2 . β β β β λ Intenzita poruch: β λ(t) = β tβ−1 = βλβ tβ−1 , t > 0, Θ > 0, β > 0. Θ Ze vztahu pro intenzitu poruch Weibullova rozdělení je zřejmé, že E(X) = Γ(
λ(t) = konstanta · tβ−1 , a proto tvar intenzity poruch závisí pouze na volbě parametru β. Vliv parametru β na tvar intenzity poruch prezentují Tab. 6.1 a Obr. 6.5.
ߣሺݐሻ ൌ
ߚ ఉିଵ ݐ ൌ ߚߣఉ ݐఉିଵ ǡ ݐ Ͳǡ ȣ Ͳǡ ߚ ͲǤ ȣஒ
ߣሺݐሻ ൌ ݇ ܽݐ݊ܽݐݏ݊ή ݐఉିଵ ߣሺݐሻ ൌ ݇ ܽݐ݊ܽݐݏ݊ή ݐఉିଵ
154
Spojitá rozdělení pravděpodobnosti ߚ ߚ
Ͳ൏ߚ൏ͳ Ͳߚ൏ͳߚ ൏ ͳ ߚ=ͳ
ଵ Tab. 6.1: Vliv parametru β na ߣሺݐሻ tvar ൌintenzity ߣ ൌଵ ൌ poruch ݇ݐݏ݊Ǥ
období stabilního života
ߚͳ
ߚͳ
období stárnutí
ͳ൏ߚ൏ʹ ͳ൏ ߚ൏ ߚൌ ʹʹ ߚ ൌ ʹ ߚʹ ߚʹ
ߣሺݐሻ ൌ ߣ ൌ ൌ ݇ݐݏ݊Ǥ (exp. rozdělení) λ(t) ... konkávní, rostoucí funkce λ(t) ... lineárně rostoucí funkce λ(t) ... konvexní, rostoucí funkce
λ(t)
ࢼࢼ ࢼࢼ ൌൌ
൏൏ ࢼࢼ ൏൏
ࢼࢼ൏൏
ࢼൌ ൌ
ࢼࢼ t
+
Obr. 6.5: Vliv parametru β na tvar intenzity poruch
Příklad 6.2. Předpokládejme, že doba do poruchy určitého systému je modelována Weibullovým rozdělením s lineární a rostoucí intenzitou poruch a parametrem měřítka Θ = 50. a) Jaká je intenzita poruch systému po deseti hodinách bezporuchové funkce? b)Jaká je pravděpodobnost, že systém bude pracovat bez poruchy během počátečních 100 hodin? Řešení. X...doba do poruchy, X → W (50; β) Hodnotu parametru tvaru β určíme na základě poznámky, že intenzita poruch je lineární a rostoucí. Obecný tvar intenzity poruch Weibullova rozdělení je λ(t) = konstanta · tβ−1 , z čehož vyplývá, že β = 2. X → W (Θ = 50; β = 2) ada) Hledanou intenzitu poruch určíme dosazením do vztahu λ(t) = λ(10) =
2 102−1 502
= 0, 008
β Θβ tβ−1
.
155
6.4 Erlangovo rozdělení
Intenzita poruch daného systému je po 10 hodinách provozu 0,008. Tj. pokud byl systém po 10 hodin bezporuchový, pak pravděpodobnost, že v následujícím velmi krátkém časovém intervalu ∆t dojde k poruše, je 0,008∆t. adb) Pravděpodobnost, že systém bude prvních 100 hodin bezporuchový, určíme přes jev opačný, jehož pravděpodobnost udává distribuční funkce t β
F (t) = 1 − e−( Θ ) , t > 0, Θ > 0, β > 0. 100 2
100 2
P (X > 100) = 1 − F (100) = 1 − [1 − e−( 50 ) ] = e−( 50
)
= e−4 = 0, 018
Pravděpodobnost, že daný systém bude prvních 100 hodin bezporuchový je 0,018. N
6.4
Erlangovo rozdělení
Náhodná veličina s Erlangovým rozdělením popisuje dobu do výskytu k-té události v Poissonově procesu. Erlangovo rozdělení má dva parametry: k – počet událostí (parametr tvaru, angl. „shape“), k nimž má dojít a rychlost výskytu těchto událostí λ (parametr měřítka, angl. „scale“). Má-li náhodná veličina Xk Erlangovo rozdělení, značíme Xk → Erlang(k, λ). Xk =doba do výskytu k-té události (na obr. k = 4)
Čas výskytu události
0
1
2
3
4
Xk má Erlangovo rozdělení
Obr. 6.6: Ilustrace náhodné veličiny s Erlangovým rozdělením Pro Erlangovo rozdělení s parametry k a λ platí tyto vztahy: Hustota pravděpodobnosti: (
k−1
λe−λt (λt) , t>0 (k−1)! f (t) = ିଵ ሺߣݐሻ t 50Ͳ ߣ݁0,ିఒ௧ ǡݐ
݂ሺݐሻ ൌ ቐ
ሺ݇ െ ͳሻǨ Ͳǡ ݐ Ͳ
ͳ െ ݁ ିఒ௧
ିଵ ሺߣݐሻ
ǡ ݐ Ͳ ܨሺݐሻ ൌ ቐ ୀ ݆Ǩ Ͳǡ ݐ Ͳ
5
156
Spojitá rozdělení pravděpodobnosti
Distribuční funkce: F (t) =
1 − e−λt
k−1 P j=0
0,
(λt)j , j!
t>0 t50
Intenzita poruch: λ(t) = (k − 1)!
λ k−1 P j=0
Střední hodnota: E(Xk ) = Rozptyl: D(Xk ) =
1 (k−1−j)!(λt)j
k λ
k λ2
parametr měřítka 1 3 5
5
intenzita poruch
4 3 2 1 0
0
3 t
6
Obr. 6.7: Vliv parametru měřítka na tvar intenzity poruch (k = 4) Intenzita poruch λ(t) je v případě Erlangova rozdělení rostoucí funkce, a proto je toto rozdělení vhodné pro modelování procesů stárnutí. Erlangovo rozdělení je speciálním typem tzv. Gamma rozdělení pro parametr k z množiny celých čísel. (Tuto souvislost je vhodné znát, chceme-li k nalezení distribuční funkce, popř. hustoty pravděpodobnosti použít statistický software – některé statistické balíky mají implementováno pouze Gamma rozdělení a hodnoty Erlangova rozdělení pak získáme dosazením hodnoty parametru k).
6.5
Souvislost mezi rozděleními
Mezi mnohými dosud probranými rozděleními založenými na Bernoulliho pokusech a na Poissonově procesu lze najít logickou souvislost zobrazenou na následujícím obrázku 6.8.
157
6.6 Normální rozdělení
DISKRÉTNÍ PROCES
BODOVÝ PROCES
Bernoulliho pokusy
Poissonův proces
VE SPOJ. ČASE
Binomická náhodná veličina počet úspěchů v n pokusech
Poissonova náhodná veličina počet události v časovém intervalu délky t
Geometrická náh. veličina počet pokusů do prvního úspěchu
Exponenciální náh. veličina doba do první události
Neg. bin. náhodná veličina počet pokusů do k-tého úspěchu
Erlangova náhodná veličina doba do k-té události
Obr. 6.8: Souvislost mezi rozděleními v Bernoulliho pokusech a v Poissonově procesu
6.6
Normální rozdělení
Nejpoužívanějším pravděpodobnostním rozdělením modelujícím chování velkého množství náhodných jevů v technice, přírodních vědách i ekonomii je rozdělení normální. z hlediska aplikací bývá vhodné k popisu náhodných veličin, které lze interpretovat jako aditivní výsledek mnoha nepatrných a vzájemně nezávislých vlivů (např. chyba měření, odchylka rozměru výrobku od požadované hodnoty, ... ). Proto bývá normální rozdělení také označováno jako zákon chyb. Značný význam normálního rozdělení spočívá rovněž v tom, že za určitých podmínek lze pomocí něj aproximovat řadu jiných spojitých i nespojitých rozdělení. Normální rozdělení má dva parametry: µ – střední hodnotu, charakterizující polohu tohoto rozdělení a σ 2 – rozptyl, charakterizující rozptýlení hodnot náhodné veličiny kolem střední hodnoty. POZOR! V anglosasské literatuře (a v některých statistických balících) jsou jako parametry normálního rozdělení uváděny střední hodnota µ a směrodatná odchylka σ. To, že se náhodná veličina X řídí normálním rozdělením se střední hodnotou µ a rozptylem σ 2 zapisujeme
158
Spojitá rozdělení pravděpodobnosti
X → N (µ; σ 2 ) Hustota pravděpodobnosti: −( √x−µ ) 1 (2)σ f (x) = √ · e , −∞ < x < ∞ σ 2π
f(x)
inflexní body
ݔൌߤ
ߪ
ߤ ߤ
ߪ
ߤെߪ
ߤ
x
ߤߪ
Obr. 6.9: Hustota pravděpodobnosti normálního rozdělení
Grafem hustoty pravděpodobnosti náhodné veličiny s normálním rozdělením je tzv. Gaussova křivka (Gaussův klobouk, zvonová funkce, angl. „bell curve“, Obr. 6.9). Jde o zvonovitou funkci dosahující maxima pro x = µ. Parametr σ udává „horizontální“ vzdálenost inflexních bodů od µ a tím i šířku Gaussovy křivky. Vliv parametrů µ a σ na tvar a pozici Gaussovy křivky v souřadnicovém systému ߤ ilustrují Obr. 6.10 a Obr. 6.11. 0,2
stř. hodnota, sm. odchylka 20,2 20,5 20,10
0,16
f(x)
0,12 0,08 0,04 0 -30
-10
10
30
50
70
x
ߪ
Obr. 6.10: Vliv parametru µ na polohu Gaussovy křivky
ݔൌߤ
ߪ
ߤ
6.6 Normální rozdělení ߤ
159
ߪ
0,08
stř. hodnota, sm. odchylka 10,5 20,5 30,5
f(x)
0,06
0,04
0,02
0 -15
5
25
45
65
x
Obr. 6.11: Vliv parametruߤ σ na polohu Gaussovy křivky Distribuční funkce: 1 F (x) = p · σ (2π)
Z
x
e
t−µ −√
2σ
dt
−∞
Střední hodnota: EX = µ Rozptyl: DX = σ 2
F(x)
1
ߪ
µ
x
Obr. 6.12: Distribuční funkce náhodné veličiny s normálním rozdělením R −x2 Protože ି௫ e మ dx nelze zapsat pomocí konečně mnoha elementárních funkcí, využívá ݔ݀ ݁ se možnosti vyjádřit distribuční funkci normální náhodné veličiny pomocí distribuční funkce normované náhodné veličiny, tj. normální náhodné veličiny s parametry µ = = 0, σ 2 = 1. Distribuční funkce normované náhodné veličiny byla v mnoha bodech určena pomocí numerických metod a následně tabelována. (Viz odstavec 6.7).
160
Spojitá rozdělení pravděpodobnosti
6.7
Normované (standardizované) normální rozdělení
Jak již jsme se zmínili, jde o speciální typ normálního rozdělení se střední hodnotou rovnou nule a jednotkovým rozptylem. To, že má náhodná veličina Z (obvyklé značení pro normovanou normální náhodnou veličinu) normované normální rozdělení, značíme Z → N (0; 1). Na důležitost tohoto rozdělení ukazuje i speciální značení pro distribuční funkci (φ(x)) a hustotu pravděpodobnosti ϕ(z). Hustota pravděpodobnosti: x2 1 · e 2 ; −∞ < z < ∞ ϕ(z) = p (2π)
Distribuční funkce:
1
φ(z) = p · (2π)
Z
z
t2
e 2 dt −∞
Střední hodnota: E(Z) = 0
Rozptyl: D(Z) = 1 Význam normovaného normálního rozdělení spočívá zejména v tom, že jeho distribuční funkce je tabelována (viz příloha Tabulky) a lze pomocí ní počítat distribuční funkce náhodných veličin s normálním rozdělením o libovolných parametrech µ a σ. v tabulkách najdeme distribuční funkci normovaného normálního rozdělení pro z = 0. Pro z < 0 určíme distribuční funkci na základě převodního vztahu mezi φ(z) a φ(−z). Hustota pravděpodobnosti normovaného normálního rozdělení je sudá funkce a platí pro ni proto ϕ(z) = ϕ(−z); −∞ < z < ∞. Zároveň lze ukázat (viz Obr. 6.13), že pro distribuční funkci normované normální náhodné veličiny platí φ(z) = 1 − φ(−z); −∞ < z < ∞ Ze sudosti hustoty pravděpodobnosti φ(z) (Obr. 6.13) je taktéž zřejmé, že pro kvantily normovaného normálního rozdělení, pro které budeme používat speciální značení zp platí zp = −z1−p .
161
6.7 Normované (standardizované) normální rozdělení
φ(z)
߶ሺെݖሻ
ͳ െ ߶ሺݖሻ
-z
z
0
z
+
Obr. 6.13: Hustota pravděpodobnosti normovaného normálního rozdělení
Příklad 6.3. Určete: a) φ(0, 54), b) φ(−2, 42), c) z0,75 , d) z0,25 . Řešení. ada) Příslušnou distribuční funkci nalezneme v Tabulce 1 (příloha Tabulky). V prvním sloupci je uveden argument߮ሺݖሻ distribuční funkce s přesností na jedno deseݖ tinné místo (0, 5), identifikátor druhého sloupce udává druhé desetinné místo argumentu (4). φ(0, 54) = 0, 705 adb) Pro nalezení distribuční funkce záporného argumentu musíme použít převodní vztah φ(z) = 1 − φ(−z); V našem případě: ȰሺͲǡͷͶሻ ȰሺെʹǡͶʹሻ ݖǡହ ݖǡଶହ
−∞
φ(−2, 42) = 1 − φ(2, 42) φ(−2, 42) = 1 − 0, 992 (viz Tabulka 1) φ(−2, 42) = 0, 008
adc) Pro určení 100p%-ního kvantilu se musíme pokusit najít p uvnitř tabulky a určit pro ně příslušnou hodnotu zp . φ(zp = p)
162
Spojitá rozdělení pravděpodobnosti
V našem případě: φ(z0,75 ) = 0, 75 . z0,75 = 0, 67
(viz Tabulka 1)
add) v Tabulce 1 nalezneme hodnoty (50 až 100)%-ních kvantilů. Pro nalezení (0 až 50)%- ních kvantilů musíme použít převodní vztah mezi kvantily, který si tímto odvodíme: φ(zp ) = p; φ(z1−p = 1 − p) 1 − φ(zp ) = 1 − p φ(−zp ) = φ(z1−p ) −zp = z1−p V našem případě: • z0,25 v Tabulce 1 nenajdeme. • z0,25 = −z1−0,25 = −z0,75 • Nalezneme z0,75 . φ(z0,75 ) = 0, 75 z0,75 = 0, 67 • Určíme z0,25 . z0,25 = −z0,75 = −0, 67 N
6.7.1
Standardizace normálního rozdělení
Jelikož při lineární transformaci náhodné veličiny zůstává normalita rozdělení náhodné veličiny zachována, lze pro určení distribuční funkce libovolné normální náhodné veličiny použít distribuční funkci normované (standardní) normální náhodné veličiny. Proces transformace náhodné veličiny s normálním rozdělením na náhodnou veličinu s normovaným normálním rozdělením se označuje jako standardizace.
Nechť X → N (µ; σ 2 ) Definujme náhodnou veličinu Z, mnohdy nazývanou z-skóre, jako Z=
X −µ σ
Náhodná veličina Z má normované normální rozdělení, Z → N (0; 1).
163
6.7 Normované (standardizované) normální rozdělení
Mezi distribuční funkci normální náhodné veličiny X a distribuční funkcí normovanou normální náhodnou veličinou Z platí převodní vztah F (X) = φ(
x−µ ) σ
Důkaz: x−µ x−µ ) = φ( ) σ σ
Příklad 6.4. Nechť náhodná veličina X modelující odchylku šířky výrobku od požadované hodnoty má normální rozdělení se střední hodnotou 10 mm a směrodatnou odchylkou 5 mm. Určete: a) F (7), b) x0,75 , a) x0,30 , Vysvětlete praktický význam nalezených informací.
Řešení. X → N (10; 25) ⇒ µ = 10; σ 2 = 25
ada) Distribuční funkci normální náhodné veličiny určíme pomocí standardizace. ) F (x) = φ( x−µ σ 7−10 = φ(−0, 6) F (7) = φ √ (25)
F (7) = 1 − φ(0, 6) F (7) = 1 − 0, 726 F (7) = 0, 274
(viz Tabulka 1)
Hodnota distribuční funkce F (7) udává pravděpodobnost, že X < 7. F (7) = P (X < 7) P (X < 7) = 0, 274 V našem případě lze tedy tvrdit, že pravděpodobnost toho, že odchylka šířky výrobku od požadované hodnoty bude maximálně 7 mm, je 27,4 %.
+
F (x) = P (X < x) = P (Z · σ + µ < x) = P (Z <
164
Spojitá rozdělení pravděpodobnosti
adb) Postup při určení horního kvartilu je následující (opět využijeme standardizace). F (x0,75 ) = 0, 75 −10 √ φ x0,75 = 0, 75 25 x0,75 −10 √ 25
= 0, 67
(viz Tabulka 1)
x0,75 = 5 · 0, 67 + 10 . x0,75 = 13, 35 = 13 Horní kvartil udává hodnotu náhodné veličiny, podobností 75 %. F (x0,75 ) = P (X < x0,75 ) = . P (X < 13) =
která nebude překročena s pravdě0, 75 0, 75 0, 75
Tzn., že s pravděpodobností 75 % nepřekročí odchylka šířky od požadované hodnoty 13 mm.
adc) Poněkud odlišný postup musíme použít pro nalezení 30 % kvantilu: F (x0,30) = 0, 30 −10 √ = 0, 30 φ x0,30 25 Zavedeme-li substituci y =
x0,3 −10 √ 25
=
x0,3 −10 , 5
pak φ(y) = 0, 3.
V této chvíli však ještě pro nalezení y nemůžeme použít Tabulku 1, protože v této tabulce jsou uvedeny pouze hodnoty distribuční funkce od 0,50 do 1,00. Využijeme toho, že φ(−y) = 1 − φ(y) a rovnici upravíme do vhodnějšího tvaru. φ(y) = 0, 30 1 − φ(y) = 1 − 0, 30 φ(−y) = 0, 7 Nyní můžeme Tabulku 1 použít pro nalezení (−y). (−y) = 0, 525
(viz Tabulka 1)
Zpětnou substitucí získáme hodnotu x0,3 .
− x0,35−10
x0,3 x0,3
= 0, 525 = −5 · 0, 525 + 10 . = 7, 375 = 7
6.7 Normované (standardizované) normální rozdělení
30 % kvantil udává hodnotu náhodné veličiny, která nebude překročena s pravděpodobností 30 %. F (x0,3 ) = 0, 3 P (X < x0,3 ) = 0, 3 . P (X < 7) = 0, 3 Tzn., že u cca. 30 % výrobků bude šířka výrobku větší než požadovaná hodnota o méně než 7 mm. N
6.7.2
Pravidlo 3σ
Pravidlo 3σ je jedním ze základních principů, na nichž stojí kontrola kvality a jakosti (SPC – Statisitics Process Control, ISO normy pro SPC). Toto pravidlo říká, že máme-li data pocházející z normálního rozdělení o parametrech µ, σ 2 , pak téměř všechna (99,8% z nich) leží v intervalu (µ ± 3σ). Důkaz: X → N (µ, σ 2 ) Chceme dokázat, že P (µ − 3σ < X < µ + 3σ) = 0, 998. ) − φ( (µ−3σ)−µ )= P (µ − 3σ < X < µ + 3σ) = F (µ + 3σ) − F (µ − 3σ) = φ( (µ+3σ)−µ σ σ = φ(3) − φ(−3) = φ(3) − [1 − φ(3)] = 2 · φ(3) − 1 = 2 · 0, 999 − 1 = = 0, 998
165
166
Spojitá rozdělení pravděpodobnosti
Poznámka: Všimněte si, že P (µܲሺߤ − 3σ <൏ Xܺ<൏µߤ + 3σ) ൌ=ܲሺെ͵ P (−3 Z͵ሻ<ൌ3)Ͳǡͻͻͺ = 0, 998 െ ͵ߪ ͵ߪሻ ൏< ܼ൏ ฺ ܲ൫ܺ בሺߤ െ ͵ߪǢ ߤ ͵ߪሻ൯ ⇒ ൌ ܲ൫ܼ בሺെ͵Ǣ ͵ሻ൯ ൌ ͲǡͲͲʹ
P (X ∈ / (µ − 3σ; µ + 3σ)) = P (Z ∈ / (−3; 3)) = 0, 002 ሺߤ െ ͵ߪǢ ߤ ͵ߪሻ ሺെ͵Ǣ ͵ሻ
ߪ
ߤ
Jak lze tento výsledek interpretovat? že normální náhodná veܼ בሺെ͵ǢPravděpodobnost, ͵ሻ ličina X se střední hodnotou µ a směrodatnou odchylkou σ bude mít hodnotu mimo interval (µ−3σ; µ+3σ) je stejná jako pravděpodobnost, že z-skóre bude mít hodnotu mimo interval (−3; 3), tj. pouze 0, 2%. Je tedy velmi nepravděpodobné, že z-skóre Z∈ / (−3; 3).
+
Uvědomte si, že tato skutečnost se využívá při identifikaci odlehlých pozorování pomocí z-souřadnice (z-skóre).
Příklad 6.5. Stanovme pravděpodobnost, že náhodná veličina X mající rozdělení N (µ, σ 2 ) bude mít hodnotu z intervalu (µ − k · σ; µ + k · σ) pro dané kladné k. Řešení. Pro k > 0: ) − φ( (µ−kσ)−µ =) P (µ − kσ < X < µ + kσ) = F (µ + kσ) − F (µ − kσ) = φ( (µ+kσ)−µ σ σ = φ(k) − φ(−k) = φ(k) − [1 − φ(k)] = 2 · φ(k − 1) Hodnoty této pravděpodobnosti pro některé hodnoty k uvádí Tab. 6.2 a Obr. 6.14. Tab. 6.2: Pravděpodobnost výskytu realizace normální náhodné veličiny v intervalu ሺߤ െ (µ −
− kσ; 1, 2, 3) ݇ߪǢµߤ+kσ)(k ݇ߪሻ = =1,2,3)
k 1 2 3
P(m - ks < X < m + ks ) 0,682 0,954 0,998
167
6.7 Normované (standardizované) normální rozdělení f(x)
2,1% 0,1% ߤെ ͵ߪ
2,1%
13,6% ߤ െ ʹߪ13,6%ߤ െ34,1% ߪ ߤ34,1%ߤ ߪ ߤ ʹߪ0,1%ߤ ͵ߪ
ߤ െ ͵ߪ
ߤ െ ʹߪ ߤ െ ߪ ߤ
ߤ ߪ ߤ ʹߪ ߤ ͵ߪ
x
Obr. 6.14: Pravděpodobnost výskytu realizace normální náhodné veličiny ve znázorněných intervalech
N
6.7.3
Nástroje ověření normality
Normalita je v drtivé většině analýz a testů (parametrické testy, Shewhartovy regulační diagramy, indexy způsobilosti. . . ) hlavním předpokladem o datech. Jde o předpoklad, že data pocházejí z procesu s normálním rozdělením. Ověření normality je nezbytný krok před každou zodpovědnou analýzou jednorozměrných dat. a) Grafické znázornění a vizuální posouzení Nejčastěji se používá Q-Q graf, jádrové odhady hustoty, popř. kruhový graf. Q-Q graf Jde o graf pro diagnostiku normality a odlehlých pozorování. Na ose x jsou vyneseny teoretické kvantily normálního rozdělení, na ose y jsou výběrové kvantily konstruované přímo z dat (viz Kap. 1). Pro normální data bez odlehlých pozorování má graf tvar přímky, pro normální data s odlehlými pozorováními má tvar přímky s koncovými body ležícími mimo tuto přímku, pro systematicky zešikmená data s kladnou šikmostí (např. rozdělení lognormální, exponenciální) má nelineární konvexní tvar. Pro systematicky zešikmená data se zápornou šikmostí má nelineární konkávní tvar. Pro data s vyšší špičatostí než odpovídá normálnímu rozdělení, tedy s vysokou koncentrací dat kolem střední hodnoty (např. Laplaceovo rozdělení), má Q-Q graf tvar
168
Spojitá rozdělení pravděpodobnosti
konkávně-konvexní. Pro data s nižší špičatostí než odpovídá normálnímu rozdělení, tedy s malou koncentrací dat kolem střední hodnoty (např. rovnoměrné rozdělení), má Q-Q graf tvar konvexně-konkávní. Proti číselným charakteristikám má Q-Q-graf výhodu v možnosti vizuálně posoudit, zda je případné porušení normality způsobeno jen několika body, nebo všemi daty.
Odhad hustoty Další možností ověření normality dat Další možností ověření průběhu normality je porovnání hustotydat prav-je orovnání průběhu hustotynormálního pravděpodobnosti děpodobnosti rozdělení odhadem (plná čára) s odhadem hustoty vyovaná počítaným na základě dat (přeručára). V případěšovaná normality množství dat čára).a většího v případě normality a většího množství dat jsou si obě křivky blízké.
Kruhový graf Slouží ke komplexnímu vizuálnímu posouzení normality na základě kombinace šikmosti a špičatosti. Zelený „kruh“ (elipsa) je optimální tvar pro normální rozdělení, černá křivka připomínající bramboru představuje data. v případě, že data lze považovat za realizace náhodné veličiny s normálním rozdělením, se obě křivky téměř kryjí.
Na obrázku 6.15 můžete porovnat grafické výstupy používané pro diagnostiku normality.První sloupec grafů odpovídá výběrům z normálního rozdělení, grafy ve druhém sloupci odpovídají datům, která normálnímu rozdělení neodpovídají. Pro exaktní ověření toho, zda data lze považovat za výběr z normálního rozdělení, se používá mnoho druhů statistických testů (budeme se jimi zabývat později). Pro příklad uveďme test dobré shody (Goodness of Fit Test) a testy založené na hodnotě odhadu šikmosti a špičatosti.
6.8 Logaritmicko-normální rozdělení
Obr. 6.15: Ukázka diagnostických grafů pro posouzení normality (statistický software QC Expert 2.5)
6.7.4
Jak postupovat při porušení normality?
Již na základě posouzení diagnostických grafů můžeme usuzovat na to, zda není model normálního rozdělení pro analyzována data nevhodný. v praxi se často setkáváme s daty, která předpoklad normality nesplňují, jsou zešikmena - buď kladně (dlouhý chvost napravo) nebo záporně (dlouhý chvost nalevo). Co s takovými daty dělat? v některých případech lze využít následujícího postupu. 1. Původní veličinu transformujeme (např. pomocí logaritmu, druhé odmocniny či převrácené hodnoty) na novou veličinu, pro kterou je model normálního rozdělení přijatelný. 2. Požadovanou analýzu potom provedeme na transformované veličině. 3. Výsledky analýzy (např. průměry či intervaly spolehlivosti) lze pro účely prezentace výsledků zpětně transformovat. Pokud nenajdeme vhodnou transformaci na normální rozdělení, nabízí statistika jiné přístupy založené např. na tzv. neparametrických metodách.
6.8
Logaritmicko-normální rozdělení
Jak již bylo zmíněno, jednou z možností jak transformovat náhodnou veličinu na náhodnou veličinu s normálním rozdělením, je použití logaritmu. Jestliže má náhodná veličina Y , Y = lnX, normální rozdělení s parametry µ a σ 2 , pak řekneme,
169
170
Spojitá rozdělení pravděpodobnosti
že náhodná veličina X má logaritmicko-normální rozdělení se stejnými parametry, což zapisujeme X → LN (µ; σ 2 ) Z definice je zřejmé, že náhodná veličina Y s logaritmicko-normálním rozdělením může nabývat pouze kladných hodnot (definiční obor lnx). Proto nachází uplatnění při popisu náhodných veličin nabývajících pouze kladných hodnot a to zejména v případech, kdy hustota pravděpodobnosti je asymetrická (šikmost není nulová) s jedním vrcholem. Značný význam tohoto rozdělení tedy nacházíme v teorii spolehlivosti (různé parametry součástek nabývají pouze kladných hodnot – životnost, rozměry, tažnost, ...), v ekonomii při popisu příjmů (příjmová rozdělení), v medicíně při popisu tělesné výšky, doba přežití po jedné dávce ozáření, apod. Hustota pravděpodobnosti: ( f (x) =
√1 xσ
(2π)
· e−
(lnx−µ) 2a2
0,
, x>0 x 5 0.
Distribuční funkce: Distribuční funkci logaritmicko-normálního rozdělení určujeme pomocí distribuční funkce normovaného normálního rozdělení. lnx−µ φ( σ ), x > 0 F (X) = 0, x 5 0. σ2 2
Střední hodnota:
EX = eµ+
Rozptyl:
DX = e2µ+σ (eσ − 1)
100p%-ní kvantil:
2
2
xp = eµ+σ·xp , kde zp je 100p%-ní kvantil normovaného normálního rozdělení
Jak již bylo uvedeno v Kap. 6.7.4, při praktickém používání tohoto rozdělení postupujeme tak, že náhodnou veličinu X nejdříve převedeme na Y = lnX, požadovanou analýzu provedeme na náhodné veličině Y a výsledky zpětně transformujeme.
171
6.8 Logaritmicko-normální rozdělení 12000,4000
(X 0,00001) f(x) 12
F(x)
10
1 0,8
8
0,6
6
0,4
4
0,2
2
0
0 0
1
2
3 4 (X 10000)
0
1
2 x
3
4 (X 10000)
Obr. 6.16: Grafy hustoty pravděpodobnosti a distribuční funkce logaritmicko-normální
Příklad 6.6. Nechť X je náhodná veličina s logaritmicko-normálním rozdělením s parametry: µ=2; σ 2 =9. Určete: a) pravděpodobnost, že náhodná veličina X je z intervalu (0;30), b) medián dané náhodné veličiny, c) střední hodnotu a rozptyl náhodné veličiny X. Řešení. X → LN (2; 9) ada) Pravděpodobnost, že náhodná veličina X je z intervalu (0;30) můžeme určovat rovněž jako pravděpodobnost, že náhodná veličina X je menší než 30, neboť logaritmicko-normální náhodná veličina může nabývat pouze kladných hodnot. Připomeňme si vztah pro určování distribuční funkce logaritmicko-normální náhodné veličiny. lnx−µ φ( σ ), x > 0 F (X) = 0, x50 A nyní již přejděme k určení hledané pravděpodobnosti. √ ) − 0 = φ(0, 47) = 0, 681 P (0 < X < 30) = F (30) − F (0) = φ( ln30−2 9
nebo √ P (0 < X < 30) = F (30) = φ( ln30−2 ) = φ(0, 47) = 0, 681 9
adb) Pro určení mediánu můžeme použít vztah pro 100p% kvantil. xp = eµ+σ·xp
+
NV
172
Spojitá rozdělení pravděpodobnosti √ . z0,5 = 0 (viz Tabulka 1)⇒ x0,5 = e2+ (9) = e2 = 7, 4. adc) Střední hodnotu a rozptyl určíme na základě výše uvedených vztahů. EX = eµ+
σ2 2
9 13 . ⇒ EX = e2+ 2 = e 2 = 665, 1
2 2 . DX = e2µ+σ (eσ − 1) ⇒ DX = e2·2+9 (e9 − 1) = 3, 6 · 102
N
173
6.9 Trocha teorie
6.9
Trocha teorie
Tato podkapitola je určena zájemcům o hlubší pochopení probírané látky. Najdete zde náznak odvození distribučních funkcí, hustot pravděpodobnosti, středních hodnot a rozptylů náhodných veličin popisovaných v této kapitole.
6.9.1
Rovnoměrné rozdělení
Proč je hustota pravděpodobnosti rovnoměrného rozdělení definována jako 1 , x ∈ (a; b) b−a f (x) = 0, x∈ / (a; b)
?
Odvození: Uvedli jsme, že rovnoměrné rozdělení na intervalu (a; b) je takové, jehož hustota pravděpodobnosti je konstantní na daném intervalu a všude jinde je nulová. Z toho vyplývá, že vztah pro hustotu pravděpodobnosti můžeme zapsat ve tvaru c, x ∈ (a; b), c ∈ R f (x) = 0, x ∈ / (a; b). Pro nalezení konstanty c využijeme, že obsah plochy „pod“ funkcí hustoty pravděpodobnosti musí být rovna 1. Z ∞ f (x) dx = 1 −∞
Z
∞
Z f (x) dx =
−∞
b
c dx = [cx]ba = c(b − a)
a
c(b − a) = 1 c=
1 b−a
A proto f (x) =
c, x ∈ (a; b), c ∈ R 0, x ∈ / (a; b).
174
Spojitá rozdělení pravděpodobnosti
Odvození distribuční funkce rovnoměrného rozdělení Rx Distribuční funkce je obecně dána vztahem F (x) = −∞ f (t) dt . v případě rovnoměrného rozdělení, jehož hustota pravděpodobnosti je c, x ∈ (a; b), c ∈ R f (x) = 0, x ∈ / (a; b). Rx x ∈ (−∞; ai : F (x) = −∞ 0 dt = 0, Ra Rx 1 t x x ∈ (a; b) : F (x) = −∞ 0 dt + a b−a dt = [ b−a ]a = x−a , b−a Ra Rb 1 b−a x ∈ hb; ∞) : F (x) = −∞ 0 dt + a b−a dt = 0 + b−a + 0 = 1 Distribuční funkce rovnoměrné náhodné veličiny je tedy dána vztahem x ∈ (−∞; ai 0, x−a , x ∈ (a; b) F (x) = b−a 1, x ∈ hb; ∞).
Odvození střední hodnoty a rozptylu Obecný vztah pro střední hodnotu spojité NV je E(X) = rovnoměrné náhodné veličiny platí Z E(X) = a
b
R∞ −∞
x · f (x) dx. v případě
2 b 1 b 2 − a2 a+b 1 x dx = = = . x· b−a b − a 2 a 2(b − a) 2
Rozptyl NV určujeme pomocí střední hodnoty a druhého obecného momentu NV. Střední hodnotu již známe, druhý obecný moment rovnoměrné NV určíme jako R∞ E(X 2 ) = −∞ x2 · f (x) dx E(X 2 ) =
Rb a
x2 ·
1 b−a
dx =
1 b−a
·
b3 −a3 3
=
a2 +ab+b2 3
Dle známého výpočetního vztahu pak můžeme určit rozptyl. D(X) = E(X 2 )−(E(X))2 = 2 = (a−b) 12
a2 +ab+b2 3
−( a+b )= 2
4a2 +4ab+4b2 −3a2 −6ab−3b2 12
=
a2 −2ab+b2 12
=
175
6.9 Trocha teorie
6.9.2
Exponenciální rozdělení
Odvození distribuční funkce doby do poruchy zařízení nacházejícího se v období stabilního života Exponenciální náhodná veličina se používá k modelování doby do výskytu události (poruchy), popřípadě doby mezi událostmi v Poissonově procesu (intenzita poruch musí být konstantní). Definujme náhodnou veličinu X jako dobu do výskytu události a náhodnou veličinu Nt jako počet výskytu události v časovém intervalu (0; t). Nechť X → Exp(λ) a Nt → P o(λt). Na základě logické úvahy, pak můžeme tvrdit, že jevy Nt = 1 (v časovém intervalu (0; t) dojde k alespoň jednomu výskytu události) a X < t (doba do události je menší než t) jsou ekvivalentní, což zapíšeme (N = t) ⇔ (X < t). Na základě výše uvedené ekvivalence jevů pak můžeme zapsat i příslušné vztahy pro jejich pravděpodobnosti a z nich odvodit distribuční funkci náhodné veličiny X (doby do výskytu události). P (X < t) = P (Nt = 1) F (t) = 1 − P (Nt < 1) F (t) = 1 − P (Nt = 0) F (t) = 1 −
(λt)0 e−λt 0!
F (t) = 1 − e−λt ; t = 0; λ
Odvození hustoty pravděpodobnosti exponenciálního rozdělení Hustotu pravděpodobnosti odvodíme z převodního vztahu mezi hustotou a distribuční funkcí. dF (t) f (t) = dt f (t) = λe−λt t = 0; λ > 0
Odvození intenzity poruch exponenciálního rozdělení
176
Spojitá rozdělení pravděpodobnosti
Intenzita poruch je rovna podílu hustoty pravděpodobnosti a doplňku distribuční funkce. f (t) ; F (t) < 1, t > 0 λ(t) = 1 − F (t) λ · e−λt 1 =λ= −λt 1 − (1 − e ) EX
λ(t) =
Odvození střední hodnoty a rozptylu Z
∞
∞
Z t · f (t) dt =
E(x) =
t·λ·e
−∞
0
= lim −t · a⇒∞
a e−λt 0
∞
Z
−λt
+
e 0
1 = (−1) · lim + a⇒∞ λ · eλa =
−λt
u = λt v 0 = e−λt dt = 0 u = λ v = − λ1 e−λt
a dt = (−1) · lim λa + a⇒∞ e
∞
Z
e
−λt
Z
−λt
e
dt = 0 + 0
0
∞
Z
=
∞
e−λt dt =
0
1 dt = lim − · e−λt a⇒∞ λ
a = 0
1 λ
Rozptyl je roven rozdílu druhého obecného momentu a kvadrátu střední hodnoty. Střední hodnotu jsem již odvodili, musíme tedy určit ještě druhý obecný moment. Z ∞ Z ∞ u = (λt2 ) v 0 = e−λt 2 2 −λt −λt = E(x) = t · f (t) dt = t · λ · e dt = 0 1 u = (2λt) v = − λ e −∞ 0
a e−λt 0
2
= lim −t · a⇒∞
2·t·e
+ 0
2a = (−1) · lim + a⇒∞ λ · eλa Z
∞
Z
2·t·e
+
2 · t · e−λt dt = (−1) · lim
= lim
a⇒∞
a⇒∞ λ2
0 ∞
Z
−λt
2·t·e
dt = 0 +
0
0
−2t −λt ·e λ
a
Z +
0
a 2 − 2 · lim e−λt 0 = λ a⇒∞
a2 dt = (−1) · lim λa + a⇒∞ e
∞
Z
∞ −λt
−λt
0
∞
Z
∞
2 · t · e−λt dt =
0
2 + · eλa
u = (2t) v 0 = e−λt dt = 0 u = (2) v = − λ1 e−λt
2 −2 a −λt · e dt = · lim λa − a⇒∞ e λ λ
2 0 2 2 − · lim − 2 · (−1) = 2 λa a⇒∞ λ λ·e λ λ
=
177
6.9 Trocha teorie
Nyní můžeme určit rozptyl. D(X) = E(X 2 − (E(X))2 =
6.9.3
2 λ2
− ( λ1 )2 =
1 λ2
Erlangovo rozdělení
Odvození distribuční funkce Erlangova rozdělení Nechť Xk je doba do výskytu k-té události v Poissonově procesu, Xk → Erlang(k; λ), Nt je počet výskytu události v časovém intervalu Nt → P o(λt). Platí, že v časovém intervalu (0; t) nastane alespoň k událostí právě tehdy, když doba do výskytu k-té události je menší než t. (Nt = k ⇔ (Xk < t)) Z této ekvivalence lze odvodit distribuční funkci Erlangova rozdělení. F (t) = P (Xk < t) = P (Nt = k) = 1 − P (Nt < k) = 1 −
k−1 P j=0
− e−λt ·
k−1 P j=0
j
) = 1− (e−λ t − · (λt) j!
(λt)j j!
Odvození hustoty pravděpodobnosti Hustotu pravděpodobnosti získáme derivací distribuční funkce. k−1
k−1
X (λt)j X j · (λt)j−1 · λ dF (t) f (t) = = λ · e−λt · + (−e−λt ) · = dt j! j! j=0 j=0 =λ·e
−λt
·
k−1 X (λt)j j=0
= λ · e−λt ·
j!
k−1 X (λt)j−1 · = (j − 1)! j=1
k−2 X (λt)j
(λt)k−1 + j! (k − 1)!
j=0
= λ · e−λt ·
−λ·e
−λt
k−2 X (λt)j j=0
j!
! − λ · e−λt ·
k−2 X (λt)j j=1
j! k−2
+ λ · e−λt ·
=
X (λt)j (λt)k−1 (λt)k−1 − λ · e−λt · = λ · e−λt · (k − 1)! j! (k − 1)! j=1
178
Spojitá rozdělení pravděpodobnosti
Odvození intenzity poruch Intenzita poruch je dána podílem hustoty pravděpodobnosti a doplňku distribuční funkce. λ(t) =
f (t) = 1 − F (t)
(λt)k−1 λ λ (k − 1)! = = = = j j k−1 k−1 k−1 P (λt) P P (λt)j−k+1 (λt) −λt e · (k − 1)! · (k − 1)! · k−1 · j! j! j=0 j! j=0 (λt) j=0 λ · e−λt ·
λ
= (k − 1)! ·
k−1 P j=0
λ
=
1 (λt)k−1−j
· j!
(k − 1)! ·
k−1 P j=0
(λt)j
1 · (k − 1 − j)!
Odvození střední hodnoty a rozptylu Označme Xk ... doba do výskytu k-té události v Poissonově procesu, Xk → Erlang(k; λ) X...doba do výskytu události v Poissonově procesu,X → Exp(λ). Je zřejmé, že Erlangova náhodná veličina (s parametry k; λ) je součtem k exponenciálních veličin (s parametrem λ). Xk =
k X
X
i=1
Z vlastností střední hodnoty víme, že střední hodnota součtu náhodných veličin je rovna součtu jejich středních hodnot. E(Xk ) =
k X
E(X) =
i=1
1 1 1 k + + ... + = λ λ λ λ
Jednotlivé exponenciální náhodné veličiny jsou nezávislé, a proto také rozptyl součtu náhodných veličin je roven součtu jejich rozptylů. D(Xk ) =
k X i=1
D(X) =
1 1 1 k + 2 + ... + 2 = 2 2 λ λ λ λ
179
6.9 Trocha teorie
6.9.4
Logaritmicko-normální rozdělení
Odvození distribuční funkce logaritmicko-normálního rozdělení Nechť Y = ln X X → LN (µ; σ 2 ) ⇔ Y → N (µ; σ 2 ) FX (x), resp. FY (y), jsou distribuční funkce náhodné veličiny X (resp. Y ) ∀x > 0 : FX (x) = P (X < x) = P (eY < x) = P (Y < lnx) = FY (lnx) = φ( lnx−µ ) σ ∀ 5 0 : FX = 0 Odvození hustoty pravděpodobnosti logaritmicko-normálního rozdělení fX (x)...hustota pravděpodobnosti náhodné veličiny X ∀x > 0 : fX (x) = =
√1 xσ
(2π)
·e
dFX (x) dx
=
) dφ( lnx−µ σ dx
= ϕ( lnx−µ )· σ
1 x·σ
=
√1 xσ
(2π)
e
(
lnx−µ 2 ) σ 2
(lnx−µ)2 2σ 2
∀x 5 0 : fX (x) = 0 Odvození vztahu pro výpočet 100p% kvantilu P (X < xp ) = p F (xp ) = p φ( lnxσp −µ ) = p φ( lnxσp −µ ) = p Vzhledem k tomu, že φ(zp )=p (zp je 100p% kvantil normované normální náhodné veličiny), platí: ln xp −µ σ
= zp .
Z toho plyne, že ln xp = σ · zp + µ xp = e(µ + σ · zp )
180
X
Spojitá rozdělení pravděpodobnosti
Shrnutí: Jedním ze základních spojitých rozdělení pravděpodobnosti je rozdělení rovnoměrné (rektangulární) na intervalu (a; b). Následující dvě rozdělení jsou založena na PoNázev rozdělení
Popis
Rovnoměrné na (a;b)
f(x) je na (a;b) konstantní, jinde nulová
Hustota pravděpodobnosti
E(X)
D(X)
ͳ ܾܽ (a - b)2 אሺǢ ሻ ሺሻ ൌ ൝ െ ͳ ʹܾ 12 ܽ בሺǢ ሻ ሻ ͳ א ሺሻ ൌ ൝Ͳ െ ܽ אሺǢ ሻ ʹܾ ሺሻ ൌ ൝ Ͳ בሺǢ ሻ െ ʹ ሺǢ ሻ nastávají nezávisle Ͳ ב issonovském procesu, tj. na předpokladu, že jednotlivé události
na sobě, s konstantní střední rychlostí výskytu. Tato rozdělení se používají většinou pro popis náhodné veličiny definované jako doba do k-té události (poruchy), popř. doba mezi událostmi (poruchami). Název rozdělení Exponenciální
Erlangovo
Popis doba do první události, doba mezi událostmi (popisuje pouze období stabilního života) doba do k-té události
Hustota pravděpodobnosti, distribuční funkce, intenzita poruch f (t ) = l × e -lt ; t > 0; l > 0 -lt F (t) = 1 - e ; t > 0; l > 0 l (t ) = l = konst.; f (t ) = l × e -lt ×
t > 0; l > 0
(lt )k -1 ; (k - 1)! k -1
F (t ) = 1 - e -lt × å
(lt ) j
k -1 j =0
1 l
1
k l
j!
l (k - 1)! å
D(X)
l2
t >0
j =0
l (t ) =
E(X)
k
l2
1 (k - 1 - j )! (lt )
j
Pro modelování doby do výskytu první události zařízení, která se nacházejí v období dětských nemocí nebo v období stárnutí, používáme rozdělení Weibullovo. Název rozdělení Weibullovo
Popis doba do první události (poruchy) (vhodná volba β umožňuje použití v libovolném období intenzity poruch)
Hustota pravděpodobnosti, ഁ ݂ሺݐሻ ൌ ߚߣఉ ݐఉିଵfunkce, ݁ ିሺఒ௧ሻ ǡ distribuční ഁ ିሺఒ௧ሻഁ intenzita ൌ ఉͳݐఉିଵ െporuch ݁݁ିሺఒ௧ሻ ǡ ǡ ݂ሺݐሻܨሺݐሻ ൌ ߚߣ ఉ ఉିଵ ഁഁ ఉߚߣ ఉିଵ ିሺఒ௧ሻ ିሺఒ௧ሻ ߣሺݐሻ ൌ ݐ ǡ ݂ሺݐሻܨሺݐሻ ൌ ߚߣ ݐ ݁ ൌ ͳെ݁ ǡ ǡ ഁͲǤ ܨݐሺݐሻ ͲǢ ߣ ͲǢ ିሺఒ௧ሻ ఉ ߚ ఉିଵ െ ݁ ݐǡǡ ߣሺݐሻ ൌ ൌ ͳߚߣ ఉ ߚ ߣ ݐሺݐሻ ͲǢ ൌ ߣ ߚߣ ͲǢ ݐఉିଵǡͲǤ ݐ ͲǢ ߣ ͲǢ ߚ ͲǤ
E(X)
D(X)
Nejdůležitějším pravděpodobnostním rozdělením popisujícím chování velkého množství náhodných jevů v technice, přírodních vědách i v ekonomii je rozdělení normální, jehož parametry jsou střední hodnota µ a rozptyl σ 2 , a jeho speciální typ rozdělení
181
6.9 Trocha teorie
Název rozdělení Normované normální
Normální
Vlastnosti distribuční funkce Φ(z) je tabelovaná, hustota pravděpodobnosti je sudá funkce známá pod názvem „Gaussův klobouk“
distribuční funkci určujeme pomocí standardizace normální náhodné veličiny
æx-mö F ( x ) = Fç ÷ è s ø
Hustota pravděpodobnosti, distribuční funkce j ( x) =
1 2p
×e
-
x2 2
s 2p
F ( x) =
0
1
μ
σ2
-¥< x<¥
;
x
f ( x) =
D(X)
t2
1 × ò e 2 dt 2p -¥
F ( x) =
1
E(X)
×e
æ x-m ö ÷÷ - çç è 2s ø
1
s 2p
2
-¥ < x < ¥
;
x
× òe
æ t -m ö - çç ÷÷ è 2s ø
2
dt
-¥
normované normální s parametry µ = 0 a σ 2 = 1. Podobně jako uߤ jiných rozdělení jde pouze oߪ model, kterému se reálná data více či méněߤۃpřibližují. െ ͵ߪǢ ߤ ͵ߪۄ V SPC (spolehlivost a jakost, statistická kontrola jakosti) se velmi často používá pravidlo 3 sigma. Podléhají-li data normálnímu rozdělení se střední hodnotou µ a směrodatnou odchylkou σ, pak se většina z nich (99,8%) nachází v intervalu hµ − − 3σ; µ + 3σi. ߤ ߤۃെ ͵ߪǢ ߤ ͵ߪۄ
ߪ
Při popisu náhodných veličin nabývajících pouze kladných hodnot a to zejména v případech, kdy hustota pravděpodobnosti je asymetrická, používáme logaritmickoሺ௫ିఓሻమ -normální rozdělení. ͳ ି మ Název rozdělení Logaritmickonormální
ݔെ ߤ ܨሺݔሻ ൌ ൝Ȱ ൬ ߪ ൰ Ǣ ݔ Ͳ distribuční funkci ͲǢ ݔ ͲǤ
Vlastnosti
určujeme převodem na distribuční funkci normovaného normálního rozdělení ݔെ ߤ ܨሺݔሻ ൌ ൝Ȱ ൬ ߪ ൰ Ǣ ݔ Ͳ ͲǢ ݔ ͲǤ
ଶఙ ή݁ Ǣ ݔ Ͳ ݂ሺݔሻ ൌ ቐ ߪݔξʹߨ ͲǢ ݔ ͲǤ
Hustota pravděpodobnosti ͳ
ሺ௫ିఓሻమ ଶఙ మ Ǣ ݔ
ή݁ Ͳ ݂ሺݔሻ ൌ ቐ ߪݔξʹߨ ͲǢ ݔ ͲǤ ି
E(X)
m+
e
D(X)
s2 2
e
2 m +s 2
(e
s2
)
-1
182
?
Spojitá rozdělení pravděpodobnosti
Test 1. Rozhodněte o pravdivosti následujících výroků. a) Intenzita poruch (hazardní funkce) je neklesající funkce. b) Exponenciální rozdělení používáme k modelování životnosti výrobků nacházejících se v období stárnutí. c) Exponenciální rozdělení je speciálním případem Erlangova rozdělení. d) Exponenciální rozdělení je speciálním případem Weibullova rozdělení. e) Weibullovo rozdělení lze použít k modelování životnosti výrobků nacházejících se v libovolném období života. f) Normální rozdělení má právě jeden parametr. g) Hustota pravděpodobnosti normální náhodné veličiny je sudá funkce. h) Distribuční funkce normální náhodné veličiny je tabelována. i) Má-li náhodná veličina normální rozdělení, pak (střední hodnota = medián = modus). j) Má-li náhodná veličina normální rozdělení se střední hodnotou µ a sm. odchylkou σ, pak přibližně 5% hodnot náhodné veličiny leží mimo interval (µ − − 3σ; µ + 3σ). k) Logaritmicko-normální náhodná veličina má zápornou šikmost. l) Nechť má náhodná veličina X normální rozdělení a náhodná veličina Y = ln X. Náhodná veličina Y má logaritmicko-normální rozdělení. 2. Doplňte: a) Intenzitu poruch lze použít k popisu . . . . . . . . . spojitých náhodných veličin. b) Exponenciální rozdělení používáme k modelování životnosti výrobků nacházejících se v období . . . . . . . . .. c) Pro modelování životnosti výrobku, který má lineárně rostoucí intenzitu poruch lze použít Weibullovo rozdělení s parametrem tvaru β = . . . . . . . . . d) Gaussova křivka je grafem . . . . . . . . . normálního rozdělení. e) Identifikace odlehlých pozorování pomocí z-souřadnice je založena na pravidle . . . . . . . . .. f) Logaritmicko-normální NV má . . . . . . . . . šikmost.
Úlohy k řešení
Úlohy k řešení 1. Náhodná veličina popisující dobu vypracování testu má normální rozdělení se střední hodnotou 60 minut a směrodatnou odchylkou 10 minut. a) Kolik % studentů dokončí test do hodiny a čtvrt? b) Jaká doba by měla být stanovena, aby test dokončilo průměrně 95% studentů? 2. Výrobní zařízení má poruchu v průměru jednou za 2 000 hodin. Jaká je pravděpodobnost, že přístroj bude pracovat déle než 550 hodin? 3. Životnost žárovky má exponenciální rozdělení se střední hodnotou 400 h. s jakou pravděpodobností bude žárovka svítit dalších 100 hodin, jestliže již svítila 600 hodin? 4. Odhadujeme, že střední životnost určitého přístroje je 110 dnů. s jakou pravděpodobností bude životnost náhodně vybraného přístroje mezi 100 a 150 dny? 5. Při kontrole jakosti přebíráme součástku pouze tehdy, jestliže se její rozměr pohybuje v mezích 26 až 27 mm. Rozměry součástek mají normální rozdělení se střední hodnotou 26,4 mm a směrodatnou odchylkou 0,2 mm. Jaká je pravděpodobnost, že rozměr součástky náhodně vybrané ke kontrole bude v požadovaných mezích? 6. Průměrná doba mezi příjezdy nákladních automobilů s betonovou směsí je 10 minut. Jaká je pravděpodobnost, že doba mezi příjezdy dvou vozidel bude kratší než 7 minut? 7. Firma získá z každého prodaného výrobku 100,-Kč. Za výměnu během záruční lhůty zaplatí 300,-Kč. Životnost výrobku v letech má normální rozdělení N(3;1). Jakou záruční dobu v měsících má firma stanovit, aby střední (průměrný) zisk byl alespoň 60,Kč/výrobek? 8. Doba do vybití knoflíkové baterie se řídí exponenciálním rozdělením. a) Jaká je střední doba do vybití, víme-li, že 4000 hodin přežije 1% těchto baterií? b) Je-li střední doba do vybití 3 150 hodin, kolik procent těchto baterii přežije 4000 hodin? 9. Chybu při měření určité veličiny modelujeme normálním rozdělením s nulovou střední hodnotou a s rozptylem 1,5. Určete interval (souměrný podle počátku), ve kterém se bude nacházet chyba v 90% měření. 10. Obsah nečistot v odpadních vodách je popsán normálním rozdělením se střední hodnotou 0,18 a směrodatnou odchylkou 0,03. Vypočtěte: a) procento zkoušek, při kterých obsah nečistot překročí hodnotu 0,24. b) hodnotu obsahu nečistot, která bude překročena přibližně v 1% zkoušek.
183
!
184
Spojitá rozdělení pravděpodobnosti
Řešení Test 1. a) b) c) d) e) f) g) h) i) j) k) l) 2. a) b) c) d) e) f)
NE (v období dětských nemocí je intenzita poruch klesající) NE (v období stabilního života) ANO ANO ANO NE (dva parametry – střední hodnotu µ a rozptyl σ 2 ) NE (toto platí pouze pro hustotu pravděpodobnosti normovaného normálního rozdělení) NE (toto platí pouze pro hustotu pravděpodobnosti normovaného normálního rozdělení) ANO NE (mimo interval hµ − 3σ; µ + 3σi leží 0,2% hodnot NV) NE (kladnou) NE (má-li náhodná veličina X logaritmicko-normální rozdělení a náhodná veličina Y = lnX, pak náhodná veličina Y má normální rozdělení.) nezáporných stabilního života 2 hustoty pravděpodobnosti 6σ kladnou
Úlohy k řešení 1. a) 0, 933 = 93, 3% b) 1 hodina 17 minut 550
2. e− 2000 = 0, 760 = 76% 1
3. e− 4 = 0, 779 = 77, 9% 100 150 . 4. e− 110 − e− 110 = 0, 147 = 14, 7% 5. 0,976 = 97,6% 7 . 6. 1 − e− 10 = 0, 503 = 50, 3% 7. T 5 1, 89 let ⇒ T= 22 měsíce 8. a) 869 hodin
Úlohy k řešení
b) 0,281 = 28,1% 9. P (−2, 01 < X < 2, 01) = 0, 9 10. a) 0, 023 = 2, 3% b) 0,25
185
186
Statistické tabulky
187
T1. Distribuční funkce normovaného normálního rozdělení Θ(x) pro x > 0
T1.
Distribuční funkce normovaného normálního ሺ࢞ሻ ࢞Ͳ rozdělení Θ(x) pro x > 0 Ȱሺെݔሻ Θ(−x) ൌ = ͳ1 െ − Ȱሺݔሻ Θ(x)
x
0
1
2
3
4
5
6
7
8
9
0,0
0,500
0,504
0,508
0,512
0,516
0,520
0,524
0,528
0,532
0,536
0,1
0,540
0,544
0,548
0,552
0,556
0,560
0,564
0,567
0,571
0,575
0,2
0,579
0,583
0,587
0,591
0,595
0,599
0,603
0,606
0,610
0,614
0,3
0,618
0,622
0,626
0,629
0,633
0,637
0,641
0,644
0,648
0,652
0,4
0,655
0,659
0,663
0,666
0,670
0,674
0,677
0,681
0,684
0,688
0,5
0,691
0,695
0,698
0,702
0,705
0,709
0,712
0,716
0,719
0,722
0,6
0,726
0,729
0,732
0,736
0,739
0,742
0,745
0,749
0,752
0,755
0,7
0,758
0,761
0,764
0,767
0,770
0,773
0,776
0,779
0,782
0,785
0,8
0,788
0,791
0,794
0,797
0,800
0,802
0,805
0,808
0,811
0,813
0,9
0,816
0,819
0,821
0,824
0,826
0,829
0,831
0,834
0,836
0,839
1,0
0,841
0,844
0,846
0,848
0,851
0,853
0,855
0,858
0,860
0,862
1,1
0,864
0,867
0,869
0,871
0,873
0,875
0,877
0,879
0,881
0,883
1,2
0,885
0,887
0,889
0,891
0,893
0,894
0,896
0,898
0,900
0,901
1,3
0,903
0,905
0,907
0,908
0,910
0,911
0,913
0,915
0,916
0,918
1,4
0,919
0,921
0,922
0,924
0,925
0,926
0,928
0,929
0,931
0,932
1,5
0,933
0,934
0,936
0,937
0,938
0,939
0,941
0,942
0,943
0,944
1,6
0,945
0,946
0,947
0,948
0,949
0,951
0,952
0,953
0,954
0,954
1,7
0,955
0,956
0,957
0,958
0,959
0,960
0,961
0,962
0,962
0,963
1,8
0,964
0,965
0,966
0,966
0,967
0,968
0,969
0,969
0,970
0,971
1,9
0,971
0,972
0,973
0,973
0,974
0,974
0,975
0,976
0,976
0,977
2,0
0,977
0,978
0,978
0,979
0,979
0,980
0,980
0,981
0,981
0,982
2,1
0,982
0,983
0,983
0,983
0,984
0,984
0,985
0,985
0,985
0,986
2,2
0,986
0,986
0,987
0,987
0,987
0,988
0,988
0,988
0,989
0,989
2,3
0,989
0,990
0,990
0,990
0,990
0,991
0,991
0,991
0,991
0,992
2,4
0,992
0,992
0,992
0,992
0,993
0,993
0,993
0,993
0,993
0,994
2,5
0,994
0,994
0,994
0,994
0,994
0,995
0,995
0,995
0,995
0,995
2,6
0,995
0,995
0,996
0,996
0,996
0,996
0,996
0,996
0,996
0,996
2,7
0,997
0,997
0,997
0,997
0,997
0,997
0,997
0,997
0,997
0,997
2,8
0,997
0,998
0,998
0,998
0,998
0,998
0,998
0,998
0,998
0,998
2,9
0,998
0,998
0,998
0,998
0,998
0,998
0,998
0,999
0,999
0,999
3,0
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
3,1
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
3,2
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
0,999
3,3
1,000
1,000
1,000
1,000
1,000
1,000
1,000
1,000
1,000
1,000
ݖଵିఈ ൌ െݖఈ ߙ ݖఈ
188
Spojitá rozdělení pravděpodobnosti
T2.
Vybrané kvantily normovaného normálního rozdělení = െݖ −zఈα ݖzଵିఈ 1−α ൌ
ߙ
0,1000
0,0500
0,0250
0,0100
0,0050
0,0010
0,0005
0,0001
ݖఈ
1,2816
1,6449
1,9600
2,3263
2,5758
3,0902
3,2905
3,7190
189
Literatura [1] Anděl, J.: Základy matematické statistiky, MatFyzPress, Praha 2007, ISBN: 80-7378-003-8. [2] Anděl, J.: Statistické metody, MatFyzPress, Praha 2007, ISBN: 80-7378-001-1. [3] Briš R., Litschmannová M., Statistika I. pro kombinované a distanční studium, Ostrava 2004, dostupné na: www.am.vsb.cz/litschmannova. [4] Budíková, M., Lerch, T., Mikoláš, Š.: Základní statistické metody, Brno 2005, ISBN: 80-210-3886-1. [5] Budíková, M., Mikoláš, Š., Osecký, P.: Teorie pravděpodobnosti a matematická statistika, Brno 2007, ISBN: 80-210-3313-4. [6] Dummer: Introduction to statistical science, VŠB-TU Ostrava, Ostrava, 1998. [7] Dummer, Klímková: Statistika I. (cvičení), VŠB-TU Ostrava, Ostrava, 1997. [8] Friedrich, V.: Statistika I. – vysokoškolská učebnice, Plzeň 2002 [9] Friesl, M.: Posbírané příklady z pravděpodobnosti a statistiky, 2004, dostupné na: http://home.zcu.cz/ friesl/Archiv/PosbPsa.pdf. [10] Gibilisco, S.: Statistika bez předchozích znalostí, Brno 2009, ISBN: 978-80-251-2465-9. [11] Kazmier, L., J., Pohl, N., F. : Basic Statistics for Business and Economics, Second Edition. McGraw-Hill, Inc., New York,1984. [12] Kohout, P.: Příklady z teorie pravděpodobnosti, dostupné na: http://www.kmt.zcu.cz/person/Kohout/infos oubory/exam1.htm. [13] Kupka, K.: Statistické řízení jakosti, Trilobyte 1997, ISBN: 80-238-1818-X. [14] Lane, D.: HyperStat Online Statistics Textbook, dostupné na: http://davidmlane.com/hyperstat. [15] Likeš, J., Machek, J.: Počet pravděpodobnosti, SNTL, Praha, 1981
190
Literatura
[16] Likeš, J., Machek, J.: Matematická statistika, SNTL, Praha, 1983 [17] Likeš, J., Laga: Základní statistické tabulky, Praha, 1978 [18] Litschmannová, M.: Statistika I. - řešené příklady, 2007, dostupné na: www.am.vsb.cz/litschmannova [19] Otipka, P., Šmajstrla, V.: Pravděpodobnost a statistika, dostupné na: http://homen.vsb.cz/ oti73/cdpast1/index.htm. [20] Plocki, A., Tlustý, P.: Pravděpodobnost a statistika pro začátečníky a mírně pokročilé, Prometheus, Praha 2007, ISBN: 978-80-7196-330-1. [21] Rosenthal, J.: Zasažen bleskem, Academia, Praha 2008, ISBN: 978-80-200-1645-4. [22] Seger, J., Hindls, R., Hronová, S.: Statistika v hospodářství, Manager – Podnikatel, Praha 1998. [23] Schindler, M.: Příklady, dostupné na: http://artax.karlin.mff.cuni.cz/ schim9am/priklady06.pdf. [24] Sternstein, M.: Barrons AP Statistics, Barron’s Educational Series, 2010, ISBN: 0764140892. [25] Triola, M., F. : Elementary Statistics, Fourth Edition. The Benjamin/Cummings Publishing Company, Inc., Redwood City, California,1989. [26] Wonnacot, T. H., Wonnacot, R. J.: Statistika pro obchod a hospodářství, Victoria Publishing, Praha 1992. [27] Zvára, K., Štěpán, J.: Pravděpodobnost a matematická statistika, MatFyzPress, Praha 2006, ISBN: 80-86732-71-1.
191
Rejstřík číselné charakteristiky marginální, 103 náhodného vektoru, 103 podmíněné, 107 šikmost, 71 špičatost, 72 bayseův vzorec, 43 distribuční funkce sdružená (simultánní), 92 funkce distribuční, 57 pravděpodobnostní, 59 hustota pravděpodobnosti, 63 vlastnosti, 64 intenzita poruch, 150 model, 150 jev úplná množina vzájemně disjunktních, 24 disjunktní, 21 doplněk, 21 elementární, 19 jistý, 20 náhodný, 19 nemožný, 20 průnik, 22 rozdíl, 23 sjednocení, 22 složený, 19 jevové pole, 24
koeficient korelační, 105 koeficient korelace, 104 kolmogorovovy axiomy pravděpodobnosti, 31 kombinace bez opakování, 7 s opakováním, 9 kombinatorické pravidlo součinu, 2 součtu, 4 kovariance, 104 kvantily, 72 matice korelační, 106 kovarianční, 105 modus, 72 moment centrální, 70 obecný, 69 sdružený, 104 sdružený centrální, 104 náhodná veličina, 56 číselné charakteristiky, 68 diskrétní, 59 spojitá, 62 náhodný vektor diskrétní, 93 spojitý, 96 normalita ověření, 167 porušení, 169 permutace
192
Rejstřík
bez opakování, 5 s opakováním, 6 podjev, 20 pokus náhodný, 19 pravděpodobnost, 28 aposteriorní, 43 geometrická, 30 klasická, 28 podmíněná, 33 průniku, 33 vlastnosti, 32 pravděpodobnosti apriorní, 43 pravidlo 3σ, 165 prostor pravděpodobnostní, 32 základní, 19 rozdělení alternativní, 120, 134 binomické, 120, 134 deometrické, 126 erlangovo, 155, 177 exponenciální, 149, 151, 175 geometrické, 136 hypergeometrické, 123, 135 aproximace, 124 logaritmicko-normální, 169, 179 marginální, 97 negativně binomické (Pascalovo), 128, 137 normální, 157 normované, 160 standardizace, 162 podmíněné, 101 poissonovo, 131, 138 aproximace, 132 rovnoměrné, 148, 173 sdružené, 92, 93, 96 weibullovo, 153 rozdělení pravděpodobnosti, 56 rozhodovací strom, 43
rozptyl, 70 vlastnosti, 71 rozptyly podmíněné, 108 smíšené momenty, 104 směrodatná odchylka, 71 střední hodnota, 69 vlastnosti, 70 střední hodnoty podmíněné, 108 výběr bez opakování, 2 neuspořádaný, 2 s opakováním, 2 uspořádaný, 2 věta o úplné pravděpodobnosti, 41 variace bez opakování, 4 s opakováním, 5 veličina náhodná, 55