Wyklad02.pdf

(132 KB) Pobierz
UDA-PO KL.04.01.01-00-082 / 08-00 Pomorski Port Edukacji i Praktyki - Program
Rozwoju Wy»szej Szkoły Bankowej w Gda«sku
WYKŁAD 2
ZMIENNA LOSOWA
Przykład 1. Rzucamy jeden raz kostk¡ symetryczn¡. W tabeli podany jest roz-
kład prawdopodobie«stwa liczby wypadni¦tych oczek.
! i
1
2
3
4
5
6
1
6
1
6
1
6
1
6
1
6
1
6
p i
Zdefiniujmy funkcj¦ X , która ka»dej liczbie oczek przyporz¡dkowuje pewn¡ liczb¦:
( 40
dla ! 2{ 1 , 2 , 3 }
X ( ! ) =
.
30
dla ! 2{ 4 , 5 }
120
dla ! = 6
Funkcja X zdefiniowana powy»ej jest przykładem zmiennej losowej.
Je»eli jest przeliczaln¡ przestrzeni¡ zdarze« elementarnych, to dowoln¡ funk-
cj¦ X : ! R nazywamy zmienn¡ losow¡ . Zmienn¡ losow¡, która przyjmuje
przeliczaln¡ liczb¦ warto±ci nazywamy dyskretn¡ .
Przykład 2. Oblicz prawdopodobie«stwo, »e zmienna X z Przykładu 1 przyjmuje
wrto±ci: -40, 20 i 100.
Zauwa», »e zmienna X przyjmuje warto±¢ 40, je»eli wypadn¡ 1, 2 lub 3 oczka,
zatem: P ( X = 40) = P (1) + P (2) + P (3) =
1
6
1
6
1
6
3
6
1
+
+
=
=
2 . Podobnie:
1
3
1
P ( X = 30) = P (4) + P (5) =
6 . Powy»sze wyniki
mo»emy zapisa¢ w tabeli i mówimy, »e został zadany rozkład prawdopodobie«stwa
zmiennej losowej X .
i P ( X = 120) = P (6) =
x i
40
30
120
1
2
1
3
1
6
p i
Zbiór par ( x i ,p i ), gdzie p i 0 jest prawdopodobie«stwem z jakim zmienna losowa
dyskretna X przyjmuje warto±¢ x i , nazywamy rozkładem prawdopodobie«-
stwa zmiennej losowej X . Zauwa»my, »e p 1 + p 2 + ...p n + ... = 1.
1
965544418.028.png 965544418.029.png 965544418.030.png 965544418.031.png 965544418.001.png 965544418.002.png 965544418.003.png 965544418.004.png 965544418.005.png 965544418.006.png 965544418.007.png 965544418.008.png 965544418.009.png 965544418.010.png 965544418.011.png 965544418.012.png 965544418.013.png 965544418.014.png 965544418.015.png 965544418.016.png 965544418.017.png 965544418.018.png 965544418.019.png 965544418.020.png 965544418.021.png 965544418.022.png 965544418.023.png 965544418.024.png 965544418.025.png 965544418.026.png 965544418.027.png
 
Je»eli X jest zmienn¡ losow¡ przyjmuj¡c¡ warto±ci x 1 ,x 2 ,...,x n ,... z prawdopo-
dobie«stwami odpowiednio p 1 ,p 2 ,...,p n ,... , to liczb¦
E ( X ) = x 1 p 1 + x 2 p 2 + ... + x n p n + ...
nazywamy warto±ci¡ ±redni¡ lub warto±ci¡ oczekiwan¡ zmiennej losowej X .
Uwaga. Przyjmuje si¦, »e warto±¢ oczekiwana zmiennej losowej X istnieje, je»eli
itnieje suma | x 1 p 1 | + | x 2 p 2 | + ... + | x n p n | + ...
Przykład 3. Oblicz warto±¢ oczekiwan¡ zmiennej losowej X z Przykładu 1.
Mamy: E ( X ) = 40 · 2
+ 30 · 3
+ 120 · 6
= 10
Własno±ci warto±ci oczekiwanej:
E ( a ) = a
E ( aX ) = aE ( X )
E ( X + Y ) = E ( X ) + E ( Y )
Przykład 4. Oblicz E (2 X + 1), gdzie X jest zmienn¡ z Przykładu 1.
Mamy
E (2 X + 1) = E (2 X ) + E (1) = 2 E ( X ) + 1 = 21 .
Niech X b¦dzie zmienn¡ losow¡ przyjmuj¡c¡ warto±ci x 1 ,x 2 ,...,x n ,... z praw-
dopodobie«stwami odpowiednio p 1 ,p 2 ,...,p n ,... Je»eli f : R ! R jest dowoln¡
funkcj¡ oraz Y = f ( X ), to warto±¢ oczekiwan¡ zmiennej Y obliczamy nast¦puj¡co:
E ( Y ) = f ( x 1 ) p 1 + f ( x 2 ) p 2 + ... + f ( x n ) p n + ...
Przykład 5. Oblicz E ( X 2 ), gdzie X jest zmienn¡ z Przykładu 1.
E ( X 2 ) = ( 40) 2 · 1
2
+ 30 2 · 1
3
+ 120 2 · 1
6
= 3500
Momentem zwykłym rz¦du k ( k = 0 , 1 , 2 ,... ) dyskretnej zmiennej losowej X
nazywamy liczb¦:
X
m k = E ( X k ) =
x i p i = x 1 p 1 + x 2 p 2 + ... + x n p n + ...
i
Uwaga. Zauwa»my, »e w szczególno±ci m 1 = EX i m 2 = EX 2 .
2
Niech X b¦dzie zmienn¡ losow¡ dla której istnieje warto±¢ oczekiwana E ( X ) = m .
Wariancj¡ zmiennej losowej X nazywamy liczb¦:
V ar ( X ) = E ( X m ) 2 .
Przykład 6. Wariancja zmiennej X z Przykładu 1 jest równa:
V arX = ( 40 10) 2 · 1
2
+ (30 10) 2 · 1
3
+ (120 10) 2 · 1
6
= 3400 .
Własno±ci wariancji:
V arX = E ( X 2 ) E 2 X
V ar ( a ) = 0
V ar ( aX ) = a 2 V arX
V ar ( X + b ) = V arX
Przykład 7. Dla zmiennej losowej X z Przykładu 1 mamy :
V arX = E ( X 2 ) E 2 X = 3500 10 2 = 3400 .
Momentem centralnym rz¦du k ( k = 0 , 1 , 2 ,... ) zmiennej dyskretnej X nazy-
wamy liczb¦ µ k = E ( X m ) k .
Uwaga. Zauwa», »e µ 2 = E ( X m ) 2 = V arX .
Odchyleniem standardowym zmiennej losowej X nazywamy liczb¦:
= p V arX.
Przy kład 8. Odchylenie standardowe zmiennej X z Przykładu 1 jest równe:
= p 3400 58.
Zagadnienie portfela inwestycyjnego. Dla papierów warto±ciowych na rynku
kapitałowym mo»na zdefiniowa¢ dwie wa»ne charakterystyki: stop¦ zwrotu i ry-
zyko. Obie s¡ mierzone w procentach. Stopa zwrotu jest zmienn¡ losow¡, ryzyko
– odchyleniem standardowym tej zmiennej losowej. Je±li stopa zwrotu (np. w sto-
sunku rocznym) wynosi 7%, a ryzyko – 4%, oznacza to, »e ±redni zwrot z kapi-
tału 1000zł b¦dzie równy 70zł. Mo»liwe s¡ jednak losowe odchylenia i ich typowe
warto±ci s¡ rz¦du 40 zł. Zatem zwrot z kapitału od 30 do 110 zł nie mo»e by¢
zaskoczeniem.
3
 
-
Wa»ne rozkłady dyskretne i ich momenty
rozkład jednopunktowy – zmienna losowa X przyjmuje jedn¡ warto±¢ a z
prawdopodobie«stwem P ( X = a ) = 1.
Momenty: EX = a i V arX = 0
rozkład dwupunktowy – zmienna losowa X przyjmuje dwie ró»ne warto±ci
a i b, z prawdopodobie«stwem:
P ( X = a ) = p i P ( X = b ) = q,
gdzie p,q > 0 i p + q = 1. Szczególnym przypadkiem tego rozkładu jest rozkład
zero-jedynkowy , gdzie a = 1 i b = 0.
Momenty: EX = pa + qb i V arX = pq ( a b ) 2
rozkład Bernoulliego (dwumianowy) B ( n,p ) – zmienna losowa X przyj-
muje warto±ci 0 , 1 , 2 ,...,n z prawdopodobienstwem:
n
k
p k q n k ,
P ( X = k ) =
gdzie p 2 (0 , 1) i p + q = 1. Jest to rozkład ł¡cznej liczby sukcesów w n
do±wiadczeniach Bernoulliego, gdzy szansa sukcesu wynosi p .
Momenty: EX = np i V arX = npq
rozkład Poissona P ( ) – zmienna losowa X przyjmuje warto±ci 0 , 1 , 2 , 3 ,...
z prawdopodobie«stwem:
P ( X = k ) = k
k ! e ,
gdzie > 0 jest parametrem.
Momenty: EX = i V arX =
Uwaga. Czasem rozkład Poissona nazywa si¦ ”rozkładem zdarze« rzadkich” albo
”prawem małych liczb”. Mog¡ to by¢ po»ary, wypadki czy te» główne nagrody
w grach losowych. Wyst¦powanie rozkładu Poissona badał Bortkiewicz w pracy
z roku 1895. Była tam mowa o zgonach na skutek kopni¦cia przez konia w armii
pruskiej. ( Wst¦p do teorii prawdopodobie«stwa -Jacek Jakubowski, Rafał Sztencel.)
4
Twierdzenie Poissona. Niech ( X n ) b¦dzie ci¡giem zmiennych losowych o roz-
kładzie dwumianowym B ( n,p n ). Je»eli
lim
n !1
n · p n = > 0 ,
to
n !1 P ( X n = k ) = e k
lim
k !
dla k = 0 , 1 , 2 ,... .
Przykład. Urna zawiera 1 kul¦ biał¡ i 49 kul czarnych. Losujemy z niej 50 razy
po jednej kuli zwracaj¡c zawsze wylosowan¡ kul¦ z powrotem do urny. Jakie jest
prawdopodobie«stwo wylosowania co najmniej dwa razy kuli białej?
Mamy tutaj do czynienia ze schematem Bernoulliego o prawdopodobie«stwie suk-
cesu (wylosowania kuli białej) w jednym do±wiadczeniu p =
1
5 . Oznaczmy przez
X liczb¦ sukcesów w pi¦¢dziesi¦ciu do±wiadczeniach. Mamy:
50
k
1
50
k 49
50
50 k
P ( X = k ) =
.
Korzystaj¡c z twierdzenia Poissona mamy:
P ( X 2) = 1 P ( X < 2) =
= 1 P ( X = 0) P ( X = 1) 1 e 1 1 0
1! e 1 1 1
= 0 , 264 .
1!
Przykład. Prawdopodobie«stwo p trafienia ”szóstki” w Toto-Lotku jest równe
1 / ( 4 6
) = 1 / 13983816 7 · 10 8 . Ilu ”szóstek” mo»na si¦ spodziewa¢ w ka»dym
tygodniu, je±li graj¡cy wypełniaj¡ kupony całkowicie losowo i niezale»nie od siebie,
a kuponów jest n = 10 7 ?
Zgodnie z twierdzeniem liczba ”szóstek” ma rozkład zbli»ony do rozkładu Poissona
z parametrem = np = 0 , 7151. Szanse pojawienia si¦ 0, 1 i 2 ”szóstek” wynosz¡
zatem: około:
P ( X = 0) = 0
P ( X = 1) = 1
0! · e = 0 , 4891 ,
1! · e = 0 , 3498 ,
P ( X = 2) = 2
2! · e = 0 , 1251 .
5
Zgłoś jeśli naruszono regulamin