Funkcja masy prawdopodobieństwa: 5 przykładów

Dyskretna zmienna losowa i oczekiwanie matematyczne-II

Jak już teraz znamy Dyskretna zmienna losowa, jest to zmienna losowa, która przyjmuje policzalną liczbę możliwych wartości w sekwencji. Dwie ważne koncepcje związane z dyskretnymi zmiennymi losowymi to prawdopodobieństwo dyskretnej zmiennej losowej i funkcja rozkładu, którą ograniczamy do takich funkcji prawdopodobieństwa i rozkładu, jak:

Funkcja masy prawdopodobieństwa (pmf)

                Połączenia Prawdopodobieństwo funkcji masowej jest prawdopodobieństwem dyskretnej zmiennej losowej, więc dla dowolnego dyskretne zmienne losowe  x1X2X3X4, ……, xk  odpowiednie prawdopodobieństwa P(x1), P (x2), P (x3), P (x4) ……, P (xk) są odpowiednimi funkcjami masy prawdopodobieństwa.

W szczególności dla X = a, P (a) = P (X = a) jest jego pmf

Używamy tutaj dalej funkcja masy prawdopodobieństwa dla dyskretnych zmiennych losowych prawdopodobieństwo. Wszystkie charakterystyki prawdopodobieństwa dla prawdopodobieństwa będą oczywiście miały zastosowanie do funkcji masy prawdopodobieństwa, takiej jak dodatniość i suma wszystkich pmf, będzie równa jeden itd.

Funkcja dystrybucji skumulowanej (CDF) / Funkcja dystrybucji

  Funkcja dystrybucji zdefiniowana jako

F (x) = P (X <= x)

dla dyskretnej zmiennej losowej z prawdopodobieństwem funkcja masy jest skumulowaną funkcją rozkładu (CDF) zmiennej losowej.

i matematyczne oczekiwanie dla takiej zmiennej losowej zdefiniowaliśmy jako

gif

Widzimy teraz niektóre wyniki oczekiwań matematycznych

  1. Jeśli x1X2X3X4,….. są dyskretnymi zmiennymi losowymi z odpowiednimi prawdopodobieństwami P(x1), P (x2), P (x3), P (x4)… Oczekiwanie co do wartości rzeczywistej funkcji g będzie
gif

Przykład: dla następujących funkcji masy prawdopodobieństwa znajdź E (X3)

prawdopodobieństwo funkcji masowej

Tutaj g (X) = X3

Więc,

gif
gif

E (X3) = (-1)3 <em>0.2 + (0)3</em> 0.5 + (1)3 * 0.3

BYŁY3) = 0.1

W podobny sposób możemy napisać dla każdego n-tego zamówienia

KodCogsEqn 13

Który jest znany jako n-ty moment.

2. Jeśli a i b są stałymi, to

E [aX + b] = aE [X] + b

Możemy to łatwo zrozumieć jako

gif
gif

= aE [X] + b

Wariancja w zakresie oczekiwań.

                Dla średniej oznaczonej μ wariancja dyskretnej zmiennej losowej X oznaczonej jako var(X) lub σ pod względem wartości oczekiwanej będzie wynosić

Var (X) = E [(X- μ)2]

i możemy to jeszcze bardziej uprościć jako

Var (X) = E [(X- μ)2]

gif
gif
gif
gif
gif

= mi [X2] – 2 μm2 + μ2

= mi [X2] – μ2

Oznacza to, że możemy zapisać wariancję jako różnicę oczekiwań kwadratu zmiennej losowej i kwadratu oczekiwań zmiennej losowej.

tj. Var (X) = E[X2] - (E [X])2

Przykład:  kiedy rzuca się kostką, oblicz wariancję.

Rozwiązanie:  tutaj wiemy, kiedy rzucona kostką będzie prawdopodobieństwo dla każdej twarzy

p(1)=p(2)=p(3)=p(4)=p(5)=p(6)=1/6

stąd dla obliczenia wariancji znajdziemy oczekiwanie zmiennej losowej i jej kwadratu jako

E[X]=1.(1/6)+2.(1/6)+3.(1/6)+4.(1/6)+5.(1/6)+6.(1/6)=(7/2)

DAWNY2] = 12. (1/6) +22. (1/6) +32. (1/6) +42. (1/6) +52. (1/6) +62.(1/6) =(1/6)(91)

i właśnie otrzymaliśmy wariancję jako

Var (X) = E [X2] - (E [X])2

so

Var (X) = (91/6) - (7/2)2 = 35 / 12

Jeden z ważna tożsamość dla wariancji is

  1. Dla dowolnych stałych a i b mamy

Var (aX + b) = a2 Var (X)

Możemy to łatwo pokazać jako

Var (aX + b) = E [(aX + b -aμ-b)2 ]

= E [a2(X - μ)2]

=a2 E [(X – μ)2]

=a2 Var (X)

Bernoulli Zmienna losowa

      Szwajcarski matematyk James Bernoulli definiuje Zmienna losowa Bernoulliego jako zmienna losowa mająca sukces lub porażkę jako tylko dwa wyniki dla losowego eksperymentu.

tj. gdy wynikiem jest sukces X = 1

Gdy wynikiem jest porażka X=0

Zatem funkcja masy prawdopodobieństwa dla zmiennej losowej Bernoulliego wynosi

p (0) = P {X = 0} = 1-p

p (1) = P {X = 1} = p

gdzie p to prawdopodobieństwo sukcesu, a 1-p to prawdopodobieństwo niepowodzenia.

Tutaj możemy wziąć 1-p = q również gdzie q jest prawdopodobieństwem niepowodzenia.

Ponieważ ten typ zmiennej losowej jest oczywiście dyskretny, jest to jedna z dyskretnych zmiennych losowych.

Przykład: Rzucanie monetą.

Zmienna losowa dwumianowa

Jeśli dla losowego eksperymentu, którego jedynym wynikiem jest sukces lub porażka, weźmiemy n prób, więc za każdym razem, gdy otrzymamy sukces lub porażkę, to zmienna losowa X reprezentująca wynik takiego n próbnego eksperymentu losowego jest znana jako Dwumianowa zmienna losowa.

                Innymi słowy, jeśli p jest funkcją masy prawdopodobieństwa sukcesu w pojedynczej próbie Bernoulliego, a q = 1-p jest prawdopodobieństwem niepowodzenia, to prawdopodobieństwo wystąpienia zdarzenia „x lub i” razy w n próbach będzie wynosić

gif

or

gif.latex?p%28i%29%3D%5Cbinom%7Bn%7D%7Bi%7Dp%5E%7Bi%7D%281 p%29%5E%7Bn i%7D%20where%20i%20%3D0%2C1%2C2%2C%u2026

Przykład: Jeśli rzucimy dwiema monetami sześć razy i zdobycie głowy zakończy się sukcesem, a pozostałe zdarzenia to porażki, to prawdopodobieństwo będzie

gif
gif

w podobny sposób możemy obliczyć dla każdego takiego eksperymentu.

Połączenia Dwumianowa zmienna losowa ma imię Dwumianowy ponieważ reprezentuje ekspansję

Testowanie
Gdybyśmy wstawili n = 1, to zmieniłoby się to w zmienną losową Bernoulliego.

Przykład: Gdyby rzucono pięć monet, a wynik zostałby przyjęty niezależnie, to jakie byłoby prawdopodobieństwo wystąpienia liczby orłów.

Tutaj, jeśli weźmiemy losową zmienną X jako liczbę orłów, to zmieni się ona w dwumianową zmienną losową z n = 5 i prawdopodobieństwem sukcesu jako ½

Więc podążając za funkcją masy prawdopodobieństwa dla dwumianowej zmiennej losowej, otrzymamy

gif
gif
gif
gif
gif

Przykład:

W pewnej firmie prawdopodobieństwo usterki wynosi 0.01 od produkcji. Firma produkuje i sprzedaje produkt w opakowaniach po 10, a swoim klientom oferuje gwarancję zwrotu pieniędzy, że maksymalnie 1 z 10 produktów jest wadliwy, a więc jaką część sprzedanych produktów w opakowaniu firma musi wymienić.

Tutaj Jeśli X jest zmienną losową reprezentującą wadliwe produkty, to jest ona typu dwumianowego z n = 10 ip = 0.01, to prawdopodobieństwo, że pakiet zwróci

KodCogsEqn 14

Przykład: (chuck-a-luck / wheel of fortune) W konkretnej grze losowej w hotelu gracz obstawia dowolny z numerów od 1 do 6, po czym rzuca trzema kostkami, a jeśli pojawi się liczba, gracz obstawia raz, dwa lub trzy razy gracz tyle jednostek oznacza, że ​​jeśli pojawi się raz, to 1 jednostka, jeśli na dwóch kościach, to 2 jednostki, a jeśli na trzech kościach, to 3 jednostki, sprawdź z pomocą prawdopodobieństwa, czy gra jest uczciwa dla gracza, czy nie.

Jeśli założymy, że nie będzie żadnych niesprawiedliwych środków w przypadku technik kostek i oszustw, to zakładając wynik rzutu kostkami niezależnie, prawdopodobieństwo sukcesu każdej kości wynosi 1/6, a porażka będzie

 1-1 / 6 więc okazuje się, że jest to przykład dwumianowej zmiennej losowej z n = 3

więc najpierw obliczymy prawdopodobieństwo wygranej, przypisując x jako wygraną graczy

gif
gif
gif
gif

Teraz, aby obliczyć, czy gra jest uczciwa dla gracza, czy nie, obliczymy oczekiwanie zmiennej losowej

E[X] = -125+75+30+3/216

= -17/216

Oznacza to, że prawdopodobieństwo przegranej przez gracza, który zagra 216 razy, wynosi 17.

Wnioski:

   W tym artykule omówiliśmy niektóre podstawowe właściwości dyskretnej zmiennej losowej, funkcję masy prawdopodobieństwa i wariancję. Ponadto widzieliśmy kilka typów dyskretnych zmiennych losowych. Zanim zaczniemy ciągła zmienna losowa staramy się omówić wszystkie typy i właściwości dyskretnej zmiennej losowej, jeśli chcesz dalej czytać, przejdź przez:

Zarysy prawdopodobieństwa i statystyki Schauma

https://en.wikipedia.org/wiki/Probability

Więcej tematów na temat matematyki znajdziesz na pod tym linkiem