Na stronie używamy cookies. Korzystanie z witryny oznacza zgodę na ich wykorzystywanie. Szczegóły znajdziesz w Regulaminie.
ZAMKNIJ X

Prawo wielkich liczb – definicja, przykład, zadania

Ostatnio komentowane
Polecam
Ola6a • 2016-12-05 19:19:19
super
sr • 2016-12-05 18:58:48
Dzięki za pomoc!
Uczeń • 2016-12-05 17:25:49
Moja nauczcielka zagroziła mi że pozwie mnie do sądu jak na wypracowania będe kopiowal...
drtjfghjfcghfcgh • 2016-12-05 15:17:27
@Nesti Głupi to ty jesteś.
xxx • 2016-12-05 17:17:51
Autor:
Drukuj
Drukuj
Rozmiar
AAA

Prawo wielkich liczb – definicja, przykład, zadania

Jednym z ważniejszych początkowych wyników teorii prawdopodobieństwa jest tzw. prawo wielkich liczb, sformułowane przez Jakoba Bernoulliego i nazwane przez niego złotym twierdzeniem. Orzeka ono, że „z prawdopodobieństwem dowolnie bliskim 1 można oczekiwać, że przy dostatecznie dużej liczbie prób częstość wystąpienia danego zdarzenia losowego będzie się dowolnie mało różniła od jego prawdopodobieństwa”.

W praktyce twierdzenie to sprowadza się do faktu, że w badaniach statystycznych możemy mieć dokładną świadomość tego, na jaki błąd się narażamy formułując wnioski w oparciu o próbę statystyczną, tj. grupę jednostek wyodrębnioną z całej populacji.

Formalne sformułowanie twierdzenia jest następujące:  \lim_{n \to \infty} P(|w_i - p_i| <\varep)=1, gdzie w_i oraz p_i oznaczają odpowiednio empiryczne częstości i prawdopodobieństwa wystąpienia i-tego zjawiska.

Innymi słowy, w przełożeniu na język statystyki, wartość średniej arytmetycznej z próby jest tym lepszym oszacowaniem średniej całej populacji im liczebność próby losowej jest większa.

Polecamy również:

Komentarze (0)
3 + 3 =